Los moderadores de Facebook “pecan de adultos” al no estar seguros de la edad en las fotos de posibles abusos

Los activistas afirman que las políticas no hacen lo suficiente para proteger a los niños

Una de las principales responsabilidades de las empresas tecnológicas es supervisar el contenido de sus plataformas en busca de material de abuso sexual infantil (CSAM, por sus siglas en inglés), y si se encuentra alguno, están obligadas por ley a denunciarlo al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC, por sus siglas en inglés). Muchas empresas tienen moderadores de contenido que revisan el contenido marcado como potencialmente CSAM, y determinan si el contenido debe ser reportado al NCMEC.

Sin embargo, Facebook tiene una política que podría significar que no se denuncian los contenidos de abuso sexual infantil, según un nuevo informe de The New York Times. Un documento de formación de Facebook indica a los moderadores de contenidos que “se equivoquen con un adulto” cuando no sepan la edad de alguien en una foto o vídeo que se sospeche que es CSAM, según el informe.

La política se hizo para los moderadores de contenido de Facebook que trabajan en Accenture y se discute en un artículo de California Law Review de agosto:

Los entrevistados también describieron una política llamada “bumping up”, con la que cada uno de ellos estaba personalmente en desacuerdo. Esta política se aplica cuando un moderador de contenidos no puede determinar fácilmente si el sujeto de una foto sospechosa de CSAM es un menor (“B”) o un adulto (“C”). En tales situaciones, los moderadores de contenidos tienen instrucciones de asumir que el sujeto es un adulto, permitiendo así que más imágenes no sean reportadas al NCMEC.

He aquí el razonamiento de la empresa para esta política, extraído de The New York Times:

Antigone Davis, directora de seguridad de Meta, confirmó la política en una entrevista y dijo que se debe a la preocupación por la privacidad de quienes publican imágenes sexuales de adultos. “El abuso sexual de los niños en línea es aborrecible”, dijo Davis, haciendo hincapié en que Meta emplea un proceso de revisión riguroso y de varios niveles que marca muchas más imágenes que cualquier otra empresa de tecnología. Dijo que las consecuencias de marcar erróneamente los abusos sexuales a menores podrían “cambiar la vida” de los usuarios.

Cuando se le pidió un comentario, Facebook (que ahora está bajo el paraguas corporativo de Meta) señaló las citas de Davis en el NYT. Accenture no respondió inmediatamente a una solicitud de comentarios. Accenture declinó hacer comentarios a The New York Times.

Latest articles

Related articles

Leave a reply

Please enter your comment!
Please enter your name here