martes, 23 de mayo de 2017

Revelan lo que Facebook permite y prohíbe al moderar comentarios de los usuarios

La forma en la que Facebook censura -o no- a sus usuarios acaba de ser revelada gracias a la publicación de varios documentos internos filtrados al diario británico The Guardian.

Según el periódico, los documentos muestran cuáles son los criterios empleados por la gigantesca red social para decidir si un contenido es demasiado violento, sexual, racista, incita al odio o hace apología del terrorismo. The Guardian sostiene que los moderadores de Facebook están "sobrepasados" y tienen sólo algunos segundos para decidir si dejar o no los comentarios de sus usuarios.

The Guardian afirma haber obtenido más de 100 manuales usados internamente por Facebook para entrenar a sus moderadores acerca de lo que se puede y no se puede publicar en la plataforma. Por el momento, Facebook no ha negado ni confirmado la veracidad de los documentos. Pero los manuales cubren una amplia gama de temas sensibles, incluyendo discursos de odio, porno por venganza, autolesiones, suicidio, canibalismo y amenazas de violencia.

Y. como reconoce el mismo The Guardian, su publicación seguramente preocupará tanto a aquellos que exigen más acción por parte de la red social, como a los que están preocupados por el rol de facto de Facebook como "el mayor censor del mundo".

El periódico destaca, por ejemplo, que expresiones como "Qué alguien le dispare a Trump" deben ser borradas, pues en tanto jefe de Estado el presidente de EE.UU. está en una categoría protegida, pero que se puede conservar la expresión "Jódete y muere", pues esa no es considerada una amenaza creíble. Y lo mismo aplica a expresiones como "Esa muchachita mejor que se quede tranquila antes de que papi le rompa la cara" o "espero que alguien te mate".

Excepciones

En uno de los documentos filtrados, Facebook admite que "la gente utiliza lenguaje violento para expresar su frustración en línea" y "se siente segura" haciéndolo en la plataforma, explica The Guardian. Y, según los documentos filtrados, este tipo de imágenes tampoco se borran automáticamente "para que el niño pueda ser identificado y rescatado".
The Guardian también destaca que fotos de abusos de animales también pueden ser compartidas en Facebook "para generar conciencia" y solo las más extremas deben ser marcadas como "perturbadoras". Y la red social también permite la transmisión en vivo de intentos de autolesionarse, porque "no quiere censurar o castigar a gente que está sufriendo", revelan los documentos.

Criterios confusos

Varios moderadores de Facebook, entrevistados por el el periódico, describieron las políticas utilizadas por la red para evaluar el contendido como "peculiares" e"inconsistentes". Y, según ellos, el proceso para decidir si conservar o eliminar contenido sobre tópicos sexuales es particularmente "confuso".

Los documentos muestran que Facebook cambió sus políticas sobre desnudez luego de la polémica que suscitó el año pasado cuando ordenó eliminar una icónica fotografía de la guerra de Vietnam porque la niña en la foto aparecía desnuda. Ahora la plataforma permite "excepciones noticiosas", aunque eso no incluye imágenes de "desnudez infantil en el contexto del Holocausto", explica The Guardian.

Vistazo alarmante

Según The Guardian, este vistazo al proceso de toma de decisiones de Facebook seguramente va a redoblar los llamados para que la red sea más cuidadosa con lo que publica o no, pero también para que sea más transparente con sus criterios. "Trabajamos duro para hacer que Facebook sea tan seguro como sea posible, mientras posibilitamos la libertad de expresión", dijo, por su parte, en un comunicado, Monica Bickert, directora de políticas globales de Facebook.

En mayo, luego de duras críticas de un comité parlamentario británico, Facebook anunció que había contratado a 3.000 personas para que revisaran el contenido.

Según el periódico, los documentos muestran cuáles son los criterios empleados por la gigantesca red social para decidir si un contenido es demasiado violento, sexual, racista, incita al odio o hace apología del terrorismo. The Guardian sostiene que los moderadores de Facebook están "sobrepasados" y tienen sólo algunos segundos para decidir si dejar o no los comentarios de sus usuarios.

No hay comentarios:

Publicar un comentario