Qué revelan los Facebook Papers

spot_img

Lo que muestran los miles de documentos filtrados dañan la imagen de la compañía.

Facebook atraviesa su peor crisis desde el escándalo de Cambridge Analytica cuando un informante acusó a la compañía de poner “la ganancia antes que la seguridad” y arroja luz sobre las maquinaciones internas a través de miles de memorandos.

Los documentos fueron entregados a los organismos reguladores de Estados Unidos y al Congreso en forma redactada por el asesor legal de Frances Haugen, la persona que filtra la información.

A menudo se acusa a Facebook de no moderar el discurso del odio en sus páginas en inglés pero el problema es mucho peor en lugares donde se hablan otros idiomas, aun después de que prometió invertir más luego de que se la acusara de facilitar el genocidio de Myanmar en 2017.

Un documento escrito en 2021 advertía sobre el escaso número de moderadores de contenido en los dialectos árabes que se hablan en Arabia saudita, Yemen y Libia. Otro estudio de Afganistán, donde Facebook tiene 5 millones de usuarios, descubrió que hasta las páginas que explican cómo reportar el lenguaje del odio estaban mal traducidas.

Esos defectos ocurrieron aunque la propia investigación de Facebook marcaba a algunos de esos países como de “alto riesgo” debido a su fragilidad política y abundancia de lenguaje de odio.

Según un documento, la compañía destinó 87% de su presupuesto a desarrollar algoritmos de detección de desinformación en Estados Unidos en 2020 y solo 13% al resto del mundo.

Facebook ha dicho siempre que sus programas de inteligencia artificial pueden detectar y eliminar el lenguaje de odio y abuso, pero estos documentos muestran sus limitaciones. Según una nota de marzo 2021 escrita por un grupo de investigadores la compañía toma medidas ante solo 3 a 5% del lenguaje de odio y solo 0,6% del contenido violento. Otro memo sugiere que tal vez nunca pueda ir más allá del 10 a 20% porque es “extraordinariamente difícil” para IA entender el contexto en el que se usa el lenguaje.

No obstante, Facebook ya decidió confiar más en IA y recortar el dinero que gastaba en la moderación humana en 2019 en lo que respecta a lenguaje de odio.

Compartir:

spot_img
spot_img
spot_img
spot_img
spot_img
spot_img

Noticias

CONTENIDO RELACIONADO