Facebook anunció el miércoles en un comunicado que retiró 8,7 millones de imágenes de niños desnudos de la red social con ayuda de un software inteligente que señala las fotos en forma automática.
La herramienta de “machine learning”, que salió apenas este año, identifica imágenes de niños e imágenes de desnudos. También reveló que está usando un sistema que detecta personas adultas en tren de trabar amistad con niños y adolescentes para explotación sexual. La empresa proyecta aplicar los msismos programas a Instagram.
Las máquinas inteligentes (machine learning) todavía es un sistema imperfecto y es posible que también bloquee algunos posteos legítimos. Ya se han producido quejas al respecto de agencias de noticias y anunciantes.
“Cuando de niños se trata, preferimos equivocarnos por el lado de la precaución”, dijo Antígona Davis, gerente de seguridad global de la compañía.
Desde hace algunos años Facebook bloquea incluso fotos familiares donde aparecen niños con escasa ropa subidas con las mejores intenciones. Lo hace, explica, temiendo el uso que otras personas pudieran hacer de esas imágenes.
Pero antes de este nuevo software, dependía de los mismos usuarios o de sus filtros de desnudez para encontrar niños desnudos. Antes no daba información sobre fotos infantiles retiradas del sistema. La compañía dice que la incorporación del programa, que aprendió de su colección de adultos desnudos y niños vestidos, contribuyó a detectar muchas más fotos.