Los verdaderos riesgos de la IA

Rara vez los algoritmos son neutrales. Tienden a replicar los sesgos de quienes los desarrollan.

14 septiembre, 2018

Casi todo lo que se dice sobre inteligencia artificial (IA) es o bien exagerado, o bien falso, o bien simplemente la expresión de un deseo o un temor. Se percibe una ansiedad generalizada por un futuro distópico cuando prácticamente no hay motivos para conceder que una IA que supere la inteligencia humana es siquiera plausible.

Por Valentín Muro (*)

 

La investigación en IA es uno de los campos más interesantes y potentes en la actualidad, tanto en lo científico, como en lo tecnológico e incluso filosófico. Pero dada su naturaleza corre con el peligro de ser sujeto de relatos que mucho más tienen que ver con ciencia ficción disfrazada de periodismo que con la empresa más digna de la comunicación pública de la ciencia. Toda tecnología novedosa suscita este tipo de cobertura acrítica y apasionada.

Después de todo, la posibilidad con la que se coquetea es la de recrear aquella mítica capacidad que distingue a los humanos del resto de la naturaleza. Pero desviar la atención de este modo implica el peligro de ocultar los verdaderos riesgos de la IA. Una máquina no necesita ser ni remotamente inteligente como un humano para tener un impacto profundo y duradero en el futuro de la humanidad. Si bien el concepto de IA tiene más de 60 años, fue durante la última década que realmente vimos su explosión.

Mejores algoritmos, mejor capacidad de cómputo y mayor capacidad de almacenamiento a bajo costo se tradujeron en la rápida implementación de soluciones que involucran IA no solo en aquellos campos relativamente obvios –asistentes digitales, sistemas de recomendación de películas, libros, música, etc.– sino también en áreas como finanzas, política pública, asuntos legales e incluso en entornos laborales. En estos otros espacios las recomendaciones hechas por un algoritmo pueden tener importantes consecuencias.

Se los implementa bajo la promesa de eliminar tareas repetitivas y tediosas que pueden ser automatizadas a partir del análisis y emulación de patrones en todo tipo de procesos. Y aunque pueda sonar bien, rara vez los algoritmos son neutrales. En cambio, tienden a replicar los sesgos de quienes los desarrollan e implementan y de los datos de los que parten. Reconocer estos peligros no implica abandonar el desarrollo de IA sino más bien enfatizar la importancia de que este sea guiado por un acercamiento crítico, lejos de la ingenuidad “solucionista”.

Algunos de los desafíos resultantes de estos peligros pueden dividirse en los campos de trabajo y automatización; sesgos, diversidad e inclusión; derechos y libertades; y asuntos éticos y de gobernanza. Lo más probable no es que los robots reemplacen a las personas sino que estos tomen ciertas tareas automatizables, dejando el amplio resto a los humanos. Un desafío mucho más urgente es el del cambio en el balance de poder entre empleados y empleadores.

Por el momento y a partir de la incorporación de software de monitoreo y evaluación bajo la promesa de neutralidad, la balanza se inclina por los últimos. En el campo de la IA hay un grave problema de sesgos y falta de diversidad. No solo en su sentido estadístico sino también en el sentido más amplio de sesgos legales y normativos. Idealmente los algoritmos podrían volver ciertos procesos más justos e imparciales, pero en la práctica no solo esto no sucede sino que tienden a amplificarse las diferencias. A esto se le suma que en el campo de la IA hay muy poca diversidad.

Esto se presenta como un problema porque estos desarrollos operan sobre grupos demográficos diversos con experiencias de vida muy distintas que pueden quedar afuera. En instituciones gubernamentales o de interés público, la adquisición e implementación de sistemas de IA suele realizarse sin escrutinio público ni la atención a preocupaciones de la sociedad civil.

Se adquieren desde programas para la predicción de delincuencia o perfilado criminal hasta algoritmos de reconocimiento facial de cuestionable eficacia. Pero la ansiedad por la modernización debe ponderarse frente a los riesgos y la evidencia empírica respecto de su utilidad real, capaces de ser controladas y supervisadas. En cuanto a preocupaciones éticas y de gobernanza, es cierto que hay un creciente interés por la incorporación de controles y contrapesos que legitimen la evolución del campo de la IA.

Pero no es un desafío menor. Está clara la necesidad de marcos éticos para el desarrollo de IA, pero lograr este tipo de consensos no es un desafío novedoso ni sencillo de resolver. Con la madurez del campo de la IA y la amplia adopción de sus frutos en ámbitos diversos, es necesario evaluar cuál es su impacto y a quién beneficia su incorporación. Los algoritmos en la toma de decisiones tienen la potencialidad de revertir muchas injusticias e incluso disminuir la desigualdad, pero no es eso lo que está sucediendo.

Se implementa tecnología sin el entendimiento de la sociedad civil y sin su voz ni voto. Debemos elevar el nivel de la discusión, deshacernos de los no-problemas heredados de los relatos hollywoodenses y en cambio enfocarnos en aquellos ámbitos donde la incorporación de IA tiene un impacto concreto. Puede que involucre muchos menos efectos especiales, pero será una historia mucho más digna de contar.

(*) Filosofía, UBA; columnista, conductor de Idea Millonaria, blog https://comofuncionanlascos.as/

 

Notas Relacionadas

Suscripción Digital

Suscríbase a Mercado y reciba todos los meses la mas completa información sobre Economía, Negocios, Tecnología, Managment y más.

Suscribirse Archivo Ver todos los planes

Newsletter


Reciba todas las novedades de la Revista Mercado en su email.

Reciba todas las novedades