Por Javier Valls Prieto, Ana Chapman y Miriam Fernández-Santiago (*)
Se trata de un problema que aumenta si consideramos la actual falta de legislación en el ámbito de la inteligencia artificial.
Desde que comenzó el milenio vivimos en la que conocemos como era digital, o sociedad de la información y la comunicación. En esta nueva realidad social, la inteligencia artificial nos permite procesar rápidamente grandes cantidades de datos. Estos cálculos ayudan a conocer las tendencias de los mercados, la opinión pública y los cambios atmosféricos.
Su aplicación a la robótica ha marcado grandes avances en medicina, telecomunicaciones y domótica. Estos cambios han modificado nuestra vida diaria, nuestras viviendas y nuestra interacción con los demás.
A diario confiamos en la inteligencia artificial para realizar tareas automáticas de manera eficaz. En muchos sentidos es superior a la inteligencia humana y por ese motivo confiamos más en ella.
La inteligencia artificial y sus limitaciones
Entre los principales retos y aplicaciones de la inteligencia artificial están la medicina y el cuidado de personas vulnerables. Sin embargo, es precisamente aquí donde se pone de manifiesto una de las limitaciones de este campo. La falta del componente afectivo limita el uso de las inteligencias artificiales.
A día de hoy no existen robots con una apariencia suficientemente humana para imitar expresiones faciales y emociones. Esa capacidad empática, interpretativa e intuitiva característica del ser humano no existe actualmente en robótica.
La inteligencia artificial también se postulaba como sustituto del humano en contextos educativos que favorecen el aprendizaje autónomo. Sin embargo, la reciente experiencia de educación online debido a la covid-19 ha puesto de manifiesto lo contrario. La interacción cara a cara entre los estudiantes y el profesorado es esencial para el aprendizaje significativo.
La subjetividad humana y el rostro digital
Aun teniendo esa gran capacidad de procesar enormes cantidades de datos, la inteligencia artificial aún no ha conseguido atribuirles significado. Hacer que estos datos sean significativos o relevantes es algo que solo el ser humano puede hacer (lo hacemos continuamente cada vez que, por ejemplo, hacemos “me gusta” o retuiteamos). Es decir, somos nosotros quienes decidimos qué datos son importantes o destacados para cada situación específica.
Esto es debido a que el significado va estrechamente unido a la respuesta ética que la subjetividad humana da frente al rostro de otro ser humano. Sin este mutuo reconocimiento, el big data no significa nada. Por eso a menudo debemos confirmar que “no soy un robot”. Es así como la inteligencia artificial reconoce que nuestra interacción online –nuestro rostro digital– es significativa.
Los peligros de la inteligencia artificial
La usurpación de la identidad humana es uno de los peligros más temidos en relación con la inteligencia artificial. La ansiedad que este miedo genera se ve reflejada en obras de ciencia ficción tan populares como los clásicos filmes Blade Runner (1982) y Matrix (1999), y más recientemente, series digitales como Black Mirror (2011), Humans (2015), y Maniac (2018).
En todas ellas, el fin de la sociedad que conocemos tiene sus bases en la dominación y control por parte de inteligencias artificiales que simulan el rostro y el comportamiento humano. Sin embargo, los peligros que la tecnología plantea en relación con la utilización del rostro humano en entornos digitales toman una forma diferente, aunque igualmente amenazadora.
La utilización del rostro humano en inteligencias artificiales presenta grandes retos para el derecho. El rostro como elemento biométrico que nos identifica como persona está protegido de diferentes formas. Por un lado, los derechos a la identidad y a la autodeterminación van a permitir proteger a los sujetos de las posibles alteraciones que produzca la inteligencia artificial.
Por otro lado, los sistemas de reconocimiento facial están considerados como de alto riesgo en el borrador de regulación de la inteligencia artificial de la Comisión Europea. Para su utilización se van a tener que testar en sistemas seguros, realizar códigos de conducta y establecer sistemas de cumplimiento ético de gran complejidad. Los casos de utilización de sistemas de vigilancia masivos mediante reconocimiento facial van a ser prohibidos por su gran impacto en la privacidad, libertad y autonomía de los ciudadanos.
El procesamiento de rostros está llegando a un nivel en el que no vamos a poder distinguir entre lo que es real y lo que es ficticio (como ocurre con los filtros en redes sociales, por ejemplo). Esto produce un gran daño a la reputación de la persona cuyo rostro se está procesando y, además, puede ser utilizado para alterar nuestros sistemas democráticos destruyendo la reputación de nuestros representantes (véanse casos recientes de deep fake).
Los restos de regulación e impacto en los derechos fundamentales por la utilización maligna de nuestros rostros constituye una amenaza que ha de ser abordada y protegida por los sistemas jurídicos. La finalidad es la de poder seguir siendo persona dentro de un entorno en el que la tecnología nos pueda ayudar a superar los grandes retos que tiene nuestra sociedad.
(*) Javier Valls Prieto es profesor en Derecho Penal especializado en regulación ética y jurídica de la inteligencia artificial y la robótica, Universidad de Granada; Ana Chapman es Assistant lecturer, Universidad de Málaga; y Miriam Fernández-Santiago es profesora titular de la Universidad de Granada.