Riesgos de la IA y el uso del rostro humano en Internet
Cada día compartimos fotografías nuestras y de otras personas en redes sociales. Este acto tan habitual nos expone a posibles delitos digitales contra la privacidad y la identidad personal.

Por
Javier Valls Prieto
,
Ana Chapman
y
Miriam Fernández-Santiago
(*)
Se trata de un problema que aumenta si consideramos la actual falta de legislación en el ámbito de la inteligencia artificial. Desde que comenzó el milenio vivimos en la que conocemos como era digital, o sociedad de la información y la comunicación. En esta nueva realidad social, la inteligencia artificial nos permite procesar rápidamente grandes cantidades de datos. Estos cálculos ayudan a conocer las tendencias de los mercados, la opinión pública y los cambios atmosféricos. Su aplicación a la robótica ha marcado grandes avances en medicina, telecomunicaciones y domótica. Estos cambios han modificado nuestra vida diaria, nuestras viviendas y nuestra interacción con los demás. A diario confiamos en la inteligencia artificial para realizar tareas automáticas de manera eficaz. En muchos sentidos es superior a la inteligencia humana y por ese motivo confiamos más en ella.
La inteligencia artificial y sus limitaciones
Entre los principales retos y aplicaciones de la inteligencia artificial están la medicina y el cuidado de personas vulnerables. Sin embargo, es precisamente aquí donde se pone de manifiesto una de las limitaciones de este campo. La falta del componente afectivo limita el uso de las inteligencias artificiales. A día de hoy no existen robots con una apariencia suficientemente humana para imitar expresiones faciales y emociones. Esa capacidad empática, interpretativa e intuitiva característica del ser humano no existe actualmente en robótica. La inteligencia artificial también se postulaba como sustituto del humano en contextos educativos que favorecen el aprendizaje autónomo. Sin embargo, la reciente experiencia de educación
online
debido a la covid-19 ha puesto de manifiesto lo contrario.
La interacción cara a cara entre los estudiantes y el profesorado es esencial para el aprendizaje significativo
.
La subjetividad humana y el rostro digital
Aun teniendo esa gran capacidad de procesar enormes cantidades de datos, la inteligencia artificial
aún no ha conseguido atribuirles significado
. Hacer que estos datos sean significativos o relevantes es algo que solo el ser humano puede hacer (lo hacemos continuamente cada vez que, por ejemplo, hacemos “me gusta” o retuiteamos). Es decir, somos nosotros quienes decidimos qué datos son importantes o destacados para cada situación específica. Esto es debido a que el significado va estrechamente unido a la respuesta ética que la subjetividad humana da frente al rostro de otro ser humano. Sin este mutuo reconocimiento, el
big data
no significa nada. Por eso a menudo debemos confirmar que “no soy un robot”. Es así como la inteligencia artificial reconoce que nuestra interacción
online
–nuestro rostro digital– es significativa.
Los peligros de la inteligencia artificial
La usurpación de la identidad humana
es uno de los peligros más temidos en relación con la inteligencia artificial
. La ansiedad que este miedo genera se ve reflejada en obras de ciencia ficción tan populares como los clásicos filmes
Blade Runner
(1982) y
Matrix
(1999), y más recientemente, series digitales como
Black Mirror
(2011),
Humans
(2015), y
Maniac
(2018). En todas ellas, el fin de la sociedad que conocemos tiene sus bases en la dominación y control por parte de inteligencias artificiales que simulan el rostro y el comportamiento humano. Sin embargo, los peligros que la tecnología plantea en relación con la utilización del rostro humano en entornos digitales toman una forma diferente, aunque igualmente amenazadora. La utilización del rostro humano en inteligencias artificiales presenta grandes retos para el derecho. El rostro como elemento biométrico que nos identifica como persona está protegido de diferentes formas. Por un lado, los derechos a la identidad y a la autodeterminación van a permitir proteger a los sujetos de las posibles alteraciones que produzca la inteligencia artificial. Por otro lado, los sistemas de reconocimiento facial están considerados como de alto riesgo en el
borrador de regulación de la inteligencia artificial de la Comisión Europea
. Para su utilización se van a tener que testar en sistemas seguros, realizar códigos de conducta y establecer sistemas de cumplimiento ético de gran complejidad. Los casos de utilización de sistemas de vigilancia masivos mediante reconocimiento facial van a ser prohibidos por su gran impacto en la privacidad, libertad y autonomía de los ciudadanos. El procesamiento de rostros está llegando a un nivel en el que
no vamos a poder distinguir entre lo que es real y lo que es ficticio
(como ocurre con los filtros en redes sociales, por ejemplo). Esto produce un gran daño a la reputación de la persona cuyo rostro se está procesando y, además, puede ser utilizado para alterar nuestros sistemas democráticos destruyendo la reputación de nuestros representantes (
véanse casos recientes de
deep fake
). Los restos de regulación e impacto en los derechos fundamentales por la utilización maligna de nuestros rostros constituye una amenaza que ha de ser abordada y protegida por los sistemas jurídicos. La finalidad es la de poder seguir siendo persona dentro de un entorno en el que la tecnología nos pueda ayudar a superar los grandes retos que tiene nuestra sociedad.
(*)
Javier Valls Prieto
es profesor en Derecho Penal especializado en regulación ética y jurídica de la inteligencia artificial y la robótica, Universidad de Granada;
Ana Chapman
es Assistant lecturer, Universidad de Málaga; y
Miriam Fernández-Santiago
es profesora titular de la Universidad de Granada.
Artículos relacionados

Roku activa descuentos del 11 al 17 de mayo en sus Streaming Stick
La compañía aplicará rebajas en Argentina por el Día Mundial de Internet, con precios finales de $64.999 y $117.999 según el modelo, en principales tiendas y plataformas de venta online, una acción que apunta a ampliar el acceso al streaming y a extender la vida útil de televisores.

Google habilitó en Argentina la función “Pruébalo” para probar ropa y calzado
La herramienta de prueba virtual ya funciona en Google Shopping y el Buscador para usuarios con sesión iniciada, mayores de 18 años, y busca facilitar la compra online al mostrar cómo podrían verse tops, pantalones, vestidos y zapatos en una foto propia, con foco en privacidad y limitaciones de ajuste

Botmaker 3.0 incorpora agentes de IA para delegar procesos de negocio completos
La compañía presentó en Buenos Aires una arquitectura de agentes autónomos multimodales y orquestadores que apunta a ejecutar flujos operativos de punta a punta, con primeras implementaciones que registraron 98% de interacciones y respuestas correctas y una reducción de hasta 82% en el uso de recursos manuales mediante Human-in-the-Loop

