Por María Isabel Montserrat Sánchez-Escribano y Javier Varona (*)
Sistemas inteligentes son los vehículos autónomos, los drones no tripulados, o los robots que pintan cuadros o escriben canciones.
En definitiva, todas ellas máquinas que emulan a las personas imitando la inteligencia humana. Sin embargo, hasta hace pocos años esta ecuación tecnológica ha soslayado uno de los aspectos más esenciales de la inteligencia humana: la inteligencia emocional.
Sobre las emociones gravita toda decisión del ser humano; nos condicionan e influyen. De este modo, si deseamos que una máquina reproduzca la conducta humana, parece evidente que, para conseguirlo, habría que lograr que la máquina pudiera sentir lo que un humano siente en cada preciso momento al tomar una decisión. Y es entonces cuando surge la duda: ¿puede una máquina llegar a sentir, a ser empática o a emocionarse?
Aprendizaje automático bajo tutela humana
A priori, para alguien ajeno al mundo de la inteligencia artificial, atribuir una emoción a una máquina puede parecer algo estrambótico e incluso descabellado. Podemos aceptar, quizá, que la máquina reconozca, a través de la interpretación de los gestos y actitudes humanas, qué emoción sentimos en cada momento o cuál es nuestro estado de ánimo. Pero en ningún caso nos resulta lógico ni imaginable que estas puedan sentir y, aún menos, adoptar una decisión conforme a este sentimiento, aprendiendo y evolucionando a causa de sus decisiones.
Pues bien, el aprendizaje automático, una rama de la inteligencia artificial, permite a la máquina resolver todo tipo de problemas, en la mayoría de casos mejor que los humanos. Emplea para ello métodos que le facultan para encontrar la mejor solución y aprender de forma autónoma, y que, además, se encuentran totalmente implantados en los sectores productivos y de ocio.
Desde esta perspectiva, los modelos de aprendizaje automático requieren la utilización de una ingente cantidad de datos. Estos, a su vez, están basados en un esquema completamente apriorístico: siempre existe un humano que decide cómo introducir los datos en la máquina y cómo estos se van a clasificar y etiquetar, determinando su valor de destino para que le sirvan como guía en sucesivas decisiones.
La complejidad de las emociones humanas
Así, en principio, salvo error humano en la introducción o clasificación de los datos, la máquina debería dar siempre para cada entrada la misma respuesta. No obstante, en los humanos las emociones hacen que, con frecuencia, en una misma situación, ese valor de respuesta sea diferente en función de su estado de ánimo. Y es aquí cuando las máquinas no pueden resolver el problema.
Por tanto, una máquina podrá representar con un amplio margen de realidad un estado emocional, pero solo será un reflejo, cual retrato, de situaciones reales vividas previamente por el ser humano. Ahí quedará todo.
Además, aunque las máquinas pudieran aprender emociones, sentimientos o deseos, tendrían que tener en cuenta también en ese proceso de “etiquetaje” del que hemos hablado antes los factores indeseables inherentes a todo sentimiento. Si no, se obtendrían modelos sesgados (modelos que priorizan una parte del problema) y no se imitaría de forma auténtica la realidad. Esta cuestión convierte el tema que tratamos en una cuestión especialmente compleja que nos recuerda a lo sucedido en el mismo sentido con otra ciencia, el derecho.
El lado oscuro de los sentimientos
El derecho aparece en la sociedad, como la inteligencia artificial, para organizar y mejorar al ser humano, para regular su convivencia y decir cómo debe comportarse, intentando evitar que se produzcan conflictos entre las personas. Sin embargo, para lograrlo, se ve obligado a tomar como punto de referencia los aspectos más negativos de las relaciones humanas. El ejemplo más paradigmático lo constituyen, a este efecto, las relaciones de pareja, donde se supone que la emoción predominante es el amor.
Si reflexionamos un poco sobre este tema, nos damos cuenta de que el derecho y el amor poco o nada tienen que ver, y que ambos nacen de una idea diametralmente opuesta. En las relaciones humanas, el amor se percibe como un compromiso de entrega y aceptación mutua, pero el derecho actúa en ellas como si fuera una máquina, un árbitro que trata de asegurar que la relación amorosa entre dos personas se desarrolle de forma sana y recíproca y que no se produzcan desigualdades o un aprovechamiento ventajoso por alguna de las partes.
El derecho actúa, sobre todo, en caso de ruptura y, muy especialmente, en los supuestos de violencia de género. En ellos el amor genera la situación más triste que uno se pueda imaginar: la afectividad en la que presuponemos que consiste el amor se torna tóxica para los miembros de la pareja. Tanto, que el daño que se causan puede conducir a que, en ocasiones, uno de ellos acabe con la vida del otro.
Como se ve, ni siquiera el derecho, que existe desde hace miles de años, ha conseguido definir este sentimiento positivamente, tan solo de forma negativa (de lo que consideramos socialmente que no es amor). Esto es debido a que el derecho ha intentado eliminar los aspectos emocionales del amor para poder regularlos.
Si a lo anterior unimos que el amor es el estado emocional más extendido y menos explicado científicamente –a pesar de los recientes avances de la neurobiología– debido a la dificultad que entraña la intervención en él de factores biológicos, especialmente los hormonales, entonces resulta difícil que no suceda lo mismo cuando se intenta modelar computacionalmente las emociones a través de la inteligencia artificial. ¿Cómo puede entonces enseñarse a una máquina qué es el amor o cualquier otro sentimiento o emoción?
La conclusión a todo esto se resume en que, si todavía no podemos definir científicamente las emociones, no se las podemos enseñar a una máquina. Por tanto, a día de hoy no es posible crear una auténtica inteligencia artificial emocional. Tal y como decía la científica Amelia Brand en Interestellar, “el amor es la fuerza más grande del Universo”. Y, como muchos otros misterios del mismo, aún nos queda mucho para poder enseñar a las máquinas a aprenderlo. Si es que realmente ello es posible.
(*) María Isabel Montserrat Sánchez-Escribano es Profesora Contratada Doctora de Derecho Penal, Universitat de les Illes Balears; y Javier Varona es Profesor Titular de Universidad de Ciencias de la Computación e Inteligencia Artificial, Universitat de les Illes Balears