A medida que aumenta el uso y el potencial del Big Data, crece el debate sobre la ética de los datos. La tecnología no es el problema sino cómo y para qué se la utiliza. Imagine que todo lo que hace cada día está monitoreado. Se sabe qué compra en Internet; qué habla y con quién en las redes sociales; qué fotos ha hecho; y qué vídeos o series ve. También en dónde está (geolocalización móvil y reconocimiento facial); qué libros lee; qué compra y vende; y si es un buen pagador.
Es decir, todo lo que hace en su vida. Ahora vale imaginar que toda esa información conjunta se utiliza para asignar un rating a cada ciudadano. Una calificación que influirá en su posibilidad de obtener un crédito con ciertas condiciones y, quizá en el futuro, también conseguir o no ciertos empleos, ir a determinada universidad o acceder a una vivienda concreta. ¿Ciencia ficción? No, absoluta realidad. Sobre esto se trabaja en China para –dicen– valorar la confianza y credibilidad de sus 1.300 millones de ciudadanos: es el sistema Social Credit System que se está desarrollando en fase piloto con voluntarios para, por ahora, operaciones financieras. La idea es implantarlo totalmente a partir de 2020.
La iniciativa, que recuerda la novela 1984 de George Orwell, ilustra en grado extremo el actual y creciente debate en torno a la ética de los datos. ¿Dónde está la línea que separa un buen de un mal uso o abuso del poder de los datos y los algoritmos?, se pregunta Rachel Botsman, madre filosófica de la economía colaborativa, en su último libro “¿Who can you trust? How technology brought us together and why it might drive us apart”. Y su inquietud fue antes de que saltara el escándalo Facebook por el uso de los datos de sus usuarios para, supuestamente, influir en campañas políticas.
Manejar datos
El problema no es la tecnología. El Big Data o Data Analytics y las técnicas de Inteligencia Artificial que lo refuerzan tienen múltiples usos que, sin duda alguna, contribuyen al desarrollo de la sociedad. Ya se utilizan para investigar enfermedades incurables como el cáncer, anticipar epidemias, organizar ayudas humanitarias a gran escala, controlar la inmigración en las fronteras, diseñar ciudades, edificios u hogares inteligentes, prevenir el fraude, y reforzar la seguridad en los servicios públicos.
Todo esto además de muchas otras posibilidades que permiten mejorar la eficiencia de las empresas y su atención a clientes. Conviene aclarar que ni los datos hacen únicamente referencia a datos personales, ni el concepto de ética del dato se refiere solo a dos momentos concretos: recabar la autorización de los consumidores y proteger su privacidad. Si así fuera, todo sería bastante más sencillo.
La ética debe estar implícita en todo el ciclo de vida del Big Data, empezando por la recolección. ¿Son válidos los datos oficiales de una población si deliberadamente se ha excluido cierta etnia? Siguiendo por lo más complejo, el algoritmo utilizado: ¿Puede una simple traducción automatizada pecar de machista? ¿Qué validez tendría un juicio apoyado en la alta probabilidad de volver a delinquir que apunta el rating criminal de ese individuo (sistema muy utilizado en Estados Unidos) según datos sesgados?
Estos ejemplos ilustran que es un error pensar que frente a la subjetividad humana los datos, el Big Data, son siempre acertados y objetivos. Y no lo son necesariamente. Los datos pueden estar sesgados, mal combinados, manipulados o, simplemente, mal interpretados porque se basaron en algoritmos que resultan erróneos.
Se plantea el último eslabón de la cadena, el más sutil y poco evidente: el propósito de los datos. ¿Cómo califican el uso de datos personales en redes sociales para influir en campañas políticas? ¿Y el caso de cambiar los algoritmos para influir en las emociones de las personas, como reveló este experimento que difundió Facebook en 2014?
“Las organizaciones que actúen con ética y transparencia en el uso de los datos tendrán una valoración positiva de la sociedad. Y, al contrario, quienes no se rijan por esos parámetros sufrirán una enorme pérdida en su reputación”, señala Eva García San Luis, socia responsable de Data & Analytics de KPMG. Y subraya que “en la era digital, la confianza en una organización no se mide solo por su marca, líderes, valores o empleados. También, y cada vez más, por su forma de gobernar y gestionar los datos, los algoritmos, las máquinas”.
Las empresas son cada día más conscientes –especialmente tras el escándalo de Facebook– de que la gestión de los datos puede tener afectar la imagen de la organización. Según una encuesta de KPMG entre 2.190 directivos de diferentes partes del mundo, el 92% se muestra preocupado por el impacto que puede tener en la reputación corporativa la falta de confianza en la gestión que hace de los datos (ver m otro artículo sobre este tema).
Los pilares sobre los que debe articularse esa confianza son la calidad y precisión de los datos, seguridad y protección de los mismos e integridad en su uso. Sólo algunos de estos aspectos están regulados en el Reglamento Europeo de Protección de Datos (RGPD), que entró en vigor en mayo pasado y que regula, sobre todo, los dos primeros eslabones de la cadena: recolección (con autorización), gestión (con protección) y uso (con autorización acotada y usos lícitos).
Pero quedan sin resolver aspectos difusos que tendrán que atajar las compañías con un buen gobierno de los datos. “Las organizaciones van a tener que ir más allá del cumplimiento normativo para ganarse la confianza de unos consumidores que, por algunos casos de abusos y según qué tipo de información (datos), se muestran todavía recelosos. La clave es comunicación, honestidad y transparencia; explicarles cómo y para qué se utilizan sus datos y las ventajas que les reportan a ellos”, reflexiona Eva García San Luis.
Ser ético
De momento, las empresas no parecen estar poniendo mucho foco en la cuestión ética. La citada encuesta global de KPMG entre directivos de Data Analytics mostraba que solo el 13% de las compañías se declaró excelente en términos de privacidad y ética en el uso de los datos, aunque en otros aspectos relacionados, como cumplimiento normativo, sacaban mejor nota. En el futuro, es probable que las compañías empiecen a crear comités o subcomités que traten la gestión ética de los datos. Los ciudadanos y el resto de stakeholders acabarán imponiéndolo.
La complejidad no solo radica en resolver preguntas nada sencillas como ¿qué es un uso ético y lícito?, ¿y el bien común?, ¿o los intereses legítimos?, sino también en el hecho de que la casuística sobre lo que podríamos considerar un uso adecuado o aceptable de los datos, varía mucho según culturas, tipología de los consumidores y de los datos (información) que se esté tratando, según refleja una reciente encuesta de KPMG a más de 7.000 consumidores en 24 países. Un ejemplo: en India 78% de los consumidores ve bien que los taxis utilicen datos de geolocalización para proponer rutas a los clientes, algo que en Dinamarca no le gusta al mismo porcentaje.
Ya sea por motivos regulatorios, por el impacto mediático y social que tiene el saltarse la ética, por motivos de reputación o por convicción, las compañías van tomando nota de la imperiosa necesidad de actuar con transparencia e integridad en un mundo cada vez más gobernado por los datos. Obviar esta cuestión tiene un alto costo. ¿Cuánto? Solo un dato: 50.000 millones de dólares es lo que perdió Facebook en la Bolsa en los días que mediaron entre las primeras noticias del escándalo Facebook y que su fundador, Mark Zuckerberg, reconociera que la compañía había cometido errores generado una brecha de confianza con sus usuarios.
¿Cómo hacer buenas a las máquinas?
El debate sobre la ética del dato se acrecienta a medida que avanzamos del Big Data para pasar luego al siguiente estadio tecnológico: la Inteligencia Artificial. En realidad, ambas vienen de la mano, porque no se entiende la IA sin la Big que es la que alimenta a la primera. El coche autónomo es un claro ejemplo de IA que no podría funcionar si el vehículo no recibiera miles de millones de datos en tiempo real para “ver y analizar” todo lo que sucede en la carretera y tomar decisiones al respecto.
El debate en torno a la ética de la IA es mucho más amplio y profundo porque las decisiones, finalmente, las toman las personas. Pero en el futuro serán las máquinas las que actuarán con los datos, los algoritmos programados y su propio aprendizaje (Machine Learning). Y para que tomen buenas decisiones, tendrán que estar bien instruidas. De ahí que algunos expertos del MIT sugieren hablar de Machine Teaching en lugar de Machine Learning poniendo así el foco no en las máquinas sino en las personas que les enseñan.
Robots y trabajo
Hay otro debate con relación a la IA y es el relacionado a cómo lograr que las máquinas inteligentes estén guiadas por la ética y orientadas hacia el bien común como, por ejemplo, si los robots acabarán sustituyendo a las personas en muchos trabajos. La cuestión de fondo es más profunda y lo apuntó hace ya años el científico Stephen Hawking, el primero que alertó sobre el riesgo para la propia existencia de la raza humana que podría suponer el desarrollo sin control de la IA. Hay más voces que se han unido a esta inquietud mundial. Están los casos de Elon Musk, CEO de Tesla y SpaceX; y el ex presidente de Estados Unidos, Barack Obama, quien fue el primero en llamar la atención sobre ese peligro e incluso llegó a diseñar una estrategia nacional de IA para el bien común.
De momento, el debate sobre la ética en la Inteligencia Artificial no se ha traducido en leyes, pese a que varios países como China, Estados Unidos, Reino Unido y Emiratos Árabes (país que tiene un ministro de Inteligencia Artificial) se han propuesto liderar este campo hacia el 2030.
Existen algunos códigos de buenas prácticas a nivel internacional. De momento, el debate sigue siendo liderado por prestigiosas universidades y organizaciones de todo el mundo como son los casos de Ethics and Governance of Artificial Intelligence Fund, una asociación pilotada por la Universidad de Harvard y el MIT; Partnership on AI to benefit people and society, fundada por Amazon, Apple, Facebook, Google, IBM y Microsoft; OpenIA, una organización sin ánimo de lucro en la que participan compañías como Amazon, Microsoft e Infosys. La universidad de Stanford encabeza el proyecto One hundred year study on artificial intelligence, con el compromiso de estudiar y anticipar durante cien años los efectos de las tecnologías cognitivas en la sociedad y con este primer informe como resultado.
El objetivo central es que el mundo tome conciencia de lo que se pone en juego con un buen o mal desarrollo de la Inteligencia Artificial. Cómo actuar con cautela pero sin frenar el desarrollo tecnológico. Por ahí debe ir el camino.

