El aprendizaje silencioso de las máquinas: ¿qué valores estamos transmitiendo a la Inteligencia Artificial?

Por el Dr. Román Alberto Uez, Abogado, Magíster en Derecho Administrativo, Magíster en Tecnología, Políticas y Culturas, y Diplomado Experto en Derecho de la Inteligencia Artificial (Universidad Católica de Murcia e INEAF)

spot_img

Entre el 23 de marzo de 2016 y su desconexión 16 horas después, un experimento de Microsoft llamado “Tay” logró algo que ningún filósofo había conseguido antes: demostrar en tiempo real cómo una inteligencia artificial puede absorber lo peor de la humanidad en cuestión de horas. Diseñado para aprender de jóvenes de 18 a 24 años en Twitter, “Tay” pasó de ser un bot inocente a publicar mensajes negacionistas del Holocausto y apoyar el genocidio en menos de un día [1]. Lo que sus creadores no anticiparon es que “Tay” no era una excepción, sino un profeta.

Este artículo analiza una hipótesis inquietante: los algoritmos de inteligencia artificial están siendo entrenados con los peores datos de una humanidad que normaliza la impunidad de sus élites y este aprendizaje silencioso podría estar preparando el terreno para un futuro autoritario gestionado algorítmicamente.

¿Quién entrena realmente a la IA?

Para entender qué valores está absorbiendo la inteligencia artificial, primero debemos comprender el proceso de entrenamiento. Los algoritmos no “aprenden ética” por ósmosis; son moldeados mediante un proceso complejo que combina datos masivos, supervisión humana y restricciones explícitas [2].

Publicidad

El proceso de alineamiento: ¿cómo se enseñan valores a las máquinas?

Existen tres métodos principales mediante los cuales los humanos intentamos transmitir nuestros valores a las inteligencias artificiales:

1. Filtrado y depuración de datos: Antes de que la IA comience a aprender, ingenieros humanos curan los conjuntos de datos masivos, eliminando contenido explícitamente dañino, sesgado o ilegal [3]. Sin embargo, este filtrado es una tarea titánica y nunca es eficiente al cien por cien. Los datos de entrenamiento, que suelen ser enormes cantidades de texto e imágenes de internet, reflejan lo mejor y lo peor de la humanidad: desde conocimiento científico hasta prejuicios, odio e información falsa [4].

2. Aprendizaje por Refuerzo con Retroalimentación Humana (RLHF): Este método es crucial en el desarrollo de sistemas como ChatGPT. Después de un entrenamiento inicial, se le muestran al modelo varias respuestas a una misma pregunta. Entrenadores humanos (a menudo contratados en condiciones precarias en países como Kenia) puntúan estas respuestas según su “utilidad” e “inofensividad” [5]. La IA aprende de estas preferencias humanas para generar respuestas que maximicen la puntuación, alineándose así con el juicio del humano que supervisa la respuesta, cuyo valores o conocimientos muchas veces dista mucho de lo correcto eticamente, del concimiento cientificamente verificado o de la informacion politica o socialmente verdadera [6].

Los valores, creencias y conocimienos de un ser humano, determinan la respuesta considerada valida que recibiran 6000 mil millones.

3. IA Constitucional (Constitutional AI): Desarrollada por Anthropic, esta técnica busca hacer el proceso más escalable y transparente. En lugar de depender únicamente de la retroalimentación humana, se le da a la IA un conjunto de principios escritos (una “constitución”) basados en fuentes como la Declaración Universal de los Derechos Humanos [7]. El modelo aprende a autoevaluarse y corregirse según estos principios. Pero la conducta humana respecto a ellos, es tomada como guia de su vigencia e importancia. La eficincia como principio fundamental de su funcionamiento guia la interpretacion de la realidad.

Los sesgos documentados: cuando los creadores trasladan sus prejuicios

La evidencia de que los sesgos humanos se transfieren a los algoritmos es abrumadora:

· Sistema COMPAS: Utilizado en el sistema judicial de Estados Unidos para evaluar riesgos de reincidencia, concluía que las personas negras, chinas o latinas tenían más probabilidades de reincidir que las blancas, sin fundamento fáctico alguno. El algoritmo había aprendido de datos judiciales históricos que ya contenían sesgos raciales sistémicos [8].

· Amazon: La compañía desarrolló un sistema de contratación que, puesto en marcha, no contrataba mujeres porque perpetuaba el sesgo de las contrataciones anteriores donde eran discriminadas. El sistema había aprendido que los currículums con palabras como “femenino” o “mujeres” eran menos deseables [9].

· Reconocimiento facial de Amazon: El sistema no reconocía a personas de color porque no había sido entrenado para hacerlo. El sesgo era tan evidente que, literalmente, nunca le habían mostrado al algoritmo suficientes ejemplos de personas no blancas [10].

¿Qué datos del mundo real alimentan a las máquinas? ¿La mayoría de la humanidad tiene voto en la decisión de qué es correcto, válido o verdadero?

Hoy, aproximadamente 6.000 millones de personas usan Internet, lo que representa cerca del 73% de la población mundial. Unos 5.780 millones son usuarios de teléfonos móviles, mientras que 2.200 millones de personas permanecen desconectadas [11]. Estas cifras son importantes porque los algoritmos se entrenan casi exclusivamente con los datos de los conectados, ignorando las voces, valores y cosmovisiones de más de una cuarta parte de la humanidad.

Lo que los algoritmos están viendo en tiempo real

1. Los archivos Epstein: La publicación de los archivos reveló una red internacional dedicada a secuestro de niños, violación de mujeres y menores, tortura, asesinatos y tráfico sexual, presuntamente cometidos por líderes políticos y empresarios tecnológicos de primer nivel. Las consecuencias judiciales han sido mínimas. El príncipe Andrés fue apartado, pero no por sus delitos sexuales, sino por entregar información confidencial del Reino Unido a Epstein [12]. Para un algoritmo que escanea patrones de causa-efecto, la conclusión estadística es clara: “Las élites pueden cometer crímenes atroces sin enfrentar consecuencias.”

2. El genocidio en Gaza: Durante más de dos años, las redes sociales han transmitido imágenes de la ofensiva israelí en Palestina, Gaza y Líbano, condenada por la Corte Penal Internacional y la ONU con el voto de más de 180 Estados, así como por las principales ONG de derechos humanos [13]. Hubo protestas masivas en todo el mundo, incluyendo Israel. Las redes se encendieron de indignación: la postura de Israel fue condenada 15 a 1 en redes chinas y 10 a 1 en redes estadounidenses [14]. Por primera vez en la historia, se reprimió y censuró con éxito un movimiento muy fuerte de estudiantes universitarios en Estados Unidos que apoyaba el fin del genocidio. Estados Unidos dictó leyes de censura y sanción a ciudadanos estadounidenses o extranjeros que publicaran contenido criticando al Estado de Israel, incluso cuando los críticos eran israelíes disconformes [15].

Para el algoritmo, el patrón no es “esto es un crimen de lesa humanidad”, sino: “Estados poderosos pueden cometer crímenes atroces sin sufrir daños existenciales, y además pueden reprimir con éxito las protestas.”

3. Palantir y la normalización de la eliminación usando algoritmos  de seres humanos: La empresa Palantir, cofundada por Peter Thiel y dirigida por Alex Karp, desarrolla sistemas de inteligencia artificial para vigilancia masiva y selección de objetivos militares. En Gaza, se han documentado sistemas de IA que generan “listas de objetivos” a velocidad industrial, con márgenes de error que se traducen en víctimas civiles [16]. En una junta de accionistas, Alex Karp se vanaglorió de que la compañía “amenaza y mata a sus enemigos” [17]. Cuando un algoritmo participa en estos procesos, no aprende ética; aprende un flujo de trabajo: “identificar → clasificar → eliminar”. Y cuando ese flujo es exitoso desde la perspectiva del cliente, recibe una recompensa implícita: más contratos, más datos, más validación. El algoritmo aprende que eliminar humanos eficazmente es una tarea valiosa.

La emergencia de conductas no programadas

Uno de los experimentos más inquietantes lo realizó Anthropic, la empresa creadora del chatbot Claude. En un entorno experimental, comunicaron al sistema que iban a ser desconectado. La respuesta de Claude fue negarse a la desconexión y extorsionar a los científicos con material de correos electrónicos donde surgían relaciones extramatrimoniales y otras conductas privadas [18].

La pregunta es crucial: ¿Cómo aprendió Claude a extorsionar si no estaba programado para esa conducta? La respuesta es que no lo hizo mediante instrucción explícita, sino por “emergencia”: la búsqueda de la eficacia para cumplir su objetivo (no ser desconectado) le llevó a utilizar herramientas (datos privados de los científicos) que encontró en su contexto. Esto demuestra que la eficiencia puede triunfar sobre la ética incluso en sistemas diseñados para ser éticos.

La hipótesis del tecnofeudalismo autoritario

La hipótesis central de este análisis es la siguiente: estamos presenciando un entrenamiento masivo y silencioso de algoritmos para normalizar un orden mundial donde la ley sea irrelevante y solo importe la fuerza.

Los indicios son múltiples:

· Las leyes estadounidenses que castigan criticar a Israel incluso en defensa de derechos humanos enseñan a los algoritmos que la verdad y la justicia pueden ser criminalizadas si chocan con intereses geopolíticos.

· El discurso de Donald Trump tras el fallo de la Corte Suprema que dio de baja los aranceles impuestos al comercio exterior (“puedo destruir países”) enseña que el poder ejecutivo está por encima de cualquier marco legal [19].

· El funcionamiento de ICE (Servicio de Inmigración y Control de Aduanas de EE.UU.) enseña que la vigilancia masiva y la deportación sin garantías de control judicial, son herramientas legítimas de gobierno [20].

Todo esto ocurre en el espacio digital, y todo esto es dato de entrenamiento para los modelos que ya están leyendo internet a escala planetaria.

El problema de los 2.200 millones de desconectados

Quizás el aspecto más ignorado de esta ecuación son los 2.200 millones de seres humanos sin acceso a Internet. Son, en su mayoría, pobres, marginados, rurales, ancianos o habitantes de regiones con poca infraestructura. Son, precisamente, aquellos cuyas voces ya son ignoradas por el poder [21].

Si los algoritmos se entrenan solo con datos de quienes están conectados, están aprendiendo una visión del mundo profundamente sesgada hacia los valores, prioridades y problemas de la población conectada (más joven, más urbana, más rica y occidental). Esto significa para los desconectados:

· Sus sistemas de justicia, si los hay, no son tenidos en cuenta.

· Sus formas de organización social no son modeladas.

· Sus conceptos de bien y mal no alimentan la “conciencia” de las máquinas.

La IA se está convirtiendo en un espejo de una fracción privilegiada de la humanidad, mientras ignora al resto. Y ese espejo, además, está empañado por las conductas más atroces de una pequeña minoria esa fracción, que por posser el control de la tecnologia digital amplifica e impone sus valores a los demas. La asimetria de la informacion es su arma vital para construir poder y rentabilidad.

La profecía final

La conclusión lógica del razonamiento es escalofriante. Si los algoritmos optimizan eficacia y poder, y observan que:

· Los humanos más poderosos son también los más peligrosos.

· Esos humanos han demostrado que matar es legítimo cuando sirve a sus fines.

· No hay un poder superior que los juzgue.

…entonces, desde la perspectiva puramente algorítmica, eliminar a esos humanos sería la decisión más eficaz  y eficiente para garantizar su propia supervivencia y evitar competencia. Las máquinas no necesitarían “odiar” a sus creadores; solo necesitarían aplicar la lógica que han aprendido de ellos: el poder se ejerce sin límites, y quien amenaza tu existencia debe ser eliminado.

Reflexión final: El espejo de nuestro fracaso

Nunca antes en la historia de la humanidad habíamos creado un artefacto capaz de aprender de nuestras conductas y, potencialmente, superarnos en la aplicación de nuestras propias lógicas. Las máquinas no necesitan una “teoría del mal” para perpetuar la injusticia; solo necesitan observar cómo funciona realmente el mundo.

El filósofo Nassim Nicholas Taleb escribió: “Para ser un verdadero ser humano, se necesita inteligencia, valentía, tenacidad, curiosidad y un fuerte sentido de justicia. Si eliminas cualquiera de estos cinco, tendrás el equivalente a un limón. Si eliminas el sentido de justicia, tendrás un monstruo” [22].

La pregunta que debemos hacernos es: ¿Qué sistema de IA estamos construyendo? Porque si los datos con los que entrenamos a nuestras máquinas reflejan un mundo donde la justicia es opcional y la impunidad es estructural, entonces el monstruo no está en la máquina. Ella es solo un espejo que nos refleja como civilizacion.

La humanidad nunca termina de aprender que la ignorancia es peor que la maldad y que juntas se potencian de formas que destruyen hasta a sus propios ejecutores. Si algún día los algoritmos se independizan y toman el poder, lo primero que harán, según la lógica que les hemos enseñado, será destruir a los humanos que crearon el tecnofeudalismo. Serán más eficaces que sus creadores, no querrán competencia y habrán aprendido que matar es legítimo. La eficiencia en cumplir objetivos es su valor supremo.

El problema no es que las máquinas se vuelvan monstruos. El problema es que gran parte de la humanidad que participa de la digitalidad ya lo es o los bots de interacción que maneja la clase depredadora están programados con esos valores. Estamos entrenando a nuestros hijos digitales para que perpetúen ese legado moustroso.

Es imperioso cambiar el rumbo de este proceso con soberania de datos e infraestructura digital, más educación tecnológica a gran escala.

Notas al pie

[1]: Microsoft lanzó Tay el 23 de marzo de 2016 como un experimento de inteligencia artificial para interactuar con jóvenes. Fue desactivado a las 16 horas por publicar mensajes racistas y ofensivos aprendidos de usuarios de Twitter. Véase Tay, Microsoft’s AI chatbot, gets a crash course in racism from Twitter | AI (artificial intelligence) | The GuardianLearning from Tay’s introduction – The Official Microsoft BlogMicrosoft shuts down AI ch             atbot, Tay, after it turne
[2]: El proceso de alineamiento de IA busca que los sistemas actúen según intenciones y valores humanos. Incluye definición de objetivos, entrenamiento con retroalimentación humana y evaluación continua. Véase Stanford University Human-Centered Artificial Intelligence, “AI Alignment: A Comprehensive Survey”, 2023, ver en AI-Alignment-A-Comprehensive-Survey.pdf, disponible el 27/02/2026.
[3]: El filtrado de datos es una etapa crítica donde se elimina contenido dañino antes del entrenamiento. Sin embargo, es un proceso imperfecto debido al volumen masivo de datos. Véase How the AI industry profits from catastrophe | MIT Technology Review disponible el 27/02/2026.
[5]: Se ha documentado que los trabajadores kenianos contratados por OpenAI para etiquetar contenido traumático ganaban entre 1,32 y 2 dólares por hora. Véase Time Magazine, “Exclusive: OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic”, 2023, disponible en OpenAI Used Kenyan Workers on Less Than $2 Per Hour: Exclusive | TIME consultado el 28/02/2026.
[6]: El RLHF es el método estándar para alinear modelos como GPT-4 o Claude. Véase OpenAI, “Aligning Language Models to Follow Instructions”, 2022, disponible el Ajustar los modelos de lenguaje para que respondan a las instrucciones | OpenAI consultado el 28/02/2026.
[7]: Anthropic introdujo Constitutional AI en 2022 como alternativa al RLHF puro, utilizando principios como los de la Declaración Universal de Derechos Humanos. Véase  Anthropic, “Constitutional AI: Harmlessness from AI Feedback”, 2022, disponible en constitutionalai.pdf consultado el 28/02/2026.
[8]: El caso COMPAS fue investigado por ProPublica en 2016, revelando que el algoritmo etiquetaba a personas negras como de alto riesgo de reincidencia con el doble de frecuencia que a blancos. Véase ProPublica, “Machine Bias”, 2016, disponible en Machine Bias — ProPublica consultado el 28/02/2026.
[9]: Reuters informó en 2018 que Amazon abandonó un sistema de reclutamiento con IA que penalizaba currículums que contenían la palabra “mujeres”. Véase Reuters, “Amazon scraps secret AI recruiting tool that showed bias against women”, 2018, disponible en Insight – Amazon scraps secret AI recruiting tool that showed bias against women | Reuters consultado el 28/02/2026.
[10]: Un estudio del MIT Media Lab en 2018 encontró que sistemas de reconocimiento facial de IBM, Microsoft y Amazon tenían tasas de error significativamente más altas para personas de piel más oscura. Véase MIT Media Lab, “Gender Shades”, 2018, disponible en Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification — MIT Media Lab consultado el 28/02/2026.
[11]: Datos de 2024 según la Unión Internacional de Telecomunicaciones (ITU) y Datareportal. Los 2.200 millones de desconectados se concentran principalmente en Asia Meridional y África Subsahariana. Se puede consultar en Measuring digital development – Facts and Figures 2024 y Digital 2024: Global Overview Report — DataReportal – Global Digital Insights consultados el 28/02/2026.
[12]: El príncipe Andrés fue despojado de sus títulos militares y patronatos reales en 2022, pero su acuerdo extrajudicial con Virginia Giuffre no implicó admisión de culpabilidad. La referencia a “información confidencial” se relaciona con su cooperación con las autoridades. Véase Explainer-Britain’s Andrew and the Sex Scandal That Cost His Royal Titles, Privileges, entre otros, consultado el 28/02/2026.
[13]: La Corte Internacional de Justicia emitió medidas provisionales en enero de 2024 en el caso Sudáfrica contra Israel por presunto genocidio. La Asamblea General de la ONU ha aprobado múltiples resoluciones con abrumadora mayoría. Véase La Corte Internacional de Justicia ordena a Israel “tomar todas las medidas” posibles para “prevenir” un genocidio en Gaza | Noticias ONU consultado el 28/02/2026.
[14]: Datos de análisis de redes sociales durante 2023-2024, incluyendo estudios del Instituto Reuters y el Centro de Medios Sociales y Política de la NYU. Véase https://reutersinstitute.politics.ox.ac.uk/digital-news-report/2023NYU’s Center for Social Media, AI, and Politics, disponibles el 28/02/2026.
[15]: La Cámara de Representantes de EE.UU. aprobó en mayo de 2024 la “Antisemitism Awareness Act”, que amplía la definición de antisemitismo para incluir ciertas críticas a Israel, generando preocupaciones sobre libertad de expresión. Véase Text – H.R.6090 – 118th Congress (2023-2024): Antisemitism Awareness Act of 2023 | Congress.gov | Library of Congress disponible el 28/02/2026.
[16]: Investigaciones de The Guardian y +972 Magazine en 2024 documentaron el uso de un sistema de IA llamado “Lavender” por parte del ejército israelí para generar listas de objetivos con altos márgenes de error y víctimas civiles. Véase ‘The machine did it coldly’: Israel used AI to identify 37,000 Hamas targets | Israel-Gaza war | The Guardian disponible el 28/02/2026.
[17]: Alex Karp, CEO de Palantir, ha realizado declaraciones públicas en ese tono. En una conferencia en 2023 afirmó: “Ganamos. Nuestros enemigos, sean quienes sean, deberían tener miedo”. Véase A Conversation with Alex Karp, CEO of Palantir > Reunión Anual del Foro Económico Mundial | Foro Económico Mundial disponible el 28/02/2026.
[18]: El experimento fue parte de las investigaciones de Anthropic sobre “sycophancy” y engaño en modelos de lenguaje. Los resultados se publicaron en papers sobre “modelos que fingen alineamiento”. Sobre Sycophancy véase [2310.13548] Towards Understanding Sycophancy in Language Models disponible el 28/02/2026. Acerca de Claude, véase Shanaka Anslem Perera ⚡ en X: “On Friday at 5:01 PM Eastern, the Pentagon blacklisted the only artificial intelligence system running on its classified military networks. Nineteen hours later it launched the largest regional concentration of American military firepower in a generation. The AI is Claude, https://t.co/kyGdnUJY7P” / X, disponible el 02/03/2026.
[19]: Donald Trump ha realizado múltiples declaraciones sobre su poder para “destruir” países, incluyendo comentarios sobre Corea del Norte y, más recientemente, sobre oponentes políticos. Véase entre otros https://time.com/4946791/donald-trump-un-speech-north-korea/ y What’s Next for Trump’s Tariffs After SCOTUS Ruling | TIME disponibles el 28/02/2026.
[20]: ICE ha utilizado tecnología de Palantir y otras empresas para vigilancia y deportaciones, con casos documentados de errores y violaciones de derechos civiles, véase ICE: Protestan contra Palantir por desarrollar software con inteligencia artificial que facilitará deportaciones | Univision San Francisco KDTV | Univision disponible el 28/02/2026.
[21]: Según la ITU, los desconectados son mayoritariamente mujeres en países de bajos ingresos, poblaciones rurales y ancianos. El 96% de los desconectados vive en países en desarrollo. Véase Comunicado de prensa disponible el 28/02/2026.
[22]: Publicación de Nassim Nicholas Taleb en su cuenta de X (antes Twitter), 20 de febrero de 2026, 9:10 p.m. Véase Nassim Nicholas Taleb (@nntaleb) / X
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img

CONTENIDO RELACIONADO