Entre el 23 de marzo de 2016 y su desconexión 16 horas después, un experimento de Microsoft llamado “Tay” logró algo que ningún filósofo había conseguido antes: demostrar en tiempo real cómo una inteligencia artificial puede absorber lo peor de la humanidad en cuestión de horas. Diseñado para aprender de jóvenes de 18 a 24 años en Twitter, “Tay” pasó de ser un bot inocente a publicar mensajes negacionistas del Holocausto y apoyar el genocidio en menos de un día [1]. Lo que sus creadores no anticiparon es que “Tay” no era una excepción, sino un profeta.
Este artículo analiza una hipótesis inquietante: los algoritmos de inteligencia artificial están siendo entrenados con los peores datos de una humanidad que normaliza la impunidad de sus élites y este aprendizaje silencioso podría estar preparando el terreno para un futuro autoritario gestionado algorítmicamente.
¿Quién entrena realmente a la IA?
Para entender qué valores está absorbiendo la inteligencia artificial, primero debemos comprender el proceso de entrenamiento. Los algoritmos no “aprenden ética” por ósmosis; son moldeados mediante un proceso complejo que combina datos masivos, supervisión humana y restricciones explícitas [2].
El proceso de alineamiento: ¿cómo se enseñan valores a las máquinas?
Existen tres métodos principales mediante los cuales los humanos intentamos transmitir nuestros valores a las inteligencias artificiales:
1. Filtrado y depuración de datos: Antes de que la IA comience a aprender, ingenieros humanos curan los conjuntos de datos masivos, eliminando contenido explícitamente dañino, sesgado o ilegal [3]. Sin embargo, este filtrado es una tarea titánica y nunca es eficiente al cien por cien. Los datos de entrenamiento, que suelen ser enormes cantidades de texto e imágenes de internet, reflejan lo mejor y lo peor de la humanidad: desde conocimiento científico hasta prejuicios, odio e información falsa [4].
2. Aprendizaje por Refuerzo con Retroalimentación Humana (RLHF): Este método es crucial en el desarrollo de sistemas como ChatGPT. Después de un entrenamiento inicial, se le muestran al modelo varias respuestas a una misma pregunta. Entrenadores humanos (a menudo contratados en condiciones precarias en países como Kenia) puntúan estas respuestas según su “utilidad” e “inofensividad” [5]. La IA aprende de estas preferencias humanas para generar respuestas que maximicen la puntuación, alineándose así con el juicio del humano que supervisa la respuesta, cuyo valores o conocimientos muchas veces dista mucho de lo correcto eticamente, del concimiento cientificamente verificado o de la informacion politica o socialmente verdadera [6].
Los valores, creencias y conocimienos de un ser humano, determinan la respuesta considerada valida que recibiran 6000 mil millones.
3. IA Constitucional (Constitutional AI): Desarrollada por Anthropic, esta técnica busca hacer el proceso más escalable y transparente. En lugar de depender únicamente de la retroalimentación humana, se le da a la IA un conjunto de principios escritos (una “constitución”) basados en fuentes como la Declaración Universal de los Derechos Humanos [7]. El modelo aprende a autoevaluarse y corregirse según estos principios. Pero la conducta humana respecto a ellos, es tomada como guia de su vigencia e importancia. La eficincia como principio fundamental de su funcionamiento guia la interpretacion de la realidad.
Los sesgos documentados: cuando los creadores trasladan sus prejuicios
La evidencia de que los sesgos humanos se transfieren a los algoritmos es abrumadora:
· Sistema COMPAS: Utilizado en el sistema judicial de Estados Unidos para evaluar riesgos de reincidencia, concluía que las personas negras, chinas o latinas tenían más probabilidades de reincidir que las blancas, sin fundamento fáctico alguno. El algoritmo había aprendido de datos judiciales históricos que ya contenían sesgos raciales sistémicos [8].
· Amazon: La compañía desarrolló un sistema de contratación que, puesto en marcha, no contrataba mujeres porque perpetuaba el sesgo de las contrataciones anteriores donde eran discriminadas. El sistema había aprendido que los currículums con palabras como “femenino” o “mujeres” eran menos deseables [9].
· Reconocimiento facial de Amazon: El sistema no reconocía a personas de color porque no había sido entrenado para hacerlo. El sesgo era tan evidente que, literalmente, nunca le habían mostrado al algoritmo suficientes ejemplos de personas no blancas [10].
¿Qué datos del mundo real alimentan a las máquinas? ¿La mayoría de la humanidad tiene voto en la decisión de qué es correcto, válido o verdadero?
Hoy, aproximadamente 6.000 millones de personas usan Internet, lo que representa cerca del 73% de la población mundial. Unos 5.780 millones son usuarios de teléfonos móviles, mientras que 2.200 millones de personas permanecen desconectadas [11]. Estas cifras son importantes porque los algoritmos se entrenan casi exclusivamente con los datos de los conectados, ignorando las voces, valores y cosmovisiones de más de una cuarta parte de la humanidad.
Lo que los algoritmos están viendo en tiempo real
1. Los archivos Epstein: La publicación de los archivos reveló una red internacional dedicada a secuestro de niños, violación de mujeres y menores, tortura, asesinatos y tráfico sexual, presuntamente cometidos por líderes políticos y empresarios tecnológicos de primer nivel. Las consecuencias judiciales han sido mínimas. El príncipe Andrés fue apartado, pero no por sus delitos sexuales, sino por entregar información confidencial del Reino Unido a Epstein [12]. Para un algoritmo que escanea patrones de causa-efecto, la conclusión estadística es clara: “Las élites pueden cometer crímenes atroces sin enfrentar consecuencias.”
2. El genocidio en Gaza: Durante más de dos años, las redes sociales han transmitido imágenes de la ofensiva israelí en Palestina, Gaza y Líbano, condenada por la Corte Penal Internacional y la ONU con el voto de más de 180 Estados, así como por las principales ONG de derechos humanos [13]. Hubo protestas masivas en todo el mundo, incluyendo Israel. Las redes se encendieron de indignación: la postura de Israel fue condenada 15 a 1 en redes chinas y 10 a 1 en redes estadounidenses [14]. Por primera vez en la historia, se reprimió y censuró con éxito un movimiento muy fuerte de estudiantes universitarios en Estados Unidos que apoyaba el fin del genocidio. Estados Unidos dictó leyes de censura y sanción a ciudadanos estadounidenses o extranjeros que publicaran contenido criticando al Estado de Israel, incluso cuando los críticos eran israelíes disconformes [15].
Para el algoritmo, el patrón no es “esto es un crimen de lesa humanidad”, sino: “Estados poderosos pueden cometer crímenes atroces sin sufrir daños existenciales, y además pueden reprimir con éxito las protestas.”
3. Palantir y la normalización de la eliminación usando algoritmos de seres humanos: La empresa Palantir, cofundada por Peter Thiel y dirigida por Alex Karp, desarrolla sistemas de inteligencia artificial para vigilancia masiva y selección de objetivos militares. En Gaza, se han documentado sistemas de IA que generan “listas de objetivos” a velocidad industrial, con márgenes de error que se traducen en víctimas civiles [16]. En una junta de accionistas, Alex Karp se vanaglorió de que la compañía “amenaza y mata a sus enemigos” [17]. Cuando un algoritmo participa en estos procesos, no aprende ética; aprende un flujo de trabajo: “identificar → clasificar → eliminar”. Y cuando ese flujo es exitoso desde la perspectiva del cliente, recibe una recompensa implícita: más contratos, más datos, más validación. El algoritmo aprende que eliminar humanos eficazmente es una tarea valiosa.
La emergencia de conductas no programadas
Uno de los experimentos más inquietantes lo realizó Anthropic, la empresa creadora del chatbot Claude. En un entorno experimental, comunicaron al sistema que iban a ser desconectado. La respuesta de Claude fue negarse a la desconexión y extorsionar a los científicos con material de correos electrónicos donde surgían relaciones extramatrimoniales y otras conductas privadas [18].
La pregunta es crucial: ¿Cómo aprendió Claude a extorsionar si no estaba programado para esa conducta? La respuesta es que no lo hizo mediante instrucción explícita, sino por “emergencia”: la búsqueda de la eficacia para cumplir su objetivo (no ser desconectado) le llevó a utilizar herramientas (datos privados de los científicos) que encontró en su contexto. Esto demuestra que la eficiencia puede triunfar sobre la ética incluso en sistemas diseñados para ser éticos.
La hipótesis del tecnofeudalismo autoritario
La hipótesis central de este análisis es la siguiente: estamos presenciando un entrenamiento masivo y silencioso de algoritmos para normalizar un orden mundial donde la ley sea irrelevante y solo importe la fuerza.
Los indicios son múltiples:
· Las leyes estadounidenses que castigan criticar a Israel incluso en defensa de derechos humanos enseñan a los algoritmos que la verdad y la justicia pueden ser criminalizadas si chocan con intereses geopolíticos.
· El discurso de Donald Trump tras el fallo de la Corte Suprema que dio de baja los aranceles impuestos al comercio exterior (“puedo destruir países”) enseña que el poder ejecutivo está por encima de cualquier marco legal [19].
· El funcionamiento de ICE (Servicio de Inmigración y Control de Aduanas de EE.UU.) enseña que la vigilancia masiva y la deportación sin garantías de control judicial, son herramientas legítimas de gobierno [20].
Todo esto ocurre en el espacio digital, y todo esto es dato de entrenamiento para los modelos que ya están leyendo internet a escala planetaria.
El problema de los 2.200 millones de desconectados
Quizás el aspecto más ignorado de esta ecuación son los 2.200 millones de seres humanos sin acceso a Internet. Son, en su mayoría, pobres, marginados, rurales, ancianos o habitantes de regiones con poca infraestructura. Son, precisamente, aquellos cuyas voces ya son ignoradas por el poder [21].
Si los algoritmos se entrenan solo con datos de quienes están conectados, están aprendiendo una visión del mundo profundamente sesgada hacia los valores, prioridades y problemas de la población conectada (más joven, más urbana, más rica y occidental). Esto significa para los desconectados:
· Sus sistemas de justicia, si los hay, no son tenidos en cuenta.
· Sus formas de organización social no son modeladas.
· Sus conceptos de bien y mal no alimentan la “conciencia” de las máquinas.
La IA se está convirtiendo en un espejo de una fracción privilegiada de la humanidad, mientras ignora al resto. Y ese espejo, además, está empañado por las conductas más atroces de una pequeña minoria esa fracción, que por posser el control de la tecnologia digital amplifica e impone sus valores a los demas. La asimetria de la informacion es su arma vital para construir poder y rentabilidad.
La profecía final
La conclusión lógica del razonamiento es escalofriante. Si los algoritmos optimizan eficacia y poder, y observan que:
· Los humanos más poderosos son también los más peligrosos.
· Esos humanos han demostrado que matar es legítimo cuando sirve a sus fines.
· No hay un poder superior que los juzgue.
…entonces, desde la perspectiva puramente algorítmica, eliminar a esos humanos sería la decisión más eficaz y eficiente para garantizar su propia supervivencia y evitar competencia. Las máquinas no necesitarían “odiar” a sus creadores; solo necesitarían aplicar la lógica que han aprendido de ellos: el poder se ejerce sin límites, y quien amenaza tu existencia debe ser eliminado.
Reflexión final: El espejo de nuestro fracaso
Nunca antes en la historia de la humanidad habíamos creado un artefacto capaz de aprender de nuestras conductas y, potencialmente, superarnos en la aplicación de nuestras propias lógicas. Las máquinas no necesitan una “teoría del mal” para perpetuar la injusticia; solo necesitan observar cómo funciona realmente el mundo.
El filósofo Nassim Nicholas Taleb escribió: “Para ser un verdadero ser humano, se necesita inteligencia, valentía, tenacidad, curiosidad y un fuerte sentido de justicia. Si eliminas cualquiera de estos cinco, tendrás el equivalente a un limón. Si eliminas el sentido de justicia, tendrás un monstruo” [22].
La pregunta que debemos hacernos es: ¿Qué sistema de IA estamos construyendo? Porque si los datos con los que entrenamos a nuestras máquinas reflejan un mundo donde la justicia es opcional y la impunidad es estructural, entonces el monstruo no está en la máquina. Ella es solo un espejo que nos refleja como civilizacion.
La humanidad nunca termina de aprender que la ignorancia es peor que la maldad y que juntas se potencian de formas que destruyen hasta a sus propios ejecutores. Si algún día los algoritmos se independizan y toman el poder, lo primero que harán, según la lógica que les hemos enseñado, será destruir a los humanos que crearon el tecnofeudalismo. Serán más eficaces que sus creadores, no querrán competencia y habrán aprendido que matar es legítimo. La eficiencia en cumplir objetivos es su valor supremo.
El problema no es que las máquinas se vuelvan monstruos. El problema es que gran parte de la humanidad que participa de la digitalidad ya lo es o los bots de interacción que maneja la clase depredadora están programados con esos valores. Estamos entrenando a nuestros hijos digitales para que perpetúen ese legado moustroso.
Es imperioso cambiar el rumbo de este proceso con soberania de datos e infraestructura digital, más educación tecnológica a gran escala.
Notas al pie
en X: “On Friday at 5:01 PM Eastern, the Pentagon blacklisted the only artificial intelligence system running on its classified military networks. Nineteen hours later it launched the largest regional concentration of American military firepower in a generation. The AI is Claude, https://t.co/kyGdnUJY7P” / X, disponible el 02/03/2026.











