Los colosos de la inteligencia artificial de Silicon Valley están acostumbrados a competir —y muy ferozmente— entre sí. Lo que ciertamente no esperaban era verse obligados a competir y tener que combatir contra otra realidad aparentemente muy concreta: que sus propias creaciones puedan estar silenciosamente entrenando a la competencia para desarrollarse, casi a su propio nivel.
En las últimas semanas, tanto OpenAI como Anthropic han alzado públicamente su voz para acusar, sin ambigüedades, a desarrolladores chinos de IA de extraer datos de sus modelos. OpenAI dijo que estaba investigando si DeepSeek entrenó su chatbot consultando repetidamente a ChatGPT, utilizando una técnica conocida como “destilación”. Anthropic fue más lejos, alegando que tres empresas chinas—DeepSeek, Moonshot AI y MiniMax—crearon más de 24.000 “cuentas fantasmas” (fraudulentas) mediante las cuales realizaron nada menos que 16 millones de consultas a su modelo Claude, con el objetivo de “aprender” de sus respuestas y así entrenar a estos sistemas rivales.
Las compañías lideres sostienen que esta táctica —expresamente prohibida por los términos de uso de las IAs— extrae efectivamente conocimiento de sistemas de frontera (de máxima avanzada), permitiendo a los competidores replicar su rendimiento sin incurrir en los enormes costos de investigación e infraestructura en los que incurren los “copiados”. La disputa ha convertido un término antes técnico—destilación—en quizá la palabra más inquietante del negocio de la IA.
En la literatura económica se conoce como “fast followers” (seguidores veloces) a empresas que, si bien no son las primeras en innovar, observan al líder, replican rápidamente, mejoran eficiencia y/o reducen costos, y así se posicionan para entrar a competir agresivamente.
De igual manera, aquí el temor más profundo no es solo acerca de afectación de la propiedad intelectual; es sobre competencia económica, y hasta sobre seguridad nacional.
El atajo barato que cambia el juego
La “destilación” es un proceso mediante el cual un modelo más pequeño aprende consultando cientos de miles de veces a uno más grande y avanzado, y luego entrenándose sobre esas respuestas. En lugar de construir inteligencia desde cero —lo que requiere enormes volúmenes de datos, chips de última generación, meses de trabajo y decenas de millones de dólares—una empresa puede “condensar” la experiencia de un modelo de frontera en algo con casi tantas habilidades como este mismo, empleando una fracción sustancialmente menor de costo y tiempo (a veces, semanas o incluso, solo días).
Durante años, la lógica del negocio de la IA descansó en una premisa simple: cuanto más grande, más poderoso y, por ende, mejor. ¿La razón? Entrenar modelos gigantescos, gastar millones de dólares en GPUs, y asegurar una cantidad enorme de datos exclusivos, necesariamente creaban un foso protector que los competidores no podrían jamás cruzar. Las asociaciones multimillonarias y los compromisos de infraestructura de OpenAI—como su anuncio de invertir cientos de miles de millones en desarrollo junto a sus socios—son expresiones patentes de esa filosofía.
Pero el éxito de modelos como DeepSeek con la destilación la desafía directamente: parecen haber saltado el foso con garrocha.
Si equipos más pequeños pueden aprovechar los resultados obtenidos por sistemas titánicos como OpenAI y Anthropic para cerrar la brecha rápidamente y a un costo sustancialmente menor, entonces la economía de la IA comienza a parecerse menos a la ingeniería aeroespacial y más a la electrónica de consumo, donde los pioneros rara vez conservan sus márgenes por mucho tiempo.
1) El argumento de los gigantes tecnológicos: la investigación fundacional sigue ganando
Los ejecutivos de OpenAI, Anthropic, Google y otros, insisten en que los “laboratorios de frontera” mantendrán su ventaja, por la sencilla razón de que realizan la investigación original, y ello los pone a la vanguardia. Son ellos quienes diseñan nuevas arquitecturas, impulsan métodos de escalamiento y expanden las capacidades de razonamiento, mientras que la destilación, en este marco, es parasitaria, ya que, por naturaleza, depende de los avances realizados en otra parte.
Hay verdad en esta afirmación: los laboratorios más grandes operan a una escala computacional y de experimentación científica que sigue siendo inaccesible para la mayoría de los competidores. Su conocimiento interno (técnicas de curación de datos, procesos de aprendizaje por refuerzo, investigación en alineación) no queda completamente capturado en las respuestas de una API (Application Programming Interface). Aunque los “seguidores veloces” hagan millones de consultas al modelo, ello no les da acceso al conocimiento interno del mismo, su arquitectura, sus técnicas de entrenamiento o los procesos propietarios del “laboratorio original”; solo pueden observar cómo responde.
Sería el equivalente de entrevistar a Einstein durante horas: se pueden aprender sus respuestas de memoria, pero difícilmente comprender el proceso mental que las generó.
Además, ciertas capacidades avanzadas como el razonamiento multimodal y los sistemas autónomos probablemente requieran el tipo de integración profunda entre hardware, software y datos que los seguidores no podrían replicar.
En resumen, los colosos de la AI sostienen que la destilación puede capturar el rendimiento en un momento determinado, pero no puede replicar el motor que produce el siguiente salto adelante.
Sin embargo, un contraargumento gana fuerza: si los clientes de las empresas de IA (startups, bancos, e-commerce, SaaS; desarrolladores que integran modelos en sus productos; grandes corporaciones que licencian acceso empresarial; plataformas que construyen aplicaciones encima de OpenAI, Anthropic, Google, etc.) solo necesitan una porción del rendimiento que alcanzan los titanes de la IA, y pueden conseguirlo un 30% de su costo, ¿cómo podrán estos justificar sus precios?
2) La pregunta de los inversores: ¿vale la pena estar en la vanguardia?
Aquí es donde la ansiedad se extiende más allá de los ingenieros hacia los capitalistas de riesgo y, en general, los mercados públicos.
Construir un modelo de IA de última generación cuesta decenas o incluso cientos de millones de dólares en procesamiento, sin contar infraestructura, talento, y adquisición de datos en una cantidad elefantiásica. Pero si los rivales pueden lograr un razonamiento que se le acerca bastante mediante destilación, esencialmente comprimiendo conocimiento de modelos líderes, entonces la prima asociada a ser el primero cae drásticamente.
Los inversores dispararán entonces la pregunta brutal: ¿es económicamente racional gastar ocho veces más para ser ligeramente mejor?
La preocupación recuerda ciclos tecnológicos pasados. En semiconductores, industria farmacéutica y computación en la nube, los mayores gastos en investigación y desarrollo no siempre fueron garantía de mayores retornos. Cuando la replicación se vuelve más barata y rápida, los márgenes se comprimen, y el mercado pasa de rentas casi monopolísticas a una descarnada competencia de precios.
El precio que cobran empresas como OpenAI, Anthropic o Google por permitir que otros usen sus modelos a través de una API ya registraron una caída pronunciada en el último año. Si la destilación acelera la oferta de IA “suficientemente buena”, esa tendencia deflacionaria podría intensificarse. La carrera entonces deja de ser quién construye el modelo más inteligente y pasa a ser quién construye el más rentable.
3) La apuesta por la infraestructura en riesgo
La implicancia más profunda se refiere a la asignación de capital.
Las asociaciones multimillonarias de infraestructura de OpenAI se justificaron bajo el supuesto de que la gran escala equivale a “defensiva”. Centros de datos masivos, contratos exclusivos de chips y entrenamientos propietarios estaban destinados a formar barreras demasiado costosas de cruzar. Pero si esos modelos de avanzada pueden servir como trampolines para ser utilizados por competidores más baratos, el foso se vuelve franqueable. La infraestructura, destinada a ser una fortaleza privada, pasa a convertirse en un bien de oferta pública, accesible para seguidores veloces.
Así, la destilación amenaza con volver realidad una de las peores pesadillas del capitalismo: que la inversión en IA de vanguardia se transforme en un subsidio para hacer nacer a sus competidores. El laboratorio de frontera paga la matrícula; el seguidor asiste a clase como oyente.
Eso no significa que la estrategia de los gigantes esté condenada, pero sí que el período de recuperación se vuelve menos seguro. Si los seguidores pueden entrar al mercado rápida y rentablemente, el retorno de la inversión a escala de frontera seguramente puede verse afectado.
Código abierto: el efecto multiplicador
Los modelos de DeepSeek son abiertos, al igual que los de Meta y Alibaba, y esto amplifica las tensiones ya mencionadas.
Un artículo de Quanta Magazine menciona que un equipo del laboratorio NovaSky de la Universidad de California en Berkeley entrenó un modelo mediante destilación por aproximadamente 450 dólares, logrando un rendimiento comparable al de modelos mucho más grandes y poderosos. Otro artículo de Wired informa de manera similar que investigadores de UC Berkeley demostraron cómo un modelo destilado (llamado Sky-T1) pudo entrenarse incluso por una cifra menor, manteniendo un desempeño similar al de un modelo de código abierto mucho más grande.
Por su parte, las startups ya están superponiendo aplicaciones especializadas sobre estos sistemas destilados, apuntando a nichos como tareas de programación y razonamiento.
Esta democratización acelera la competencia, la destilación ya no requiere un laboratorio soberano; requiere acceso a una API e ingeniería inteligente. Por supuesto, a medida que el proceso se vuelve más fácil de replicar, los precios caen y las barreras de entrada disminuyen.
El resultado puede parecerse al ecosistema de los smartphones: un puñado de empresas diseña los chips más avanzados, pero innumerables firmas construyen productos sobre ellos, erosionando márgenes en el proceso.
La dimensión de seguridad nacional
Las acusaciones de Anthropic añaden una dimensión geopolítica. La empresa advirtió que laboratorios extranjeros que destilen modelos estadounidenses podrían perfectamente integrar esas capacidades en sistemas militares o de vigilancia. OpenAI también ha enfatizado la cooperación con las autoridades estadounidenses para proteger sus modelos.
La destilación se convierte así no solo en una preocupación empresarial sino también estratégica. Si la IA de frontera es fácilmente extraíble mediante consultas repetidas, los controles de exportación de chips pueden no resultar una barrera suficiente para prevenir de manera eficaz la dispersión tecnológica.
Conclusión: ¿quién capturará el valor?
La destilación comprime tiempo, costo, y multiplica ventajas; reduce la brecha entre creador y replicador, y transforma esfuerzos de investigación de cientos de millones de dólares en datos que se ponen a disposición… ¡para entrenamiento de sus competidores!
La pregunta económica central que ahora enfrentan los líderes de IA no es si la destilación es posible —claramente lo es—, sino si la escala de avanzada, de insumos, infraestructura y costos gigantescos, seguirá estando plenamente justificada a través de los beneficios económicos que produzca.
Si el liderazgo en IA depende de una innovación perpetua, los gigantes pueden conservar su ventaja. Pero si depende principalmente de ser el primero en entrenar un gran modelo —y más aún, a un costo accesible—, entonces la destilación erosiona esa ventaja rápidamente.
Lo que antes requería enorme capital y gran escala puede cada vez más replicarse con mucha menor inversión. Ese cambio plantea una pregunta fundamental para la carrera de la IA: ¿el valor se acumulará en los laboratorios que empujan los límites de la inteligencia, o en las empresas que distribuyen y monetizan con mayor eficiencia una inteligencia “suficientemente buena” para cubrir las necesidades de sus clientes?
En esa tensión reside, en gran parte, la futura estructura de la industria.












