La gran apuesta de OpenAI: gobernar la superinteligencia antes de que sea tarde
Un documento de política pública publicado en abril de 2026 revela la hoja de ruta que la empresa más influyente de la IA global propone para que la tecnología beneficie a todos, y no solo a unos pocos.

Hay momentos en que una empresa deja de hablar como empresa y empieza a hablar como actor político. Eso es exactamente lo que ocurrió en abril de 2026, cuando OpenAI publicó un documento de trece páginas titulado Industrial Policy for the Intelligence Age: Ideas to Keep People First. El texto no es un white paper técnico ni un informe de inversores. Es, en rigor, un manifiesto de política industrial: una propuesta articulada para que los Estados democráticos —comenzando por los Estados Unidos, aunque con horizonte global— construyan las instituciones, regulaciones y redes de contención necesarias para transitar hacia la era de la superinteligencia sin desgarrar el tejido social en el camino.
La aparición del documento no es casual. OpenAI atraviesa un momento de singular exposición pública: litigios con sus propios fundadores, una transición hacia estructura societaria convencional, y críticas crecientes sobre su concentración de poder en un sector que, según sus propias proyecciones, podría transformar la economía global de manera más profunda que la electricidad o el motor de combustión interna. Ante ese escenario, el documento puede leerse también como un gesto político: la empresa que más cerca está de construir una inteligencia artificial que supere a los humanos en todas las tareas cognitivas le dice a los gobiernos cómo deberían regularla.
“La transición hacia la superinteligencia no es una posibilidad lejana. Ya está en marcha, y las decisiones que tomemos en el corto plazo definirán cómo se distribuirán sus beneficios y riesgos durante décadas.”
El argumento central: el mercado solo no alcanza El corazón argumental del texto descansa en una tesis que, en boca de una empresa del Silicon Valley, suena casi heterodoxa: el mercado, por sí solo, no será suficiente para que la IA beneficie a la mayoría. OpenAI reconoce explícitamente que existe un riesgo real de que los beneficios económicos de la revolución de la inteligencia artificial se concentren en un puñado de empresas —entre las que se incluye a sí misma— mientras la mayor parte de la población queda excluida de los nuevos sectores productivos y ve deteriorarse sus condiciones laborales sin recibir compensación alguna.
Para evitar ese escenario, el documento aboga por una nueva política industrial, entendida en sentido amplio: no solo subsidios o aranceles, sino una reconfiguración activa de las instituciones económicas, laborales y de seguridad social para adaptarlas a un mundo donde la inteligencia artificial automatizará progresivamente los trabajos que hoy demandan horas, luego los que demandan días, y finalmente los que insumen meses de trabajo humano especializado.
La analogía histórica que utiliza OpenAI es reveladora: el documento compara la transición hacia la superinteligencia con la Revolución Industrial y sus consecuencias sociales, recordando que fue necesaria la intervención del Estado —a través del New Deal y la Era Progresista en los Estados Unidos— para construir el contrato social que tradujo el crecimiento en bienestar generalizado. La implicancia es directa: sin intervención pública activa y deliberada, la revolución de la IA puede producir riqueza agregada sin reducir la desigualdad.
“Si la IA termina controlada y beneficiando solo a unos pocos, mientras la mayoría carece de agencia y acceso a sus oportunidades, habremos fallado en cumplir su promesa.”
Economía abierta: diez propuestas para que nadie se quede afuera La primera sección del documento —dedicada a construir una economía abierta— contiene un menú de propuestas que, tomadas en conjunto, bosquejan un programa de redistribución de los beneficios tecnológicos de alcance considerable. Algunas son graduales y de implementación técnica moderada; otras son francamente audaces para el contexto político actual de los Estados Unidos.
Entre las más concretas figura la propuesta de un Fondo Público de Riqueza (Public Wealth Fund): un vehículo de inversión estatal que capture parte de los retornos del crecimiento impulsado por la IA y los distribuya directamente entre los ciudadanos, incluidos quienes no participan de los mercados financieros. La idea no es nueva —Noruega y Alaska tienen esquemas similares vinculados a recursos naturales— pero su aplicación al ecosistema de la IA representa una novedad conceptual significativa.
El documento también propone modernizar la base tributaria para que el financiamiento del Estado no dependa exclusivamente de los ingresos laborales —que podrían erosionarse sustancialmente— sino que gravite hacia las ganancias de capital y las rentas corporativas generadas por la automatización. Paralelamente, sugiere crear beneficios laborales portátiles —desvinculados del empleador— para que trabajadores en transición, autónomos y emprendedores mantengan cobertura de salud, jubilación y capacitación independientemente de su situación contractual.
Para los trabajadores desplazados, el texto propone redes de contención adaptativas que se activen automáticamente cuando indicadores públicos de desempleo sectorial superen umbrales predefinidos, y se desactiven a medida que el mercado laboral se estabilice. El objetivo, explican, es evitar tanto la insuficiencia de cobertura como la expansión permanente de programas de asistencia.
Quizás la propuesta más filosóficamente cargada sea la que denominan Right to AI: el documento plantea tratar el acceso a modelos de inteligencia artificial como un derecho análogo a la alfabetización o al acceso a la electricidad y la internet, con inversión pública en infraestructura, conectividad y formación para garantizar que pequeñas empresas, escuelas, bibliotecas y comunidades vulnerables no queden excluidas de las herramientas que generarán productividad y oportunidades en las próximas décadas.
“Tratar el acceso a la IA como un derecho fundacional para la participación en la economía moderna, análogo a los esfuerzos masivos por la alfabetización o la electrificación.”
Sociedad resiliente: gobernar lo que todavía no existe La segunda sección del documento aborda el desafío quizás más complejo: cómo construir resiliencia institucional frente a riesgos que aún no se comprenden del todo. OpenAI identifica cuatro grandes categorías de amenaza: el uso malicioso de la IA para ataques cibernéticos o biológicos; los efectos negativos sobre el bienestar de las personas —especialmente los jóvenes— si los sistemas se despliegan sin salvaguardas adecuadas; la posibilidad de que los sistemas de IA actúen de maneras que no coincidan con los objetivos humanos o escapen al control humano; y el riesgo de que la IA concentre el poder político y económico en manos de actores estatales o corporativos con intereses estrechos.
Para enfrentar esos desafíos, el documento propone crear lo que llama un AI trust stack: un conjunto de estándares técnicos y legales que permitan verificar la procedencia de los contenidos generados por IA, auditar el comportamiento de los sistemas y asignar responsabilidades cuando algo salga mal. La analogía con otros sectores regulados —aviación, alimentación, farmacéutica— es explícita: la resiliencia no es automática, se construye deliberadamente, y el desafío con la IA es que el tiempo disponible para construirla es mucho más corto.
El documento también llama a crear regímenes de auditoría para los modelos de frontera —aquellos que podrían facilitar armas de destrucción masiva o amenazas cibernéticas graves— aplicando controles especiales solo a un número reducido de empresas y modelos, para no ahogar el ecosistema más amplio de sistemas menos potentes. Y propone mecanismos formales de reporte de incidentes: canales para que las compañías compartan con autoridades públicas no solo los accidentes confirmados, sino también los near-misses —casos donde el sistema mostró comportamientos preocupantes antes de que los controles lo detuvieran.
En materia de gobernanza corporativa, el texto pide que las empresas de IA de frontera adopten estructuras jurídicas que incrusten la responsabilidad ante el interés público —como las Public Benefit Corporations— y que endurezcan sus sistemas contra la captura interna, es decir, contra la posibilidad de que un individuo o facción dentro de la propia empresa utilice los sistemas de IA para concentrar poder de manera subrepticia.
“A medida que la IA avance, es posible que un conjunto reducido de modelos de alta capacidad requiera controles más estrictos. Pero la participación amplia en la economía de la IA no debería depender del acceso a los modelos más poderosos.”
Las tensiones que el documento no resuelve Leer el documento de OpenAI con atención revela tensiones que la empresa reconoce solo parcialmente. La más obvia es la que existe entre el llamado a regular y la posición de mercado del regulado. OpenAI es, al mismo tiempo, la empresa que propone las reglas de auditoría y uno de los principales actores que esas reglas deberían auditar. El texto menciona explícitamente el riesgo de captura regulatoria —la posibilidad de que los incumbentes diseñen regulaciones que consoliden su posición dominante— pero no propone un mecanismo concreto para evitar que eso ocurra con sus propias recomendaciones.
La segunda tensión es geopolítica. El documento se concentra en los Estados Unidos como punto de partida, reconoce que las soluciones deben ser globales, pero ofrece muy poco sobre cómo construir esa globalidad en un contexto de competencia estratégica abierta entre potencias, donde la IA es un activo de seguridad nacional tanto como una tecnología económica. La propuesta de crear una red internacional de institutos de IA conectados para compartir información sobre riesgos y salvaguardas es sugerente, pero omite las enormes dificultades de coordinación que implica.
La tercera tensión, quizás la más fundamental, es de velocidad. El propio documento advierte que la transición hacia la superinteligencia está en marcha y que las instituciones necesarias para gobernarla tardan en construirse. Pero no hay en el texto una respuesta clara sobre qué sucede si el desarrollo tecnológico avanza más rápido de lo que los Estados pueden legislar y las instituciones pueden adaptarse. La historia de la regulación tecnológica —desde las redes sociales hasta las criptomonedas— sugiere que esa brecha temporal puede ser enorme y sus consecuencias, difíciles de revertir.
¿Un manifiesto o un mapa?
Sería un error desestimar el documento de OpenAI por las tensiones que contiene o por el evidente interés corporativo que lo rodea. Pocas veces una empresa con este nivel de influencia tecnológica ha producido un texto tan explícito sobre los riesgos de su propio producto y tan concreto en sus propuestas redistributivas. La recomendación de un Fondo Público de Riqueza, la defensa del derecho al acceso a la IA, o la propuesta de convertir las ganancias de eficiencia en semanas laborales más cortas son ideas que, en el contexto político actual de los Estados Unidos, no son triviales.
Al mismo tiempo, sería ingenuo leerlo como si fuera únicamente un ejercicio de responsabilidad cívica. El documento es también una jugada estratégica: al proponer el marco regulatorio antes de que lo hagan los gobiernos, OpenAI intenta influir en los términos del debate. Al invocar la necesidad de regular solo a los modelos más avanzados —los que ella misma desarrolla— busca preservar el ecosistema de startups que depende de sus APIs mientras concentra la atención institucional en sus propios competidores de frontera.
Lo que queda después de la lectura es una pregunta más que una respuesta: ¿tienen los Estados democráticos la capacidad institucional, la voluntad política y la velocidad de respuesta necesarias para actuar con la ambición que el documento demanda? La Historia sugiere que pueden hacerlo —el New Deal, los sistemas de seguridad social europeos, la regulación del sector bancario post-2008 son ejemplos de acción estatal a gran escala frente a transformaciones económicas disruptivas— pero también que casi siempre llegan tarde.
OpenAI, por su parte, ya inició el proceso: abrirá en mayo de 2026 un espacio de trabajo en Washington D.C. y ha anunciado becas de hasta 100.000 dólares y créditos de API por hasta un millón de dólares para investigadores que desarrollen estas ideas de política pública. La conversación está abierta. La pregunta es quién, además de la empresa más poderosa de la IA global, estará sentado a esa mesa.
Artículos relacionados

La comodidad del Yuan
Xi Jinping quiere una moneda poderosa. La guerra de Estados Unidos lo está ayudando.

Palantir Technologies, el software que se volvió arma estratégica de Occidente
Fundada con capital de la CIA en 2003, cotizante en NYSE desde 2020 y valuada hoy en torno a los 450.000 millones de dólares, la compañía cofundada por Peter Thiel y Alex Karp consolidó un modelo de software que integra datos masivos para agencias de defensa, inteligencia y —cada vez más— corporaciones globales. Su desembarco discreto en Buenos Aires abre preguntas inevitables.

Por qué crece la idea de que el esquema económico no alcanza
La advertencia ya no proviene de una sola escuela ni de una sola tradición. Economistas con diagnósticos muy distintos coinciden en un punto: el programa de Javier Milei logró bajar la inflación desde el pico de 2024, pero no resolvió todavía sus problemas de consistencia externa, acumulación genuina de reservas, atraso cambiario relativo, empleo y nivel de actividad.

