La inteligencia artificial generativa está reproduciendo, con una velocidad inédita, esa tensión estructural. Los CEOs que no muestran una estrategia de transformación total se sienten vulnerables frente a sus directorios. Los consultores que no prometen reinvención radical tienen dificultades para llenar el pipeline. Y las empresas que intentan hacer lo que todos predican —transformarse de una vez y para siempre con IA— se están encontrando con un patrón frustrante y casi universal: lo que funciona en el piloto no escala, y lo que escala no transforma.
Dos investigadores del MIT Sloan School of Management decidieron estudiar por qué ocurre ese patrón, y lo que encontraron contradice, con datos de 21 grandes empresas, la mayor parte del discurso de consultoría que domina el mercado.
La investigación que nadie quería hacer
Melissa Webster y George Westerman, coautor del libro “Leading Digital” y uno de los expertos más respetados en transformación digital, pasaron meses estudiando cómo las organizaciones que efectivamente estaban obteniendo valor real de la IA generativa lo estaban haciendo. No cuáles tenían la mejor estrategia declarada ni cuáles habían lanzado los proyectos más ambiciosos. Cuáles estaban generando retornos medibles.
Los resultados de su investigación, son un correctivo directo a la cultura del megaproyecto que domina gran parte del ecosistema de adopción de IA. El hallazgo central es tan simple como contraintuitivo: las empresas que más avanzan no son las que apuestan a la transformación radical. Son las que suben, paso a paso y con intención, una pendiente de riesgo que los autores llaman “risk slope”.
“Los líderes inteligentes están adoptando un enfoque mucho más medido y sistemático para llegar a las grandes cosas que quieren implementar con IA generativa”, explicó Westerman en el webinar donde presentó los resultados. “En cada paso del camino, aprenden a gestionar el riesgo, aprenden sobre las herramientas, y construyen capacidades para avanzar hacia oportunidades mayores.”
Es, en esencia, la aplicación al mundo de la IA de uno de los principios más probados del management de proyectos complejos: los sistemas adaptativos funcionan mejor cuando se construyen de manera incremental, con retroalimentación real en cada etapa, que cuando se diseñan de manera integral en el pizarrón y se ejecutan de una sola vez.
Los tres niveles que separan a las empresas que avanzan de las que se quedan en el piloto
El modelo que proponen Webster y Westerman organiza la madurez en IA generativa en tres niveles que no son categorías teóricas sino patrones observados en las empresas de su muestra. Cada nivel tiene su lógica de riesgo, sus casos de uso característicos y su contribución específica a la capacidad organizacional de avanzar al siguiente.
El primer nivel es el de la productividad individual. Las organizaciones en este estadio despliegan IA generativa para tareas de bajo riesgo que abarcan todos los roles: resumen de correos, transcripciones de reuniones, búsquedas internas, preparación de briefs, adaptación de comunicaciones para distintas audiencias. El humano siempre está en el bucle: la IA sugiere, el empleado decide. Los errores tienen consecuencias limitadas y corregibles.
Suena modesto. Pero Webster señala que esa modestia es precisamente su función estratégica: “Estas tareas hacen que la gente se sienta cómoda y reduzcan el miedo. Entonces pueden pasar a las tareas del Nivel 2 que empiezan a transformar cómo funciona la organización.” McKinsey, por ejemplo, construyó un modelo de lenguaje específico de la empresa que le permite a sus consultores acceder a toda la propiedad intelectual interna con una eficiencia que antes era imposible. No es reinvención del negocio. Es el escalón que lo hace posible.
El segundo nivel aplica IA a roles y procesos específicos donde la tolerancia al error es menor pero todavía existe un humano que supervisa. El desarrollo de software es el caso paradigmático: los asistentes de código han probado ganancias de productividad sustanciales para programadores. CarMax, la cadena estadounidense de autos usados, utiliza modelos de lenguaje para sintetizar reseñas de clientes en horas, una tarea que antes demandaba semanas de trabajo humano. Empresas de todos los sectores están rediseñando sus flujos de atención al cliente con IA que maneja las consultas simples y deriva las complejas a agentes humanos. En todos estos casos, el patrón es consistente: humanos y máquinas trabajando juntos, con la IA soportando al humano y el humano supervisando a la IA.
El tercer nivel es el que concentra la mayor ambición y el mayor riesgo: la integración de IA autónoma en productos, experiencias de cliente y operaciones internas. Adobe, SAP y Workday están desplegando capacidades generativas que crean contenido, automatizan campañas y toman decisiones de manera independiente. Es en este nivel donde los cambios se vuelven irreversibles y donde el impacto competitivo puede ser transformacional. También es donde el riesgo de falla es máximo, y donde los investigadores del MIT encuentran que las empresas que llegaron habiendo transitado los niveles anteriores tienen una tasa de éxito significativamente mayor que las que intentaron llegar directamente.
Por qué los pilotos fracasan: la anatomía de un error sistemático
La pregunta que Webster y Westerman no responden de manera explícita pero que su investigación ilumina con claridad es por qué tanta empresa tiene pilotos exitosos de IA que luego no escalan. La respuesta que emerge de los datos es, en esencia, una cuestión de secuencia y capacidad organizacional.
Un piloto puede funcionar en condiciones controladas —un equipo motivado, un caso de uso bien delimitado, supervisión ejecutiva directa— sin que eso implique que la organización tiene la capacidad de replicarlo a escala. La capacidad de escalar con IA no es técnica: es organizacional. Requiere que los empleados sepan usar las herramientas, que los procesos estén rediseñados para integrarlas, que los sistemas de gobernanza permitan su uso responsable, y que la cultura no genere fricciones que anulen la productividad técnica.
Esas capacidades no se compran. Se construyen. Y se construyen a través de la experiencia acumulada en los niveles inferiores de la pendiente de riesgo. Una empresa que salta directamente al Nivel 3 está intentando edificar el último piso sin haber construido los cimientos. El colapso suele ocurrir en el momento más inoportuno: cuando el proyecto ya recibió la comunicación interna, cuando el directorio ya lo celebró como logro estratégico, y cuando el fracaso tiene el máximo costo político.
El consejo de Westerman para los líderes es tan directo que podría parecer de sentido común: “Construir la estrategia correcta no va de la mano con la mentalidad de fiebre del oro que existe ahora con la IA generativa.” La fiebre del oro tiene su lógica: quien llega primero a la veta se queda con el mineral. Pero en la transformación organizacional, la ventaja no es para el más rápido sino para el más consistente.
La dimensión que la mayoría ignora: la gestión del riesgo como capacidad estratégica
Hay una dimensión del modelo de Webster y Westerman que merece más atención de la que suele recibir en las presentaciones ejecutivas: la gestión del riesgo no es un obstáculo que hay que sortear para llegar a los beneficios de la IA. Es, en sí misma, una capacidad que se construye y que crea ventaja competitiva.
Cada nivel de la pendiente de riesgo expone a las organizaciones a un tipo diferente de riesgo: privacidad y seguridad de datos en el Nivel 1, calidad y sesgo de outputs en el Nivel 2, autonomía y responsabilidad en el Nivel 3. Las empresas que atraviesan esos niveles de manera ordenada aprenden a gestionar cada tipo de riesgo antes de enfrentar el siguiente. Las que saltan aprenden a gestionar todos a la vez, en el peor momento, con el mayor costo.
Esto es especialmente relevante en un contexto regulatorio que está evolucionando rápidamente. La Unión Europea ya tiene su AI Act en plena implementación. Los reguladores de distintos sectores —financiero, de salud, legal— están definiendo marcos de uso responsable que las empresas deberán cumplir. Las organizaciones que construyeron capacidades de gobernanza de IA de manera incremental, en los niveles inferiores de la pendiente, llegan a ese contexto regulatorio con infraestructura y cultura de cumplimiento. Las que nunca se detuvieron a pensar en riesgos llegan sin ninguna de las dos.
El mensaje para las empresas que todavía están mirando
Hay un número significativo de empresas argentinas y latinoamericanas que hoy están en la posición del observador tardío: ven la aceleración de la adopción de IA en las grandes corporaciones globales, sienten la presión de hacer algo, y tienen la tentación de compensar el tiempo perdido apostando a proyectos ambiciosos que las pongan al nivel de los que empezaron antes.
El modelo de MIT Sloan ofrece una perspectiva alternativa que es, a la vez, más realista y más estratégica. El hecho de no haber lanzado un megaproyecto de transformación en 2023 no es necesariamente una desventaja. Muchas de las empresas que lo lanzaron están hoy gestionando las consecuencias de haber construido pisos sin cimientos.
La ventana no está cerrada. Y la manera de aprovecharla no es saltar al Nivel 3. Es empezar por el Nivel 1 con intención, construir las capacidades que el Nivel 2 requiere, y llegar al Nivel 3 con la organización preparada para sostener lo que se construye.
“No trates todos los problemas de tu organización como clavos que pueden golpearse con el martillo de la IA generativa”, advierte Webster. Es un consejo que suena a mesura en un mercado que premia el entusiasmo. Pero los datos de 21 grandes empresas estudiadas por el MIT sugieren que esa mesura, bien ejecutada, es la forma más rápida de llegar adonde todos quieren ir.












