¿Tu empresa tiene una filosofía de IA, o simplemente hereda la de sus proveedores?

En 1950, el matemático Alan Turing publicó en la revista *Mind* un paper que cambiaría para siempre la historia de la computación. No era un paper técnico en el sentido convencional. Era una pregunta filosófica: ¿pueden las máquinas pensar? El “Turing test”, el experimento mental que propuso para responderla, es hasta hoy la referencia más citada en toda la literatura sobre inteligencia artificial. La gran ironía de ese origen es que la ciencia que Turing fundó terminó olvidando, durante décadas, la pregunta filosófica que la originó. Los ingenieros construyeron sistemas cada vez más poderosos sin preguntarse, con demasiada frecuencia, para qué deberían usarse, qué deberían considerar conocimiento válido, y cómo deberían representar la realidad en la que operan.

spot_img

Esa deuda filosófica acumulada es lo que dos investigadores del MIT decidieron, en enero de 2025, poner sobre la mesa con una provocación que se convirtió en el artículo más leído de toda la producción de MIT Sloan Management Review durante ese año.

El artículo se llama “Philosophy Eats AI”. Sus autores son Michael Schrage, research fellow del MIT Sloan School of Management’s Initiative on the Digital Economy, y David Kiron, director editorial de investigación de MIT Sloan Management Review. Y su tesis central, que es al mismo tiempo una advertencia y un programa de acción, es esta: las organizaciones que despliegan inteligencia artificial sin examinar críticamente los supuestos filosóficos que esa tecnología lleva incorporados no solo corren el riesgo de obtener malos resultados. Están delegando, sin saberlo, algunas de las decisiones estratégicas más importantes que una organización puede tomar.

La metáfora que estructura el argumento

Schrage y Kiron construyen su argumento sobre una genealogía de metáforas que vale la pena seguir. En 2011, Marc Andreessen —el programador convertido en inversor que cofundó Netscape— publicó en el *Wall Street Journal* un manifiesto que se volvió célebre: “Software is eating the world”. Era una descripción, no del todo incorrecta, de cómo el software estaba transformando cada industria que tocaba.

Publicidad

Seis años después, Jensen Huang, el cofundador y CEO de Nvidia —cuya capitalización de mercado superaría los dos billones de dólares antes de que la década terminara— actualizó a Andreessen: “Software is eating the world, but AI is eating software.” La inteligencia artificial no era solo otra aplicación: era la capa que estaba redefiniendo cómo se construía todo lo demás.

Schrage y Kiron dan un tercer paso en esa cadena: “Philosophy is eating AI.” La filosofía, como disciplina, como conjunto de datos y como sensibilidad, está determinando crecientemente cómo las tecnologías digitales razonan, predicen, crean y generan. No en el futuro: ahora mismo. En los conjuntos de entrenamiento de cada LLM. En los parámetros que dan forma al aprendizaje. En los criterios con los que los modelos filtran, jerarquizan y producen sus respuestas.

La pregunta que los autores le hacen a cada directivo que los lee no es filosófica en el sentido académico del término. Es estratégica en el sentido más concreto: ¿su empresa tiene consciencia de qué filosofía está operando en sus sistemas de IA, y si esa filosofía es consistente con sus propios valores y objetivos?

Los tres pilares que ningún CTO está mirando

El marco conceptual que Schrage y Kiron proponen para responder esa pregunta se organiza en torno a tres dimensiones filosóficas que, sostienen, determinan el valor que una organización puede extraer de sus inversiones en IA. Ninguna es exclusivamente ética. Las tres son, simultáneamente, filosóficas y estratégicas.

La primera es la **teleología**: la pregunta por el propósito. ¿Para qué está diseñado este sistema de IA? ¿Cuál es su objetivo final? No la función técnica que cumple, sino el fin hacia el que orienta su comportamiento. Un modelo de lenguaje entrenado para maximizar el engagement del usuario tiene una teleología diferente a uno entrenado para maximizar la precisión informativa, aunque ambos puedan responder a las mismas preguntas de manera aparentemente similar. Las consecuencias de esa diferencia, a escala organizacional y a lo largo del tiempo, son enormes.

La segunda es la **epistemología**: la pregunta por el conocimiento. ¿Qué cuenta como conocimiento válido para este sistema? ¿Qué fuentes privilegia? ¿Cómo pondera la certeza frente a la incertidumbre? ¿Cómo reconoce lo que no sabe? Un sistema con una epistemología deficiente puede producir respuestas convincentes pero incorrectas con la misma confianza con la que produce respuestas correctas. Y en un contexto de negocios, la confianza mal calibrada es un riesgo operativo de primer orden.

La tercera es la **ontología**: la pregunta por la representación de la realidad. ¿Qué categorías usa el sistema para organizar el mundo? ¿Cómo define conceptos como “cliente”, “lealtad”, “riesgo”, “calidad”? Las categorías que un modelo usa para representar la realidad determinan, de manera directa, qué puede ver y qué no puede ver, qué puede optimizar y qué necesariamente ignorará. Una ontología mal diseñada no es un error técnico: es una limitación estructural del pensamiento del sistema.

Los autores son explícitos sobre la implicancia de esta tríada: “Sin una cultivación reflexiva y rigurosa del pensamiento filosófico, las organizaciones fracasarán en obtener retornos superiores y ventaja competitiva de sus inversiones en IA generativa y predictiva.”

Los casos que hacen visible lo invisible

El argumento de Schrage y Kiron ganaría poco peso si no fuera por la serie de ejemplos concretos con que lo ilustran. Tres de ellos merecen atención especial porque cada uno ilumina una dimensión diferente del problema.

El fracaso de Google con Gemini —el modelo de generación de imágenes que en 2024 produjo resultados que provocaron críticas masivas por su tratamiento de la diversidad histórica— no fue, según los autores, un error técnico. Fue una consecuencia de confusión filosófica: objetivos contradictorios entre sí, sin una jerarquía clara que determinara cuál prevalecería en situaciones de tensión. Google no había definido con suficiente rigor para qué estaba diseñado el sistema ni qué tipo de conocimiento debería priorizar. El resultado fue un modelo que intentaba satisfacer demandas incompatibles y que falló precisamente en los casos donde esas incompatibilidades se volvieron visibles.

El contraste con Starbucks y Amazon es revelador. Starbucks, bajo la dirección del entonces CEO Kevin Johnson, desarrolló en 2019 su plataforma de IA Deep Brew con una definición ontológica precisa: el “essence” de la experiencia Starbucks no era el café ni la eficiencia operativa sino la “conexión” entre clientes y empleados, tanto en el local como en el mundo digital. Esa definición —que es una decisión filosófica antes que técnica— orientó todos los desarrollos de IA de la empresa: qué métricas importaban, qué datos eran relevantes, qué comportamientos de usuarios debían incentivarse. La claridad filosófica produjo claridad estratégica, que produjo claridad técnica.

Amazon construyó su ventaja en lealtad de clientes sobre una epistemología particular: el conocimiento del cliente no reside en sus declaraciones sino en su comportamiento. Las compras, las búsquedas, los tiempos de espera tolerados, los productos devueltos: esa es la evidencia que Amazon considera conocimiento válido sobre sus clientes. Esa decisión epistemológica, que no está en ningún manual técnico sino en la filosofía fundacional de la empresa, es la que guía el entrenamiento y el despliegue de cada sistema de IA que Amazon ha construido en las últimas décadas.

En los tres casos, la filosofía no es un adorno cultural. Es la arquitectura invisible que determina qué puede hacer el sistema y cómo lo hace.

El problema de delegar sin saber que se delega

La advertencia más incómoda del artículo de Schrage y Kiron no es filosófica en un sentido abstracto. Es gerencial en el sentido más concreto: cuando una empresa compra un modelo de lenguaje grande y lo despliega sin examinar los supuestos filosóficos que ese modelo lleva incorporados, está delegando decisiones estratégicas a los ingenieros y directivos de OpenAI, Google, Anthropic o Meta que tomaron esas decisiones durante el proceso de entrenamiento.

No es una conspiración. Es una consecuencia estructural de cómo se construyen los LLMs. Cada decisión sobre qué datos incluir en el entrenamiento, con qué pesos, con qué criterios de refuerzo positivo y negativo, con qué definición de “respuesta correcta”, es una decisión filosófica. Los ingenieros que toman esas decisiones tienen sus propias prioridades, sus propias culturas organizacionales, sus propios marcos éticos. Y esas prioridades, esas culturas, esos marcos, quedan codificados en el modelo.

El directivo que dice “vamos a implementar ChatGPT para nuestro departamento de atención al cliente” está, sin saberlo, adoptando también las decisiones filosóficas que OpenAI tomó sobre qué es conocimiento válido, cómo se debe tratar al interlocutor humano, qué tipo de respuestas merecen ser generadas y cuáles suprimidas. Puede que esas decisiones estén perfectamente alineadas con la cultura y los valores de su empresa. O puede que no. La diferencia entre ambos escenarios es estratégicamente significativa, y la mayoría de las organizaciones nunca se ha detenido a verificarlo.

“El desafío crítico empresarial”, escriben Schrage y Kiron, “es si los líderes tendrán la autoconciencia y el rigor para usar la filosofía como recurso para crear valor con IA, o si simplemente se dejarán llevar por los principios filosóficos tácitos y no articulados de sus herramientas.”

Lo que los directorios latinoamericanos deberían estar discutiendo

Para las empresas argentinas y latinoamericanas, la advertencia de MIT Sloan tiene una resonancia específica que el contexto local amplifica. En regiones donde la adopción tecnológica suele ocurrir más rápidamente que la reflexión sobre sus implicancias —donde el ciclo “primero implementamos, después vemos” es una práctica habitual—, el riesgo de heredar filosofías ajenas sin examinarlas es particularmente alto.

No se trata de rechazar la tecnología ni de esperar a tener una “filosofía de IA perfecta” antes de implementar nada. Se trata de hacer explícitas, aunque sea parcialmente, las preguntas que Schrage y Kiron identifican como críticas. ¿Para qué queremos que la IA tome decisiones en nuestra organización y para qué queremos que requiera supervisión humana? ¿Qué tipo de conocimiento consideramos válido y confiable en nuestros procesos? ¿Cómo definimos conceptos como “cliente satisfecho”, “empleado productivo” o “operación eficiente”, y los sistemas que compramos comparten esas definiciones?

Son preguntas que no tienen respuesta técnica. Son preguntas de management, de cultura organizacional, de estrategia. Y la paradoja que el artículo de MIT Sloan pone de manifiesto es que las empresas que las responden con más rigor terminan obteniendo, también, mejores resultados técnicos de sus inversiones en IA.

El filósofo Alfred Korzybski escribió hace casi un siglo que “el mapa no es el territorio”. Los sistemas de IA son mapas extraordinariamente complejos y poderosos. Pero el territorio —los clientes reales, los empleados reales, los valores reales de cada organización— solo puede ser representado adecuadamente si quienes diseñan y despliegan esos mapas saben, con precisión, qué es lo que quieren mapear.

Esa pregunta, que es filosófica antes que técnica, es la que determina si la IA crea valor genuino o solo simula crearlo.

 

spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img

CONTENIDO RELACIONADO