Cuando la IA explica, los humanos dejan de evaluar
Un estudio de Harvard Business School y MIT detecta que las explicaciones narrativas de la inteligencia artificial reducen el juicio crítico de los evaluadores y aumentan la dependencia de sus recomendaciones.

La transparencia, uno de los principios centrales en el diseño de inteligencia artificial, muestra efectos contrarios a los esperados en la práctica. Un trabajo publicado por Harvard Business School en conjunto con el Massachusetts Institute of Technology concluye que, cuando los sistemas de IA explican sus decisiones mediante narrativas, los humanos tienden a pensar menos y a aceptar más fácilmente sus conclusiones.
El estudio —titulado Narrative AI and the Human-AI Oversight Paradox in Evaluating Early-Stage Innovations— plantea un problema de diseño en los sistemas de asistencia a la decisión: la explicación no siempre fortalece el control humano. En ciertos contextos, lo debilita.
Un experimento con resultados consistentes
El equipo encabezado por Jacqueline Lane evaluó el comportamiento de 228 participantes que debían analizar 48 innovaciones en etapa temprana. El experimento se desarrolló bajo tres condiciones: evaluación sin asistencia de IA, con recomendaciones sin explicación y con recomendaciones acompañadas por explicaciones narrativas generadas por modelos de lenguaje.
Sobre un total de 3.002 decisiones, los resultados mostraron una tendencia clara. Cuando la IA ofrecía explicaciones, los evaluadores se alineaban con sus recomendaciones en una proporción 19 puntos porcentuales superior respecto del grupo que recibía sugerencias sin justificación.
El efecto fue más marcado en las decisiones negativas. Frente a recomendaciones de rechazo, los participantes tendieron a aceptar el criterio de la IA con mayor frecuencia, aun cuando ese tipo de decisión implica un costo potencial elevado en procesos de innovación.
La lógica cognitiva detrás del fenómeno
El hallazgo se explica por mecanismos conocidos en psicología del comportamiento. En contextos de alta carga cognitiva —como la evaluación de múltiples proyectos en poco tiempo— los individuos recurren a atajos mentales, o heurísticas, para simplificar decisiones.
Una explicación bien estructurada, aun cuando sea generada por una máquina, activa lo que la literatura denomina procesamiento periférico. En ese modo, el evaluador no analiza en profundidad el argumento, sino que lo acepta como plausible.
Cuando esa narrativa proviene de un sistema percibido como capaz de procesar grandes volúmenes de información, se suma un efecto de autoridad. El resultado es una mayor deferencia hacia la recomendación automatizada.
El riesgo para la innovación
El estudio identifica un impacto adicional: las propuestas con mayor potencial disruptivo son las más afectadas por este sesgo. Se trata de iniciativas que no encajan en criterios estándar y requieren juicio cualitativo para ser valoradas.
La IA, entrenada sobre patrones promedio, tiende a penalizar estos casos. Si el evaluador humano reduce su intervención crítica, aumenta la probabilidad de descartar innovaciones valiosas. En términos económicos, se incrementa el riesgo de falsos negativos, una pérdida difícil de revertir.
Implicancias para empresas y reguladores
El resultado plantea un desafío para organizaciones que integran IA en procesos de decisión: crédito, selección de proveedores, evaluación de proyectos o contratación de personal.
La evidencia sugiere que la clave no reside en aumentar la cantidad de explicaciones, sino en diseñar mecanismos que obliguen al evaluador a formular un criterio propio antes de acceder a la recomendación del sistema. Es lo que los autores denominan “fricciones deliberadas”.
Este enfoque implica repensar la interacción humano-máquina. La IA puede asistir, pero no sustituir el juicio. La diferencia depende del diseño del proceso.
El trabajo completo está disponible en Harvard Business School Harvard Business School.
Artículos relacionados

Actividad en retroceso: el rebote perdió amplitud sectorial
El EMAE cayó 2,1% interanual en febrero y retrocedió 2,6% contra enero. La mejora quedó concentrada en minería y agro, mientras industria y comercio volvieron a explicar la mayor parte de la contracción.

La IA ya entró en la empresa, pero el valor todavía está en discusión
Un estudio de Wharton y GBK Collective muestra que la adopción de inteligencia artificial generativa dejó de ser experimental en las grandes compañías. La discusión ahora pasa por el retorno, la gobernanza y la capacidad de las organizaciones para formar a sus equipos.

La recuperación no llega a las fábricas
El nuevo relevamiento del INDEC muestra un sector manufacturero que estabilizó su caída, pero sigue sin encontrar un motor de reactivación. La debilidad de la demanda interna vuelve a aparecer como el principal límite.

