La adopción de IA generativa en las organizaciones avanza, pero su uso sin supervisión humana expone riesgos concretos en la toma de decisiones, la comunicación y la reputación corporativa. Un informe de abril del MIT sostiene que la tecnología solo mejora el trabajo cuando las personas saben en qué casos confiar y en cuáles no, y advierte que la automatización sin control puede derivar en una “atrofia de habilidades” dentro de las compañías.
El trabajo citado corresponde al MIT Industrial Performance Center, un centro de investigación interdisciplinario dentro del Instituto de Tecnología de Massachusetts dedicado a analizar la productividad industrial, la innovación y la competitividad económica. En ese marco, el estudio plantea que “para que la IA realmente acelere las tareas y mejore la calidad del trabajo, los usuarios deben saber cuándo confiar”. También cuestiona la idea de una herramienta universal: “Un solo talle no sirve para todos, ni siquiera para algunos”, y describe que los equipos utilizan la IA generativa de maneras distintas incluso ante tareas similares.
Esa diversidad de usos se vincula con un punto operativo: los trabajadores pueden decidir cómo y cuándo emplear estas herramientas, o evitarlas cuando no confían en su eficacia. Para las empresas, esa variabilidad introduce un desafío de gestión, porque el impacto de la IA no depende solo del modelo elegido, sino de criterios internos, capacitación y procesos de validación.
Natalia Vivas, consultora especializada en comunicación estratégica y experta en gestión de reputación corporativa, ubica el problema en la velocidad de adopción y en la falta de mirada crítica. “Las empresas están adoptando IA a una velocidad que no siempre va acompañada de pensamiento crítico del usuario y el problema es usarla sin cuestionamiento alguno”, dijo. En esa línea, señaló un “peligro latente” cuando la herramienta se vuelve incuestionable en los equipos.
Uno de los efectos aparece en la comunicación cotidiana. Vivas relató casos de pymes que incorporan IA “solamente para decir que son más tecnológicas” y donde “hasta los mails entre equipos son hechos por IA generativa, fríos, sin personalidad, sin identidad”. En paralelo, el informe advierte que la confianza ciega “se convierte en un problema de seguridad cuando se utiliza la IA para tareas de alto riesgo sin un proceso de verificación humana robusto”.
El documento identifica tres trampas de la automatización: desuso, mal uso y sobreuso. En particular, el “uso excesivo” se asocia a dejar de validar resultados cuando la herramienta parece infalible. Vivas advirtió que “cuando un equipo deja de cuestionar los resultados porque la herramienta parece infalible, estamos ante un problema de seguridad grave”.
El impacto final puede trasladarse a la reputación. “La intervención humana no es opcional”, sostuvo Vivas, al describir el costo de reconstruir confianza ante errores no chequeados en reportes o respuestas a clientes.












