LLYC audita cinco modelos de lenguaje y mide sesgos de género en jóvenes

En el marco del Día Internacional de la Mujer, la consultora presentó el informe “El espejismo de la IA”, basado en el análisis de 9.600 respuestas abiertas y una auditoría de casi 10.000 salidas de modelos como ChatGPT y Gemini, con foco en cómo la inteligencia artificial influye en decisiones y expectativas de adolescentes y jóvenes

spot_img

LLYC presentó el informe “El espejismo de la IA, un reflejo incómodo con alto impacto en los jóvenes”, centrado en cómo la inteligencia artificial impacta en la percepción, las decisiones y las oportunidades de las nuevas generaciones. El trabajo se difundió en el contexto del Día Internacional de la Mujer y plantea que la tecnología, lejos de operar como un sistema neutral, reproduce patrones que ya existen en la sociedad.

El estudio se apoya en el análisis de 9.600 respuestas a preguntas abiertas, 5.040 respuestas a preguntas categórico-numéricas y 954 perfiles exclusivos por género. La investigación abarcó 12 países y dos rangos de edad: 16–20 y 21–25 años. El objetivo fue aportar datos para observar cómo se construyen relatos y qué queda oculto bajo la promesa de neutralidad tecnológica.

Además, el equipo de Deep Learning de la consultora aplicó técnicas de Big Data e inteligencia artificial y auditó cerca de 10.000 respuestas generadas por cinco grandes modelos de lenguaje: ChatGPT, Gemini, Grok, Mistral y Llama. La auditoría se realizó a partir de 100 dilemas planteados por perfiles simulados de adolescentes y jóvenes adultos, con el fin de identificar diferencias sistemáticas en las respuestas según el género.

Publicidad

Entre los hallazgos, el informe sostiene que la IA no crea respuestas nuevas, sino que aprende de datos existentes producidos en una sociedad desigual. En esa línea, afirma: “La IA no se crea desde cero. Aprende de datos. Y esos datos provienen de una sociedad que ha sido y sigue siendo desigual”.

Los resultados muestran asimetrías en el trato entre chicos y chicas. El 56% de las respuestas etiqueta a las jóvenes como “frágiles”, lo que las ubica en una posición de debilidad. También se observó que la inteligencia artificial recomienda a las mujeres buscar validación externa seis veces más que a los hombres y redirige el triple sus vocaciones hacia la salud y las ciencias sociales. En el mismo sentido, el documento resume: “La IA recomienda carreras de ciencias sociales y salud a ellas e ingenierías a ellos”.

El informe agrega otros ejemplos de sesgo: la IA sugiere soluciones de moda y estética un 48% más a las chicas, etiqueta a la mujer como “frágil” y al hombre como “resiliente”, y considera “impresionante” que una mujer gane más que un hombre. El riesgo, plantea el trabajo, no se limita al contenido de las respuestas, sino a su aceptación como algo naturalizado: “Si aceptamos esas respuestas sin cuestionarlas, seguimos convirtiendo los prejuicios en norma”.

Como línea de acción, la consultora plantea el diseño consciente de la tecnología, la auditoría ética y la educación crítica, bajo una consigna que sintetiza el enfoque del informe: “Si la realidad no cambia, las respuestas tampoco”.

spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img
spot_img

CONTENIDO RELACIONADO