El 4 de febrero de 2026 se publicó en Montreal el Informe Internacional sobre Seguridad de la IA de 2026, una evaluación basada en datos científicos sobre las capacidades de la IA de uso general, los riesgos emergentes y el estado de la gestión de riesgos y las medidas de seguridad.
La segunda edición está presidida por Yoshua Bengio, ganador del Premio Turing. El trabajo reúne a más de 100 expertos internacionales y cuenta con el respaldo de un panel asesor con candidatos de más de 30 países y organizaciones internacionales, entre ellas la Unión Europea, la OCDE y la ONU. Sus conclusiones se usarán como base para los debates de la Cumbre sobre el impacto de la IA, prevista en India a finales de febrero.
Entre los principales hallazgos, el informe describe mejoras rápidas en capacidades, con avances en matemáticas, codificación y funcionamiento autónomo. En 2025, los principales sistemas de IA obtuvieron una medalla de oro en preguntas de la Olimpiada Internacional de Matemáticas, superaron el rendimiento de expertos con doctorado en pruebas de referencia científicas y completaron de forma autónoma tareas de ingeniería de software que a un programador humano le llevarían varias horas. A la vez, el rendimiento se mantiene “irregular”, con fallas en tareas consideradas simples.
El documento también releva una adopción acelerada, aunque desigual a nivel global. Al menos 700 millones de personas utilizan todas las semanas los principales sistemas de IA. En algunos países, más de la mitad de la población recurre a estas herramientas, mientras que en gran parte de África, Asia y América Latina las tasas de adopción estimadas siguen por debajo del 10%.
En materia de riesgos, el informe registra un aumento de incidentes vinculados a deepfakes usados para fraudes y estafas, además de la expansión de imágenes íntimas no consensuadas generadas por IA. Un estudio citado indicó que 19 de cada 20 aplicaciones populares de “nudify” se especializan en simular el desnudo de mujeres.
El reporte incluye alertas por el uso indebido con fines biológicos, que derivó en medidas de seguridad más estrictas en algunos modelos líderes. También señala el uso activo de IA en ciberataques: en 2025, un agente de IA se ubicó entre el 5% de los mejores equipos en una competencia de ciberseguridad.
“La brecha entre el ritmo del avance tecnológico y nuestra capacidad para implementar medidas de seguridad eficaces sigue siendo un desafío fundamental”, dijo Yoshua Bengio, presidente del Informe.
“La confianza en la IA es fundamental para aprovechar todo su potencial”, dijo Kanishka Narayan, ministra de IA del Reino Unido.











