Advierten sobre el uso dual de la inteligencia artificial

Los gobiernos y las empresas deben estar alertas y preparados para el cíber crimen.

20 marzo, 2018

26 expertos en las implicancias de las tecnologías emergentes   sobre la seguridad firmaron conjuntamente un informe que enciende las alarmas sobre el posible uso malicioso de la inteligencia artificial por parte de estados, de criminales o de terroristas.

Previendo el rápido crecimiento del cíber crimen y la mala utilización de los drones durante la próxima década – además de un aumento sin precedentes en el uso de los “bots” para manipular desde procesos eleccionarios hasta la agenda de noticias y las redes sociales – el informe es un toque de atención para que los gobiernos y las empresas de todo el mundo se ocupen del peligro inherente en la cantidad de aplicaciones de IA.

Recomienda asimismo, varias intervenciones para mitigar los peligros del mal uso de IA:

Legisladores e investigadores técnicos deben trabajar juntos para estar preparados. IA tiene muchas aplicaciones positivas, pero es una tecnología de uso dual y los investigadores  y técnicos deben estar atentos y proactivos ante la posibilidad de su mala utilización.

Deberían aprenderse las mejores prácticas en disciplinas con una larga historia de manejo del riesgo en el uso dual de tecnologías, como seguridad en computación.

Habría que ampliar el grupo de stakeholders comprometidos a prevenir y mitigar los riesgos del uso malicioso de IA.

Los autores calculan que habrá nuevos cíberataques como hackeo automatizado, lenguaje sintético usado para personificar objetivos, spam de emails finamente personalizados usando información extraída de las redes sociales o aprovechamiento de vulnerabilidades de los mismos sistemas de IA.

También, la proliferación de drones y sistemas cíber-físicos permitirá a los atacantes  utilizar o cambiar el propósito de esos sistemas con fines dañinos como provocar el choque de flotas de vehículos autónomos o convertir en misiles drones comerciales  o secuestro de infraestructura crítica.  El aumento de los sistemas de armamento autónomo en el campo de batalla  podría significar la pérdida de control humano y presentar tentadores objetivos para el ataque.

En el área política, como acaba de ocurrir con Cambridge Analytica y Facebook, el riesgo es que se manipule la opinión pública a escalas hasta ahora inimaginables.

 

Compartir:
Notas Relacionadas

Suscripción Digital

Suscríbase a Mercado y reciba todos los meses la mas completa información sobre Economía, Negocios, Tecnología, Managment y más.

Suscribirse Archivo Ver todos los planes

Newsletter


Reciba todas las novedades de la Revista Mercado en su email.

Reciba todas las novedades