Por su parte, el gobierno de China delineó un programa para superar a las naciones occidentales en este campo.
Incluso un empresario que actúa en el sector como Elon Musk (Tesla) es agorero: la competencia entre las naciones por controlar mejor la IA, será la causa de la Tercera Guerra Mundial. ¿Puede resultar de este modo?
No es tan seguro. Hay muchos especialistas, científicos y académicos en este campo que no creen que ese sea el resultado inevitable.
Los pesimistas han encontrado respaldo en los trabajos de Nick Bostrom, autor de Superintelligence: Paths, Dangers, and Strategies, filósofo formado en Oxford, a pesar de lo cual actúa de modo destacado en la ciencia actuarial que es la que evalúa el riesgo a través de la estadística.
A través de cuatro diferentes sondeos de grupos que participaron de un encuentro sobre este tema en Grecia, arriba a estas conclusiones: las posibilidades de que una inteligencia artificial de escala humana sea alcanzada es de 10% para 2022; de 50% para 2040; y de 90% para 2075.
Sin embargo, en otro sondeo reciente en el que participaron 193 investigadores que lideran este campo del conocimiento, los resultados fueron:
Según 92,5% de los consultados, superinteligencia está lejos de cualquier horizonte previsible. La mitad de ellos acepta que algún día ocurrirá, pero lo sitúan en probablemente un siglo más. Es que, recuerdan, la IA compite contra el cerebro humano desarrollado a lo largo de millones de años.
Las inquietudes que despierta la inteligencia artificial, van desde la destrucción de trabajos hoy a cargo de seres humanos, al desarrollo de un sistema de armas que puede tener un día total autonomía de sus fabricantes humanos. Sin hablar de una superinteligencia que puede terminar gobernando a los seres humanos.
Entre tantas predicciones agoreras se pierde de vista los beneficios evidentes de la IA. Como por ejemplo, prevenir errores médicos, o minimizar el riesgo de los accidentes automovilísticos.