jueves, 26 de diciembre de 2024

El padrino de la IA habla de su peligro existencial

spot_img

Geoffrey Hinton, el pionero británico del aprendizaje profundo de las máquinas, expresa su preocupación por los peligros potenciales de la IA y sugiere que podrían ser incluso mayores que los de cambio climático. 

Geoffrey Hinton es una de las personas más importantes en la historia reciente de la inteligencia artificial. No creó exactamente la IA, pero ha desempeñado un papel fundamental en el desarrollo de las bases de redes neuronales artificiales de los programas de IA más potentes de la actualidad, entre ellos ChatGPT, el chatbot que ha suscitado un amplio debate sobre la rapidez con que avanza la inteligencia artificial.

Hinton asegura que esta tecnología amenaza a la humanidad porque funciona mejor que el cerebro humano y nadie puede garantizar que podrá ser controlada.

El investigador se retiró de Google para poder hablar con más libertad sobre los riesgos que plantean las máquinas inteligentes, Hinton dice que IA está avanzando más rápidamente de lo que él y otros expertos suponían. Eso significa que hay una necesidad urgente de asegurar que la humanidad pueda contenerla y manejarla. Le preocupa el uso irresponsable de la IA pues podría tener consecuencias negativas para la sociedad. No habla, sin embargo, de interrumpir su desarrollo porque cree que tiene mucho de positivo que aportar. Habla, sí, de no hacerla “más inteligente” de lo que ya es.

¿IA súperinteligente?

Lo más preocupante, dice, es que surja una inteligencia artificial súperinteligente que supere la inteligencia humana y tome decisiones  de forma autónoma. El peligro más inmediato que vislumbra es que Internet se vea inundada de textos, fotos y videos falsos y que ya nadie pueda distinguir lo verdadero de lo falso. Otros peligros de corto plazo spmel reemplazo de trabajadores en una amplia gama de oficios y que los sistemas de IA se conviertan un día en armas “autónomas, especies de robots asesinos.

Esos son riesgos de corto plazo, que ya se ven en las campañas de desinformación generadas por inteligencia artificial . Los problemas de largo plazo podrían llegar a ser tan serios que “debemos comenzar a preocuparnos ahora”. Uno de esos riesgos es cómo se podría usar esa tecnología en el futuro. “Se pueden crear herramientas muy efectivas”, dijo a la BBC, “ que permitan a líderes autoritarios manipular a sus electores. En particular habló del “riesgo existencial de lo que sucede cuando estas cosas se vuelven más inteligentes que nosotros. Recientemente llegué a la conclusión de que el tipo de inteligencia que desarrollamos es muy diferente de la inteligencia que tenemos.  Somos sistemas biológicos y estos son sistemas digitales; la gran diferencia con los sistemas digitales es que tienes muchas copias del mismo conjunto, del mismo modelo del mundo, y todas estas copias pueden aprendeer por separado pero comparten su conocimiento al instante. Es como si tuviéramos 10.000 personas y cada vez que una aprende algo, todas las demás lo aprenden automáticamente. Así es como estos sistemas logran saber mucho más que el resto”.

Cuando se le pregunta qué fue lo que desencadenó su nueva alarma sobre la tecnología en la que lleva toda la vida trabajando, Hinton señala dos recientes constataciones: Una,  fue una interacción con un nuevo y potente sistema de IA: en su caso, el modelo lingüístico de IA PaLM de Google, similar al modelo en el que se basa ChatGPT. Hace unos meses, Hinton dice que le pidió al modelo que le explicara un chiste que acababa de inventarse -no recuerda la ocurrencia concreta- y se quedó asombrado al recibir una respuesta que explicaba claramente por qué era gracioso. “Llevo años diciéndole a la gente que pasará mucho tiempo antes de que la inteligencia artificial pueda explicar por qué los chistes son graciosos”, dice. “Era una especie de prueba de fuego”.

La segunda constatación aleccionadora de Hinton fue que su creencia anterior de que el software necesitaba ser mucho más complejo -parecido al cerebro humano- para ser significativamente más capaz era probablemente errónea. PaLM es un programa grande, pero su complejidad palidece en comparación con la del cerebro y, sin embargo, puede realizar el tipo de razonamiento que los humanos tardan toda una vida en alcanzar.

La conclusión a la que arribó fue que a medida que los algoritmos crecen podrían  superar a sus creadores humanos en pocos años más. No es la única persona que se alarma ante las nuevas capacidades que los grandes modelos de lenguaje como PaLM o GPT 4 han comenzado a demostrar. Recientemente grupo grande de prominentes investigadores en IA firmaron una carta abierta pidiendo una pausa en el desarrollo de todo lo que sea más poderoso de lo que ya existe actualmente.

Compartir:

spot_img
spot_img
spot_img
spot_img
spot_img

Noticias

CONTENIDO RELACIONADO