Vallas éticas al desarrollo de las tecnologías distópicas

Habría que poner algunas vallas éticas al desarrollo de tecnologías posiblemente distópicas. Si la inteligencia artificial hará más brillante o distópico el futuro de los humanos es motivo de mucho debate en un terreno movedizo.

22 marzo, 2023

Pero lo que está claro es que empresas como Microsoft están desarrollando tecnologías Web3 de última generación tan rápido como pueden en lo que consideran “una carrera existencial por el futuro, entre ellas y con China”.

Eso podría aumentar la innovación y la productividad, incluso redistribuir la riqueza, o podría sumirnos en un miasma de desconfianza, engaño, noticias falsas y fechorías.

Los desarrolladores de Microsoft y otras empresas no sólo buscan desarrollar la IA, sino también las soluciones de seguridad a los problemas que puede acarrear. Sin embargo, Rana Foroohar del FT afirma que parecen intentar resolver el problema de la tecnología con más tecnología, cuando en realidad la mejor respuesta podría estar en otra parte.

Un grupo de académicos de Harvard y expertos en inteligencia artificial acaba de publicar un informe tendiente a poner vallas éticas al desarrollo de tecnologías posiblemente distópicas, como el chatbot Open AI de Microsoft.

El grupo está sonando las alarmas sobre la “plétora de experimentos con tecnologías sociales descentralizadas. Ellas incluyen el desarrollo de “contenidos muy persuasivos y generados por máquinas” que amenazan con alterar la estructura de la economía, la política y la sociedad.

Ellos creen que hemos llegado a un momento de cambio que exige un marco regulatorio totalmente nuevo para esas tecnologías. Si, por ejemplo, la inteligencia artificial puede generar hoy un ID falso (identificación) perfectamente indetectable, ¿de qué vale cualquier marco legal o de gobierno que depende de esos documentos que nos permiten conducir un vehículo, viajar o pagar impuestos?

Una cosa que ya se sabe es que la IA podría permitir a un mal actuar pasar por cualquier persona, en cualquier momento y en cualquier lugar. O sea que en nuestra era el engaño va a ser más fácil, más barato y más generalizado que nunca.

Esto muestra los riesgos que la IA y otras tecnologías avanzadas de comunicación plantean para la democracia . Lo más evidente es que le ponen esteroides al problema de la desinformación.

Las posibles ramificaciones abarcan todos los aspectos de la sociedad y la economía. ¿Cómo vamos a saber que las transferencias digitales de fondos son seguras, o incluso auténticas? ¿Los contratos online serán confiables? ¿Las fake news, ya de por sí un problema grande, serán indetectables?

Es fácil imaginar un mundo en el que los gobiernos hacen esfuerzos por mantenerse al día con los cambios y, como dice el informe de Harvard, “los actuales procesos democráticos, muy imperfectos, resultan impotentes… y por lo tanto son abandonados por los ciudadanos cada vez más escépticos”.

Está claro que el futuro también podría ser mucho mejor. IA tiene un potencial increíble para aumentar la productividad y la innovación y hasta podría permitirnos redistribuir la riqueza digital de maneras nuevas. Pero lo que ya está claro es que las empresas no van a privarse de desarrollar tecnologías Web3 lo más rápido que puedan. Se ve un una   carrera existencial entre ellas y   con China por el futuro.

Por eso buscan maneras de vender no solamente IA sino las soluciones de seguridad para IA. Por ejemplo, en un mundo donde la confianza no se puede autenticar digitalmente los desarrolladores de IA en Microsoft y otras firmas están pensando si podría haber un método para crear versiones más avanzadas de “secretos compartidos” (o sea cosas que solo dos personas muy relacionadas pueden saber) digitalmente y en gran escala.

Eso suena como resolver el problema de la tecnología con más tecnología. Tal vez la mejor solución para este problema sea analógica.

“Lo que necesitamos es un marco de vigilancia más prudence”, dice Danielle Allen, directora del Centro Safra para la ética, y cita un informe presidencial de 2010 que fue publicado como respuesta al aumento de la genómica. Creó lineamientos para la experimentación responsable que permitió un desarrollo tecnológico más seguro.

Por ahora, en lugar de penalizar IA o buscar un método perfecto de regulación, podríamos comenzar, dice Foroohar, por obligar a las compañías a revelar qué experimentos están haciendo , qué ha funcionado y qué no, y qué consecuencias no buscadas podrían aparecer. La transparencia es el primer paso para asegurar que la IA no su vuelva mejor que sus hacedores.

 

Compartir:
Notas Relacionadas

Suscripción Digital

Suscríbase a Mercado y reciba todos los meses la mas completa información sobre Economía, Negocios, Tecnología, Managment y más.

Suscribirse Archivo Ver todos los planes

Newsletter


Reciba todas las novedades de la Revista Mercado en su email.

Reciba todas las novedades