domingo, 22 de diciembre de 2024

La Unión Europea avanza en la regulación de la IA

spot_img

La CE acaba de proponer su primer marco legal sobre Inteligencia Artificial.

Los avances en inteligencia artificial se van infiltrando en todos los productos y servicios que usa la gente para interactuar entre sí. Los autos vienen equipados con herramientas que permiten el frenado automático, las plataformas como Netflix sugieren recomendaciones de títulos para ver, Alexa y Google pueden predecir las necesidades de búsqueda de sus dueños y Spotify puede recomendar canciones y mantener en condiciones las listas de temas musicales mucho mejor que una persona.

Aunque las ventajas de IA en la vida cotidiana son indiscutibles, a muchas personas les preocupan los peligros. Escasa seguridad física, pérdidas económicas, y problemas éticos, son apenas algunos ejemplos del daño que podría causar.

Como respuesta a los peligros, la Unión Europea está trabajando en un marco legal para regular la inteligencia artificial. Hace muy pocos días, la Comisión Europea propuso su primer marco legal sobre Inteligencia Artificial. Esa propuesta es el resultado de un largo y complejo trabajo realizado por las autoridades europeas. Con anterioridad, el Parlamento Europeo había emitido una resolución con recomendaciones para la Comisión. Antes de eso, los legisladores de la Unión Europea habían promulgado la Resolución 2017 y el Informe sobre seguridad y responsabilidad de la Inteligencia Artificial, la Internet de las Cosas y la Robótica. Todo eso acompañó un documento sobre IA publicado por la Unión Europea en 2020.

En la resolución del 20 de octubre de 2020 sobre el régimen de responsabilidad civil de la IA, el Parlamento Europeo reconoció que el actual sistema legal carece de una disciplina específica referida a la responsabilidad de los sistemas de IA. Según el cuerpo legislativo, las capacidades y autonomía de las tecnologías hacen que sea difícil atribuirlas a decisiones humanas específicas. En consecuencia, la persona que sufre un daño causado por sistemas de IA no puede ser compensada sin antes demostrar la responsabilidad del operador. Por es motivo, la Resolución formuló una propuesta al Anexo B con recomendaciones para la Comisión Europea. La propuesta tiene 17 páginas, 5 capítulos y 15 artículos.

Siguiendo las recomendaciones del Parlamento Europeo, el 21 de abril de 2021, la Comisión Europea desarrolló su propuesta para un marco legal de IA en 108 páginas y nueve anexos. Este marco sigue una metodología basada en riesgos y diferencia los usos de IA según originen un riesgo inaceptable, un riesgo alto o un riesgo bajo.

El riesgo es inaceptable si plantea un peligro claro a la seguridad y los derechos fundamentales de las personas, y por esa razón queda prohibido. La CE identificó ejemplos de riesgo inaceptable en los usos de IA que manipulan la conducta humana y los sistemas que permiten una calificación del crédito social. Por ejemplo, este marco social europeo prohibiría un sistema similar al de crédito social de China.

La CE definió como riesgo alto a un sistema destinado a ser usado como componente de seguridad y que está sujeto a que un tercero controle su cumplimiento. El concepto de alto riesgo se especifica mejor en el Anexo III de la propuesta, que contiene ocho áreas. En esas áreas se considera de alto riesgo a los sistemas relacionados con infraestructura crítica (como tránsito en calles y rutas y provisión de agua), capacitación educativa (como el uso de sistemas de IA para calificar pruebas y exámenes), componentes de seguridad de productos (por ejemplo, cirugías asistidas por robots) y selección de empleados (por ejemplo, software de selección de currículos). Los sistemas de IA que entran en la categoría de alto riesgo están sujetos a estrictos requisitos que deben cumplirse antes de ser llevados al mercado. Entre esos requisitos está el de una buena evaluación de riesgo, la trazabilidad de los resultados, una adecuada información al usuario sobre el sistema de IA y una garantía de alto nivel de seguridad. Además, debe haber un buen control humano.

Si los sistemas de IA tienen riesgo bajo, deben cumplir con las obligaciones de transparencia. En este caso, los usuarios deben saber que están interactuando con una máquina. Por ejemplo, en el caso de una “deepfake”, una falsedad, donde se manipulan la imagen y los videos de una persona para que parezcan otra persona, los usuarios deben declarar que el video o las imágenes han sido manipuladas. El proyecto de la Comisión Europea no regula los sistemas de IA que presentan bajo o ningún riesgo para los ciudadanos europeos, como la IA que se usa en los videojuegos.

En su proyecto la CE adopta un método que no rechaza la innovación. Un aspecto muy interesante es que la Comisión apoya la innovación mediante lo que denomina “zonas seguras de regulación” para el riesgo bajo, que facilitan el desarrollo y testeo de sistemas innovadores.

La propuesta de la Comisión representa un paso muy importante hacia la regulación de la inteligencia artificial. Como paso siguiente, el Parlamento Europeo y los estados miembro tendrán que aceptar la propuesta de la Comisión. Una vez adoptado, el nuevo marco legal será aplicado en toda la Unión Europea. El marco tendrá un fuerte impacto económico para mucha gente, compañías y organizaciones. Su relevancia se relaciona con el hecho que sus efectos podrían extenderse más allá de las fronteras de la Unión Europea y afectar a las compañías extranjeras que operan dentro de la UE. Desde este punto de vista, la ncesidad de adoptar un marco legal para la inteligencia artificial se torna crucial.

Todos los sistemas de IA han demostrado en varios casos tener serias limitaciones. El sistema de reclutamiento de Amazon, por ejemplo, que discriminaba a las mujeres. O el reciente accidente de un auto Tesla en modo Autopilot que causó la muerte de dos hombres. Esos ejemplos llevan a reflexionar sobre la necesidad de adoptar un marco legal en jurisdicciones fuera de la Unión Europea.

Compartir:

spot_img
spot_img
spot_img
spot_img
spot_img

Noticias

CONTENIDO RELACIONADO