Pulsa «Intro» para saltar al contenido

Ley Europea de IA:  la normativa enfocada a regularla

La Unión Europea dio el visto bueno final a la ley de inteligencia artificial (IA) el pasado 13 de marzo de 2024, estableciendo las reglas ejemplares a nivel internacional. Los legisladores del Parlamento Europeo votaron abrumadoramente a favor  de la Ley de Inteligencia Artificial, casi cinco años después de que la habían propuesto por primera vez. Dicha ley  no solo tiene el objetivo  de actuar como un mecanismo de regulación que marcará el camino  para un desarrollo seguro y centrado en el ser humano, sino que a su vez, se espera que represente un modelo global para los otros gobiernos que luchan por legislar esta tecnología en desarrollo fugaz.

Por lo general, las empresas gigantescas de tecnología han apoyado la necesidad de regular la IA y también, han presionado para garantizar que las reglas establecidas funcionen a su favor. El director ejecutivo de OpenAI, Sam Altman, armó un pequeño escandalo el año pasado cuando propuso su retiro de Europa si su empresa no podía cumplir con los estándares de la Ley de IA. Sin embargo, poco después retiró lo dicho. Lo que ocurre es que al igual que otras regulaciones  de la Unión Europea (UE), la Ley de IA principalmente tiene la meta de ser una legislación  para la seguridad del consumidor, favoreciendo una dirección basada en el riesgo para los productos o servicios que utilizan inteligencia artificial. Entonces, entre más riesgosa es una aplicación de IA, más observaciones criticas enfrentará. Se diagnostica que la mayor parte de los sistemas de IA sean de bajo riesgo, como los sistemas de recomendación de contenidos o de filtros de spam. Voluntariamente,  las empresas podrán elegir en seguir los requisitos y códigos de conducta.

Por otro lado los usos de alto riesgo de la IA, como en los dispositivos médicos o en infraestructuras criticas como redes de agua o electrónicas, se enfrentan a requisitos mucho más estrictos, como la utilización de datos de alta calidad  y de suministrar información extremadamente clara a sus usuarios. Cabe recalcar que sí hay  algunos usos de la IA que están prohibidos porque se considera que plantean un riesgo inaceptable. Por ejemplo, los sistemas de puntación social o social scoring que rigen el comportamiento de las personas como algunos tipos de vigilancia policial predictiva y sistemas de reconocimiento de emociones en las escuelas y en el trabajo están condenados. En otras palabras,  el sistema de puntuación social se refiere a un método “de puntuación  para determinar la reputación  de una persona o una empresa atendiendo a diversos criterios, entre ellos su activad online.”[1] Social scoring tiene la posibilidad de explotar vulnerabilidades y permite la vigilancia masiva mediante el seguimiento biomédico en tiempo real. Por eso ,el uso de escaneo policiaco de rostros en público utilizando sistemas remotos de “identificación biométrica” desarrollado por la IA es prohibido, excepto en el caso de delitos graves como el secuestro o el terrorismo. [2] Otro requisito con el cual deben de cumplir las desarrolladoras de modelos de IA, desde nuevas startups europeas a Open AI y Google, es proporcionar un resumen estrictamente detallado  del texto, video, imágenes u otros datos de internet que se usan para entrenar los sistemas y deben de cumplir con los derechos de autor. A su vez, las imágenes, audios, y videos de personas o eventos falsos articulados por la IA tendrán que ser etiquetados como “manipulados artificialmente”.

Lo que ocurre es que al igual que otras regulaciones  de la Unión Europea (UE), la Ley de IA principalmente tiene la meta de ser una legislación  para la seguridad del consumidor, favoreciendo una dirección basada en el riesgo para los productos o servicios que utilizan inteligencia artificial

Se estima que para mayo o junio de 2024 la Ley de IA sea oficialmente implementada en todo el territorio de la UE. Aún falta recibir la bendición final de los países miembros y de terminar con algunas formalidades finales. Las disposiciones iniciarán a entrar en vigor por etapas y los países tendrán que  prohibir los sistemas de IA vetados seis meses después de que las normas sean oficialmente legales. Mientras que las reglas para  los sistemas de IA de uso general como los chatbots, se aplicarán  un año después de que la ley entre en vigor. Para mediados del 2026, estará en vigor el conjunto completo de regulaciones, incluidos  los requisitos para sistemas de alto riesgo. Ahora, es importante resaltar que cada país  de la UE está encargado de crear su propio organismo de control de  IA, donde los ciudadanos tendrán la oportunidad de presentar su queja si creen que han sido víctimas de una violación de normas. Bruselas tendrá la Oficina de Inteligencia Artificial encargada de hacer cumplir y supervisar la ley para los sistemas de IA de uso general. También, se impondrán  sanciones a quienes no cumplan con las reglas y “estas van desde 1.5% de la facturación global o 7.5 millones de euros (8.2 millones de dólares), hasta 7% o 35 millones de euros (38 millones de dólares). Con 523 votos a favor, 46 en contra y 49 abstenciones los eurodiputados hicieron que el día 13  de marzo de 2024 sea una fecha histórica, demostrando que se toma en serio la regulación de sistemas de IA.

Alide Flores Urich Sass


[1] https://thedatascientistmagazine.org/privacidad-social-scoring/

[2] https://www.worldcomplianceassociation.com/4217/noticia-la-ley-de-inteligencia-artificial-de-la-ue-prohibira-los-sistemas-de-identificacion-biometrica-remota.html

Sé el primero en comentar

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *