accesskey_mod_content

El Consejo da luz verde definitiva a las primeras normas globales sobre la IA

  • Escuchar
  • Imprimir PDF
  • Compartir

22 mayo 2024

Este paquete legislativo sigue un enfoque 'basado en el riesgo', lo que significa que cuanto mayor es el riesgo de causar daño a la sociedad, más estrictas son las normas.

El Consejo aprobó ayer, 20 de mayo, una ley innovadora destinada a armonizar las normas sobre inteligencia artificial, la llamada ley sobre inteligencia artificial. La legislación emblemática sigue un enfoque "basado en el riesgo", lo que significa que cuanto mayor es el riesgo de causar daño a la sociedad, más estrictas son las normas . Es el primero de su tipo en el mundo y puede establecer un estándar global para la regulación de la IA. 

La nueva ley tiene como objetivo fomentar el desarrollo y la adopción de sistemas de IA seguros y confiables en todo el mercado único de la UE por parte de actores públicos y privados. Al mismo tiempo, pretende garantizar el respeto de los derechos fundamentales de los ciudadanos de la UE y estimular la inversión y la innovación en inteligencia artificial en Europa. La ley de IA se aplica sólo a áreas dentro de la legislación de la UE y proporciona exenciones, como por ejemplo para sistemas utilizados exclusivamente con fines militares y de defensa, así como con fines de investigación.

La nueva ley clasifica diferentes tipos de inteligencia artificial según el riesgo. Los sistemas de IA que presenten solo un riesgo limitado estarían sujetos a obligaciones de transparencia muy leves, mientras que los sistemas de IA de alto riesgo estarían autorizados, pero sujetos a un conjunto de requisitos y obligaciones para obtener acceso al mercado de la UE. Los sistemas de inteligencia artificial como, por ejemplo, la manipulación cognitivo-conductual y la puntuación social, serán prohibidos en la UE porque su riesgo se considera inaceptable. La ley también prohíbe el uso de IA para vigilancia policial predictiva basada en perfiles y sistemas que utilizan datos biométricos para clasificar a las personas según categorías específicas como raza, religión u orientación sexual. 

Modelos de IA de propósito general

La ley de IA también aborda el uso de modelos de IA de propósito general (GPAI). Los modelos GPAI que no presenten riesgos sistémicos estarán sujetos a algunos requisitos limitados, por ejemplo con respecto a la transparencia, pero aquellos con riesgos sistémicos tendrán que cumplir con reglas más estrictas. 

Una nueva arquitectura de gobernanza

Para garantizar una aplicación adecuada, se crean varios órganos de gobierno:

  • Una Oficina de IA dentro de la Comisión para hacer cumplir las normas comunes en toda la UE
  • Un  panel científico de expertos independientes  para apoyar las actividades de aplicación de la ley.
  • Una Junta de AI con representantes de los estados miembros para asesorar y ayudar a la Comisión y a los estados miembros en la aplicación consistente y efectiva de la Ley de AI.
  • Un foro consultivo para que las partes interesadas proporcionen conocimientos técnicos a la Junta de IA y a la Comisión. 

Penalizaciones

Las multas por infracciones de la ley de IA se fijan como un porcentaje del volumen de negocios anual global de la empresa infractora en el ejercicio financiero anterior o una cantidad predeterminada, lo que sea mayor. Las pymes y las empresas de nueva creación están sujetas a multas administrativas proporcionales. 

Transparencia y protección de los derechos fundamentales

Antes de que algunas entidades que prestan servicios públicos implementen un sistema de IA de alto riesgo, será necesario evaluar el impacto sobre los derechos fundamentales. El reglamento también prevé una mayor transparencia con respecto al desarrollo y uso de sistemas de inteligencia artificial de alto riesgo. Los sistemas de IA de alto riesgo, así como ciertos usuarios de un sistema de IA de alto riesgo que sean entidades públicas, deberán estar registrados en la base de datos de la UE para sistemas de IA de alto riesgo, y los usuarios de un sistema de reconocimiento de emociones tendrán que informar a las personas naturales. personas cuando están expuestas a dicho sistema.

Medidas de apoyo a la innovación

La Ley de IA proporciona un marco legal favorable a la innovación y tiene como objetivo promover el aprendizaje regulatorio basado en evidencia. La nueva ley prevé que los entornos de pruebas regulatorios de IA, que permiten un entorno controlado para el desarrollo, prueba y validación de sistemas de IA innovadores, también deberían permitir probar sistemas de IA innovadores en condiciones del mundo real. 

Próximos pasos

Tras ser firmado por los presidentes del Parlamento Europeo y del Consejo, el acto legislativo se publicará en el Diario Oficial de la UE en los próximos días y entrará en vigor veinte días después de esta publicación. El nuevo reglamento se aplicará dos años después de su entrada en vigor, con algunas excepciones para disposiciones específicas. 

Fondo

La Ley de IA es un elemento clave de la política de la UE para fomentar el desarrollo y la adopción en todo el mercado único de una IA segura y legal que respete los derechos fundamentales. La Comisión (Thierry Breton, comisario de Mercado Interior) presentó la propuesta de ley sobre IA en abril de 2021. Brando Benifei (S&D/IT) y Drago ş Tudorache (Renew Europe/RO) fueron los ponentes del Parlamento Europeo sobre este expediente y un provisional El acuerdo entre los colegisladores se alcanzó el 8 de diciembre de 2023.

Fuente original de la noticia(Abre en nueva ventana)

  • Inteligencia Artificial y Blockchain