accesskey_mod_content

Entrada en vigor de la Ley Europea de Inteligencia Artificial

  • Escuchar
  • Imprimir PDF
  • Compartir

02 agosto 2024

Ayer entró en vigor la Ley Europea de Inteligencia Artificial, el primer Reglamento global sobre inteligencia artificial del mundo. La Ley de IA está diseñada para garantizar que la IA desarrollada y utilizada en la UE sea fiable y que proteja los derechos fundamentales de las personas.

El Reglamento tiene por objeto establecer un mercado interior armonizado para la IA en la UE, fomentando la adopción de esta tecnología y creando un entorno propicio para la innovación y la inversión.

La Ley Europea de Inteligencia Artificial (Ley de IA) introduce una definición prospectiva de IA, basada en la seguridad de los productos y en un enfoque basado en el riesgo en la UE:

  • Riesgo mínimo: La mayoría de los sistemas de IA, como los sistemas de recomendación basados en IA y los filtros de correo no deseado, entran en esta categoría. Estos sistemas no se enfrentan a obligaciones en virtud de la Ley de IA debido a su riesgo mínimo para los derechos y la seguridad de los ciudadanos. Las empresas pueden adoptar voluntariamente códigos de conducta adicionales.
  • Riesgo específico de transparencia: Los sistemas de IA, como los chatbots, deben revelar claramente a los usuarios que están interactuando con una máquina. Determinados contenidos generados por IA, incluidas las ultrafalsificaciones, deben etiquetarse como tales, y los usuarios deben ser informados cuando se utilicen sistemas de categorización biométrica o reconocimiento de emociones. Además, los proveedores tendrán que diseñar sistemas de manera que los contenidos sintéticos de audio, vídeo, texto e imágenes estén marcados en un formato legible por máquina y detectables como generados o manipulados artificialmente.
  • Riesgo alto: Los sistemas deIA considerados de alto riesgo estarán obligados a cumplir requisitos estrictos, incluidos los sistemas de reducción del riesgo, la alta calidad de los conjuntos de datos, el registro de la actividad, la documentación detallada, una información clara para el usuario, la supervisión humana y un alto nivel de solidez, precisión y ciberseguridad. Los espacios controlados de pruebas facilitarán la innovación responsable y el desarrollo de sistemas de IA conformes. Estos sistemas de IA de alto riesgo incluyen, por ejemplo, los sistemas de IA utilizados para la contratación o para evaluar si alguien tiene derecho a obtener un préstamo o a gestionar robots autónomos.
  • Riesgo inaceptable: Se prohibirán los sistemas deIA que se consideren una clara amenaza para los derechos fundamentales de las personas. Esto incluye los sistemas o aplicaciones de IA que manipulan el comportamiento humano para eludir la libre voluntad de los usuarios, como los juguetes que utilizan asistencia vocal que fomentan el comportamiento peligroso de los menores, los sistemas que permiten la «puntuación social» por parte de gobiernos o empresas, y determinadas aplicaciones de la actuación policial predictiva. Además, se prohibirán algunos usos de sistemas biométricos, por ejemplo, los sistemas de reconocimiento de emociones utilizados en el lugar de trabajo y algunos sistemas para categorizar a las personas o la identificación biométrica remota en tiempo real con fines policiales en espacios de acceso público (con limitadas excepciones).

Para complementar este sistema, la Ley de IA también introduce normas para los denominados modelos de IA de uso general, que son modelos de IA de gran capacidad diseñados para llevar a cabo una amplia variedad de tareas, como la generación de textos similares a los humanos. Los modelos de IA de uso general se utilizan cada vez más como componentes de aplicaciones de IA. La Ley de IA garantizará la transparencia a lo largo de la cadena de valor y abordará los posibles riesgos sistémicos de los modelos más capaces.

Aplicación y ejecución de las normas de IA

Los Estados miembros tienen de plazo hasta el 2 de agosto de 2025 para designar a las autoridades nacionales competentes, que supervisarán la aplicación de las normas aplicables a los sistemas de IA y llevarán a cabo actividades de vigilancia del mercado. La  Oficina de IA  de la Comisión será el principal organismo de aplicación de la Ley de IA a escala de la UE, así como la autoridad responsable de la aplicación de las normas relativas a los modelos de IA de uso general.

Tres órganos consultivos apoyarán la aplicación de las normas. El Comité Europeo de Inteligencia Artificial garantizará una aplicación uniforme de la Ley de IA en todos los Estados miembros de la UE y actuará como principal órgano de cooperación entre la Comisión y los Estados miembros. Un grupo científico de expertos independientes ofrecerá asesoramiento técnico y aportaciones sobre la aplicación de la normativa. En particular, este panel puede emitir alertas a la Oficina de IA sobre los riesgos asociados a los modelos de IA de uso general. La Oficina de IA también puede recibir orientación de un foro consultivo compuesto por un conjunto diverso de partes interesadas.

Se impondrá una multa a las empresas que no cumplan las normas. Las multas podrían ascender hasta el 7 % del volumen de negocios anual mundial por infracciones de aplicaciones prohibidas de IA, hasta el 3 % por incumplimiento de otras obligaciones y hasta el 1,5 % por el suministro de información incorrecta.

Etapas siguientes

La mayoría de las normas de la Ley de IA empezarán a aplicarse el 2 de agosto de 2026. Sin embargo, las prohibiciones de los sistemas de IA que se considere que presentan un riesgo inaceptable se aplicarán ya al cabo de seis meses, mientras que las normas para los denominados modelos de IA de uso general se aplicarán al cabo de 12 meses.

Para superar el período transitorio antes de su plena aplicación, la Comisión ha puesto en marcha el  Pacto sobre la IA . Esta iniciativa invita a los desarrolladores de IA a adoptar voluntariamente las obligaciones clave de la Ley de IA antes de los plazos legales. 

La Comisión también está elaborando directrices para definir y detallar cómo debe aplicarse la Ley de Inteligencia Artificial y facilitar instrumentos de corregulación como normas y códigos de prácticas. La Comisión abrió  una convocatoria de manifestaciones de interés para  participar en la elaboración del primer Código de buenas prácticas para la IA de uso general, así como una  consulta multilateral  que brindó a todas las partes interesadas la oportunidad de expresar su opinión sobre el primer Código de buenas prácticas en virtud de la Ley de IA.

Antecedentes

El 9 de diciembre de 2023, la  Comisión acogió con satisfacción el acuerdo político  sobre la Ley de IA. El 24 de enero de 2024 , la Comisión puso en marcha un paquete de medidas  para apoyar a las empresas emergentes y a las pymes europeas en el desarrollo de una IA fiable. El 29 de mayo de 2024, la Comisión  dio a conocer la Oficina de IA . El 9 de julio de 2024  entró en vigor el Reglamento de la Empresa Común EuroHPC modificado , lo que permite la creación de fábricas de IA. Esto permite el uso de superordenadores de IA específicos para el entrenamiento de modelos de IA de uso general (GPAI).

La continua investigación independiente y basada en datos contrastados  realizada por el Centro Común de Investigación (JRC)  ha sido fundamental para configurar las políticas de la UE en materia de IA y garantizar su aplicación efectiva.

Para más información

Fuente original de la noticia(Abre en nueva ventana)

  • Inteligencia Artificial y Blockchain