accesskey_mod_content

A Eurocámara aproba unha lei histórica para regular a intelixencia artificial

  • Escoitar
  • Copiar
  • Imprimir PDF
  • Compartir

14 marzo 2024

O Parlamento aprobou o mércores a Lei de Intelixencia Artificial, que garante a seguridade e o respecto dos dereitos fundamentais á vez que impulsa a innovación.

O Regulamento,  acordado nas negociacións cos Estados membros en decembro de 2023(Abre en nova xanela) , foi apoiado pola Eurocámara con 523 votos a favor, 46 en contra e 49 abstencións.

O seu obxectivo é protexer os dereitos fundamentais, a democracia, o Estado de dereito e a sustentabilidade ambiental fronte á IA que entraña un alto risco, impulsando ao mesmo tempo a innovación e erixindo a Europa en líder do sector. O Regulamento fixa unha serie de obrigas para a IA en función dos seus riscos potenciais e o seu nivel de impacto.

Aplicacións prohibidas

As novas normas prohiben certas aplicacións de intelixencia artificial que atentan contra os dereitos da cidadanía, como os sistemas de categorización biométrica baseados en características sensibles e a captura indiscriminada de imaxes faciais de internet ou gravacións de cámaras de vixilancia para crear bases de datos de recoñecemento facial. Tamén se prohibirán o recoñecemento de emocións no lugar de traballo e nas escolas, os sistemas de puntuación cidadá, a actuación policial predictiva (cando se base unicamente no perfil dunha persoa ou na avaliación das súas características) e a IA que manipule o comportamento humano ou explote as vulnerabilidades das persoas.

Exencións das forzas de seguridade

O uso de sistemas de identificación biométrica por parte das forzas de seguridade queda prohibido a priori, salvo en situacións moi concretas e ben definidas. Os sistemas de identificación biométrica «en tempo real» só poderanse empregar se se cumpren unha serie de salvaguardias estritas; por exemplo, o seu uso limítase a un período e lugar específicos e conta cunha autorización xudicial ou administrativa previa. Entre estes casos poden figurar a procura selectiva dunha persoa desaparecida ou a prevención dun atentado terrorista. Recorrer a estes sistemas a posteriori considérase un uso de alto risco, que require autorización xudicial ao estar vinculado a un delito penal.

Obrigas para os sistemas de alto risco

Tamén se prevén obrigas claras para outros sistemas de IA de alto risco (debido a que poden ser moi prexudiciais para a saúde, a seguridade, os dereitos fundamentais, o medio ambiente, a democracia e o Estado de dereito). Algúns exemplos de usos de alto risco da IA son as infraestruturas críticas, a educación e a formación profesional, o emprego, os servizos públicos e privados esenciais (por exemplo, a sanidade ou a banca), determinados sistemas das forzas de seguridade, a migración e a xestión aduaneira, a xustiza e os procesos democráticos (como influír nas eleccións). Estes sistemas deben avaliar e reducir os riscos, manter rexistros de uso, ser transparentes e precisos e contar con supervisión humana. Os cidadáns e cidadás terán dereito a presentar reclamacións sobre os sistemas de IA e a recibir explicacións sobre as decisións baseadas neles que afecten os seus dereitos.

Requisitos de transparencia

Os sistemas de IA de uso xeral e os modelos nos que se basean deben cumprir certos requisitos de transparencia, respectar a lexislación da UE sobre dereitos de autor e publicar resumos detallados do contido usado para adestrar os seus modelos. Os modelos máis potentes que poderían expor riscos sistémicos deberán cumprir requisitos adicionais, como realizar avaliacións dos modelos, analizar e mitigar os riscos sistémicos e informar os incidentes.

Ademais, as imaxes, contidos de audio ou de vídeo artificiais ou manipulados («ultrafalsificaciones») deberán etiquetarse claramente como tales.

Medidas de apoio á innovación e ás pemes

Haberá que pór a disposición das pemes e das empresas emerxentes espazos controlados de probas e ensaios en condicións reais a nivel nacional para que poidan desenvolver e adestrar a IA innovadora antes da súa comercialización.

Próximos pasos

O Regulamento aínda está suxeito a unha última comprobación xurídica-lingüística. A súa aprobación definitiva (mediante o chamado procedemento de corrección corrección de erros(Abre en nova xanela) ) está prevista para antes do final da lexislatura. A lei tamén debe ser adoptada formalmente polo Consello.

Entrará en vigor vinte días despois da súa publicación en o Diario Oficial e será de plena aplicación vinte e catro meses despois da súa entrada en vigor, con excepción de: as prohibicións de prácticas (aplicaranse seis meses despois da data de entrada en vigor); os códigos de boas prácticas (nove meses despois); as normas sobre a IA de uso xeral, incluída a gobernación (doce meses despois), e as obrigas para os sistemas de alto risco (trinta e seis meses despois).

Conferencia sobre o Futuro de Europa

A Lei de Intelixencia Artificial responde directamente as propostas dos cidadáns de a  Conferencia sobre o Futuro de Europa(Abre en nova xanela) , máis concretamente á proposta 12(10), relativa á mellora da competitividade da UE en sectores estratéxicos, a proposta 33(5), sobre unha sociedade segura e fiable, incluída a loita contra a desinformación e a garantía de que as persoas teñan o control final, a proposta 35 sobre a promoción da innovación dixital, (3) a garantía da supervisión humana e (8) un uso fiable e responsable da IA, o establecemento de salvaguardias e a garantía de transparencia, e a proposta 37(3), sobre o uso da IA e as ferramentas dixitais para mellorar o acceso dos cidadáns á información, incluídas as persoas con discapacidade.

Texto aprobado(Abre en nova xanela)

Fonte orixinal da noticia(Abre en nova xanela)

  • Intelixencia Artificial e Blockchain
  • Información e datos do sector público