accesskey_mod_content

Lei de Intelixencia Artificial: o Consello e o Parlamento Europeo chegan a un acordo sobre as primeiras normas para regular a IA no mundo

  • Escoitar
  • Imprimir PDF
  • Compartir

11 decembro 2023

O proxecto de regulamento ten como obxectivo garantir que os sistemas de IA comercializados no mercado europeo e utilizados na UE sexan seguros e respecten os dereitos fundamentais e os valores da UE.

Tras tres días de conversacións “maratonianas”, a presidencia do Consello e os negociadores do Parlamento Europeo han chegado a un acordo provisional sobre a proposta de normas harmonizadas sobre intelixencia artificial (IA), a chamada lei de intelixencia artificial. O borrador do regulamento ten como obxectivo garantir que os sistemas de IA comercializados no mercado europeo e utilizados na UE sexan seguros e respecten os dereitos fundamentais e os valores da UE. Esta proposta histórica tamén ten como obxectivo estimular o investimento e a innovación en IA en Europa.

A Lei de IA é unha iniciativa lexislativa emblemática co potencial de fomentar o desenvolvemento e a adopción de IA segura e confiable en todo o mercado único da UE por parte de actores públicos e privados. A idea principal é regular a IA en función da súa capacidade de causar dano á sociedade seguindo un enfoque “baseado no risco”: canto maior é o risco, máis estritas son as regras. Como primeira proposta lexislativa deste tipo no mundo, pode establecer un estándar global para a regulación da IA noutras xurisdicións, tal como fíxoo o GDPR, promovendo así o enfoque europeo da regulación tecnolóxica no escenario mundial.

Os principais elementos do acordo provisional

En comparación coa proposta inicial da Comisión Europea, os principais elementos novos do acordo provisional poden resumirse como segue:

  • Regras sobre modelos de IA de propósito xeral de alto impacto que poidan causar risco sistémico no futuro, así como sobre sistemas de IA de alto risco
  • Un sistema revisado de gobernación con algúns poderes de execución a nivel da UE
  • Ampliación da lista de prohibicione s, pero coa posibilidade de utilizar a identificación biométrica remota por parte das autoridades encargadas de facer cumprir a lei en espazos públicos, suxeito a salvaguardias.
  • Unha mellora na protección dos dereitos mediante a obriga de que quen implementen sistemas de IA de alto risco realicen unha avaliación do impacto nos dereitos fundamentais antes de pór en uso un sistema de IA.

En termos máis concretos, o acordo provisional cobre os seguintes aspectos:

Definicións e alcance

Para garantir que a definición dun sistema de IA proporcione criterios suficientemente claros para distinguir a IA dos sistemas de software máis simples, o acordo de compromiso aliña a definición co enfoque proposto polo OCDE.

O acordo provisional tamén aclara que o regulamento non se aplica a áreas fose do alcance da lexislación da UE e non debería, en ningún caso, afectar as competencias dos Estados membros en materia de seguridade nacional ou calquera entidade á que se lle confiaron tarefas nesta área. Ademais, a lei de IA non se aplicará aos sistemas que se utilicen exclusivamente con fins militares ou de defensa. De maneira similar, o acordo establece que a regulación non se aplicaría aos sistemas de IA utilizados co único fin de investigación e innovación, nin ás persoas que utilizan a IA por motivos non profesionais.

Clasificación dos sistemas de IA como prácticas prohibidas e de alto risco da IA

O acordo de compromiso prevé unha capa horizontal de protección, incluída unha clasificación de alto risco, para garantir que non se capturen os sistemas de intelixencia artificial que probablemente non causen violacións graves dos dereitos fundamentais ou outros riscos importantes. Os sistemas de IA que presenten só un risco limitado estarían suxeitos a obrigas de transparencia moi leves, por exemplo, revelar que o contido foi xerado por IA para que os usuarios poidan tomar decisións informadas sobre o seu uso posterior.

Autorizaríase unha ampla gama de sistemas de IA de alto risco, pero suxeitos a unha serie de requisitos e obrigas para acceder ao mercado da UE. Estes requisitos foron aclarados e axustados polos colegisladores de tal maneira que sexan máis viables tecnicamente e menos gravosos de cumprir para as partes interesadas, por exemplo, no que respecta á calidade dos datos ou en relación coa documentación técnica que debe ser elaborada por pemes para demostrar que os seus sistemas de IA de alto risco cumpren os requisitos.

Dado que os sistemas de IA desenvólvense e distribúen a través de cadeas de valor complexas, o acordo de compromiso inclúe cambios que aclaran a asignación de responsabilidades e roles dos diversos actores nesas cadeas, en particular os provedores e usuarios de sistemas de IA. Tamén aclara a relación entre as responsabilidades en virtude da Lei de IA e as responsabilidades que xa existen en virtude doutra lexislación, como a lexislación sectorial ou de protección de datos da UE pertinente.

Para algúns usos da IA, o risco considérase inaceptable e, por tanto, estes sistemas serán prohibidos na UE. O acordo provisional prohibe, por exemplo, a manipulación cognitivo-conductual, a eliminación non selectiva de imaxes faciais de Internet ou imaxes de CCTV, o recoñecemento de emocións no lugar de traballo e en institucións educativas, a puntuación social, a categorización biométrica para inferir datos sensibles, como a orientación sexual ou crenzas reeligiosas e algúns casos de vixilancia policial predictiva para individuos.

Excepcións de aplicación da lei

Tendo en conta as especificidades das autoridades encargadas de facer cumprir a lei e a necesidade de preservar a súa capacidade de utilizar a IA no seu traballo vital, acordáronse varios cambios na proposta da Comisión en relación co uso de sistemas de IA con fins policiais. Suxeitos ás salvaguardias adecuadas, estes cambios pretenden reflectir a necesidade de respectar a confidencialidade dos datos operativos sensibles en relación coas súas actividades. Por exemplo, introduciuse un procedemento de emerxencia que permite aos organismos encargados de facer cumprir a lei despregar en caso de urxencia unha ferramenta de intelixencia artificial de alto risco que non pasase o procedemento de avaliación da conformidade. Con todo, tamén se introduciu un mecanismo específico para garantir que os dereitos fundamentais estean suficientemente protexidos contra posibles usos indebidos dos sistemas de IA.

Ademais, no que respecta ao uso de sistemas de identificación biométrica remota en tempo real en espazos de acceso público, o acordo provisional aclara os obxectivos cando este uso sexa estritamente necesario para fins policiais e para os cales, por tanto, debe permitirse excepcionalmente ás autoridades policiais utilizar este sistemas. O acordo de compromiso prevé salvaguardias adicionais e limita estas excepcións aos casos de vítimas de certos delitos, a prevención de ameazas xenuínas, presentes ou previsibles, como ataques terroristas, e a procura de persoas sospeitosas dos delitos máis graves.

Sistemas de IA de propósito xeral e modelos básicos

Engadíronse novas disposicións para ter en conta situacións nas que os sistemas de IA poden utilizarse para moitos fins diferentes (IA de propósito xeral) e nas que a tecnoloxía de IA de propósito xeral intégrase posteriormente noutro sistema de alto risco. O acordo provisional tamén aborda os casos específicos dos sistemas de IA de propósito xeral (GPAI).

Tamén se acordaron regras específicas para os modelos básicos, grandes sistemas capaces de realizar de maneira competente unha ampla gama de tarefas distintivas, como xerar vídeo, texto, imaxes, conversar en linguaxe lateral, informática ou xerar código informático. O acordo provisional establece que os modelos de base deben cumprir con obrigas específicas de transparencia antes da súa comercialización. Introduciuse un réxime máis estrito para os modelos de fundacións de “alto impacto”. Trátase de modelos básicos adestrados cunha gran cantidade de datos e cunha complexidade, capacidades e rendemento avanzados moi por encima da media, que poden difundir riscos sistémicos ao longo da cadea de valor.

Unha nova arquitectura de gobernación

Por mor das novas normas sobre os modelos GPAI e a evidente necesidade da súa aplicación a nivel da UE, créase unha Oficina de IA dentro da Comisión encargada de supervisar estes modelos de IA máis avanzados, contribuír a fomentar estándares e prácticas de proba, e facer cumprir as normas comúns en todos os estados membros. Un panel científico de expertos independentes asesorará á Oficina de AI sobre os modelos GPAI, contribuíndo ao desenvolvemento de metodoloxías para avaliar as capacidades dos modelos de cimentos, asesorando sobre a designación e o xurdimento de modelos de cimentos de alto impacto e monitoreando posibles riscos de seguridade de materiais relacionados. a modelos de cimentación.

A Xunta de AI, que estaría composta por representantes dos Estados membros, seguirá sendo unha plataforma de coordinación e un órgano asesor da Comisión e outorgará un papel importante aos Estados membros na implementación do regulamento, incluído o deseño de códigos de prácticas para modelos de fundación. Por último, crearase un foro consultivo para as partes interesadas, como representantes da industria, as pemes, as empresas emerxentes, a sociedade civil e o mundo académico, para proporcionar os coñecementos técnicos á Xunta de IA.

Penalizacións

As multas por violacións da lei de IA establecéronse como unha porcentaxe da facturación anual global da empresa infractora no ano financeiro anterior ou unha cantidade predeterminada, o que fose maior. Unha cifra que representaría 35 millóns de euros ou o 7% por violacións das aplicacións de IA prohibidas, 15 millóns de euros ou o 3% por violacións das obrigas da lei de IA e 7,5 millóns de euros ou o 1,5% pola subministración de información incorrecta. Con todo, o acordo provisional establece límites máis proporcionados ás multas administrativas para as pemes e as empresas de nova creación en caso de infracción das disposicións da Lei de IA.

O acordo de transacción tamén deixa claro que unha persoa física ou xurídica pode presentar unha queixa ante a autoridade de vixilancia do mercado pertinente en relación co incumprimento da Lei de IA e pode esperar que dita queixa tramítese de acordo con os procedementos específicos desa autoridade.

Transparencia e protección dos dereitos fundamentais

O acordo provisional prevé unha avaliación do impacto sobre os dereitos fundamentais antes de que os seus implementadores poñan no mercado un sistema de intelixencia artificial de alto risco. O acordo provisional tamén prevé unha maior transparencia con respecto ao uso de sistemas de intelixencia artificial de alto risco. En particular, modificáronse algunhas disposicións da proposta da Comisión para indicar que certos usuarios dun sistema de IA de alto risco que sexan entidades públicas tamén estarán obrigados a rexistrarse na base de datos da UE para sistemas de IA de alto risco. Ademais, as disposicións recentemente engadidas fan fincapé na obriga de que os usuarios dun sistema de recoñecemento de emocións informen as persoas físicas cando estean expostas ao este sistema.

Medidas de apoio á innovación

Con vistas a crear un marco xurídico máis favorable á innovación e promover a aprendizaxe normativa baseado en probas, as disposicións relativas ás medidas de apoio á innovación modificáronse substancialmente en comparación coa proposta da Comisión.

En particular, aclarouse que as contornas limitadas de probas regulatorias de IA, que se supón deben establecer unha contorna controlada para o desenvolvemento, proba e validación de sistemas de IA innovadores, tamén deberían permitir probar sistemas de IA innovadores en condicións do mundo real. Ademais, agregáronse novas disposicións que permiten probar sistemas de IA en condicións do mundo real, baixo condicións e salvaguardias específicas. Para aliviar a carga administrativa para as empresas máis pequenas, o acordo provisional inclúe unha lista de accións que deben emprenderse para apoiar aos este operadores e prevé algunhas derrogacións limitadas e claramente especificadas. 

Entrada en vigor

O acordo provisional establece que a lei sobre IA debería aplicarse dous anos despois da súa entrada en vigor, con algunhas excepcións para disposicións específicas.

Próximos pasos

Tras o sinatura do acordo provisional, nas próximas semanas seguirase traballando a nivel técnico para ultimar os detalles do novo regulamento. A Presidencia presentará o texto transaccional aos representantes dos Estados membros (Coreper) para a súa aprobación unha vez concluído este traballo.

O texto completo deberá ser confirmado por ambas as institucións e sometido a unha revisión xurídico-lingüística antes da súa adopción formal polos colegisladores.

Información de contexto

A proposta da Comisión, presentada en abril de 2021, é un elemento crave da política da UE para fomentar o desenvolvemento e a adopción en todo o mercado único dunha IA segura e legal que respecte os dereitos fundamentais.

A proposta segue un enfoque baseado no risco e establece un marco xurídico uniforme e horizontal para a IA cuxo obxectivo é garantir a seguridade xurídica. O borrador do regulamento ten como obxectivo promover o investimento e a innovación en IA, mellorar a gobernación e a aplicación efectiva da lexislación existente sobre dereitos fundamentais e seguridade, e facilitar o desenvolvemento dun mercado único para as aplicacións de IA. Vai da man xunto a outras iniciativas, incluído o plan coordinado sobre intelixencia artificial que ten como obxectivo acelerar o investimento en IA en Europa.

O 6 de decembro de 2022, o Consello alcanzou un acordo sobre unha orientación xeral (mandato de negociación) sobre este expediente e estableceu conversacións interinstitucionales co Parlamento Europeo («diálogos tripartitos») a mediados de xuño de 2023.

Fonte orixinal da noticia(Abre en nova xanela)

  • Cooperación interadministrativa
  • Intelixencia Artificial e Blockchain