accesskey_mod_content

Llei d'Intel·ligència Artificial: el Consell i el Parlament Europeu arriben a un acord sobre les primeres normes per regular la IA al món

  • Escoltar
  • Imprimir PDF
  • Compartir

11 desembre 2023

El projecte de reglament té com a objectiu garantir que els sistemes de IA comercialitzats al mercat europeu i utilitzats en la UE siguin segurs/segurs i respectin els drets fonamentals i els valors de la UE.

Després de tres dies de converses “maratonianas”, la presidència del Consell i els negociadors del Parlament Europeu han arribat a un acord provisional sobre la proposta de normes harmonitzades sobre intel·ligència artificial (IA), l'anomenada llei d'intel·ligència artificial. L'esborrany del reglament té com a objectiu garantir que els sistemes de IA comercialitzats al mercat europeu i utilitzats en la UE siguin segurs/segurs i respectin els drets fonamentals i els valors de la UE. Aquesta proposta històrica també té com a objectiu estimular la inversió i la innovació en IA a Europa.

La Llei de IA és una iniciativa legislativa emblemàtica amb el potencial de fomentar el desenvolupament i l'adopció de IA segura/segura i segura/segura en tot el mercat únic de la UE per part d'actors públics i privats. La idea principal és regular la IA en funció de la seva capacitat de causar dany a la societat seguint un enfocament “basat en el risc”: com més gran és el risc, més estrictes són les regles. Com a primera proposta legislativa d'aquest tipus al món, pot establir un estàndard global per a la regulació de la IA en altres jurisdiccions, tal com ho ha fet el GDPR, promovent així l'enfocament europeu de la regulació tecnològica en l'escenari mundial.

Els principals elements de l'acord provisional

En comparació de la proposta inicial de la Comissió Europea, els principals elements nous de l'acord provisional poden resumir-se com segueix:

  • Regles sobre models de IA de propòsit general d'alt impacte que puguin causar risc sistèmic en el futur, així com sobre sistemes de IA d'alt risc
  • Un sistema revisat de governança amb alguns poders d'execució a nivell de la UE
  • Ampliació de la llista de prohibiciones, però amb la possibilitat d'utilitzar la identificació biomètrica remota per part de les autoritats encarregades de fer complir la llei en espais públics, subjecte a salvaguardias.
  • Una millora en la protecció dels drets mitjançant l'obligació que els qui implementin sistemes de IA d'alt risc realitzin una avaluació de l'impacte en els drets fonamentals abans de posar en ús un sistema de IA.

En termes més concrets, l'acord provisional cobreix els següents aspectes:

Definicions i abast

Per garantir que la definició d'un sistema de IA proporcioni criteris suficientment clars per distingir la IA dels sistemes de programari més simples, l'acord de compromís alinea la definició amb l'enfocament proposat per l'OCDE.

L'acord provisional també aclareix que el reglament no s'aplica a àrees fora de l'abast de la legislació de la UE i no hauria de, en cap cas, afectar les competències dels Estats membres en matèria de seguretat nacional o qualsevol entitat a la qual se li hagin confiat tasques en aquesta àrea. A més, la llei de IA no s'aplicarà als sistemes que s'utilitzin exclusivament amb finalitats militars o de defensa. De manera similar, l'acord estableix que la regulació no s'aplicaria als sistemes de IA utilitzats amb l'única fi de recerca i innovació, ni a les persones que utilitzen la IA per motius no professionals.

Classificació dels sistemes de IA com a pràctiques prohibides i d'alt risc de la IA

L'acord de compromís preveu una capa horitzontal de protecció, inclosa una classificació d'alt risc, per garantir que no es capturin els sistemes d'intel·ligència artificial que probablement no causin violacions greus dels drets fonamentals o altres riscos importants. Els sistemes de IA que presentin solament un risc limitat estarien subjectes a obligacions de transparència molt lleus, per exemple, revelar que el contingut va ser generat per IA perquè els usuaris puguin prendre decisions informades sobre el seu ús posterior.

S'autoritzaria una àmplia gamma de sistemes de IA d'alt risc, però subjectes a una sèrie de requisits i obligacions per accedir al mercat de la UE. Aquests requisits han estat aclarits i ajustats pels colegisladores de tal manera que siguin més viables tècnicament i menys onerosos de complir per a les parts interessades, per exemple, pel que fa a la qualitat de les dades o en relació amb la documentació tècnica que ha de ser elaborada per pimes per demostrar que els seus sistemes de IA d'alt risc compleixen els requisits.

Atès que els sistemes de IA es desenvolupen i distribueixen a través de cadenes de valor complexes, l'acord de compromís inclou canvis que aclareixen l'assignació de responsabilitats i rols dels diversos actors en aquestes cadenes, en particular els proveïdors i usuaris de sistemes de IA. També aclareix la relació entre les responsabilitats en virtut de la Llei de IA i les responsabilitats que ja existeixen en virtut d'una altra legislació, com la legislació sectorial o de protecció de dades de la UE pertinent.

Per a alguns usos de la IA, el risc es considera inacceptable i, per tant, aquests sistemes seran prohibits en la UE. L'acord provisional prohibeix, per exemple, la manipulació cognitiu-conductual, l'eliminació no selectiva d'imatges facials d'Internet o imatges de CCTV, el reconeixement d'emocions en el lloc de treball i en institucions educatives, la puntuació social, la categorització biomètrica per inferir dades sensibles, com l'orientació sexual o creences reeligiosas i alguns casos de vigilància policial predictiva per a individus.

Excepcions d'aplicació de la llei

Tenint en compte les especificitats de les autoritats encarregades de fer complir la llei i la necessitat de preservar la seva capacitat d'utilitzar la IA en el seu treball vital, es van acordar diversos canvis en la proposta de la Comissió en relació amb l'ús de sistemes de IA amb finalitats policials. Subjectes a les salvaguardias adequades, aquests canvis pretenen reflectir la necessitat de respectar la confidencialitat de les dades operatives sensibles en relació amb les seves activitats. Per exemple, s'ha introduït un procediment d'emergència que permet als organismes encarregats de fer complir la llei desplegar en cas d'urgència una eina d'intel·ligència artificial d'alt risc que no hagi passat el procediment d'avaluació de la conformitat. No obstant això, també s'ha introduït un mecanisme específic per garantir que els drets fonamentals estiguin suficientment protegits contra possibles usos indeguts dels sistemes de IA.

A més, pel que fa a l'ús de sistemes d'identificació biomètrica remota en temps real en espais d'accés públic, l'acord provisional aclareix els objectius quan aquest ús sigui estrictament necessari per a finalitats policials i pels quals, per tant, ha de permetre's excepcionalment a les autoritats policials utilitzar aquests sistemes. L'acord de compromís preveu salvaguardias addicionals i limita aquestes excepcions als casos de víctimes de certs delictes, la prevenció d'amenaces genuïnes, presents o previsibles, com a atacs terroristes, i la cerca de persones sospitoses dels delictes més greus.

Sistemes de IA de propòsit general i models bàsics

S'han afegit noves disposicions per tenir en compte situacions en les quals els sistemes de IA poden utilitzar-se per a moltes finalitats diferents (IA de propòsit general) i en les quals la tecnologia de IA de propòsit general s'integra posteriorment en un altre sistema d'alt risc. L'acord provisional també aborda els casos específics dels sistemes de IA de propòsit general (GPAI).

També s'han acordat regles específiques per als models bàsics, grans sistemes capaços de realitzar de manera competent una àmplia gamma de tasques distintives, com generar vídeo, text, imatges, conversar en llenguatge lateral, informàtica o generar codi informàtic. L'acord provisional estableix que els models de base han de complir amb obligacions específiques de transparència abans de la seva comercialització. Es va introduir un règim més estricte per als models de fundacions de “alt impacte”. Es tracta de models bàsics entrenats amb una gran quantitat de dades i amb una complexitat, capacitats i rendiment avançats molt per sobre de la mitjana, que poden difondre riscos sistèmics al llarg de la cadena de valor.

Una nova arquitectura de governança

Arran de les noves normes sobre els models GPAI i l'evident necessitat de la seva aplicació a nivell de la UE, es crea una Oficina de IA dins de la Comissió encarregada de supervisar aquests models de IA més avançats, contribuir a fomentar estàndards i pràctiques de prova, i fer complir les normes comunes en tots els estats membres. Un panell científic d'experts independents assessorarà a l'Oficina d'AI sobre els models GPAI, contribuint al desenvolupament de metodologies per avaluar les capacitats dels models de fonaments, assessorant sobre la designació i el sorgiment de models de fonaments d'alt impacte i monitoreando possibles riscos de seguretat de materials relacionats. a models de fonamentació.

La Junta d'AI, que estaria composta per representants dels Estats membres, seguirà sent una plataforma de coordinació i un òrgan assessor de la Comissió i atorgarà un paper important als Estats membres en la implementació del reglament, inclòs el disseny de codis de pràctiques per a models de fundació. Finalment, es crearà un fòrum consultiu per a les parts interessades, com a representants de la indústria, les pimes, les empreses emergents, la societat civil i el món acadèmic, per proporcionar els coneixements tècnics a la Junta de IA.

Penalitzacions

Les multes per violacions de la llei de IA es van establir com un percentatge de la facturació anual global de l'empresa infractora l'any financer anterior o una quantitat predeterminada, el que fos major. Una xifra que representaria 35 milions d'euros o el 7% per violacions de les aplicacions de IA prohibides, 15 milions d'euros o el 3% per violacions de les obligacions de la llei de IA i 7,5 milions d'euros o l'1,5% pel subministrament d'informació incorrecta. No obstant això, l'acord provisional estableix límits més proporcionats a les multes administratives per a les pimes i les empreses de nova creació en cas d'infracció de les disposicions de la Llei de IA.

L'acord de transacció també deixa clar que una persona física o jurídica pot presentar una queixa davant l'autoritat de vigilància del mercat pertinent en relació amb l'incompliment de la Llei de IA i pot esperar que aquesta queixa es tramiti d'acord amb els procediments específics d'aquesta autoritat.

Transparència i protecció dels drets fonamentals

L'acord provisional preveu una avaluació de l'impacte sobre els drets fonamentals abans que els seus implementadores posin al mercat un sistema d'intel·ligència artificial d'alt risc. L'acord provisional també preveu una major transparència pel que fa a l'ús de sistemes d'intel·ligència artificial d'alt risc. En particular, s'han modificat algunes disposicions de la proposta de la Comissió per indicar que certs usuaris d'un sistema de IA d'alt risc que siguin entitats públiques també estaran obligats a registrar-se en la base de dades de la UE per a sistemes de IA d'alt risc. A més, les disposicions recentment afegides posen l'accent en l'obligació que els usuaris d'un sistema de reconeixement d'emocions informin a les persones físiques quan estiguin exposades a aquest sistema.

Mesures de suport a la innovació

Amb vista a crear un marc jurídic més favorable a la innovació i promoure l'aprenentatge normatiu basat en proves, les disposicions relatives a les mesures de suport a la innovació s'han modificat substancialment en comparació de la proposta de la Comissió.

En particular, s'ha aclarit que els entorns limitats de proves regulatòries de IA, que se suposa han d'establir un entorn controlat per al desenvolupament, prova i validació de sistemes de IA innovadors, també haurien de permetre provar sistemes de IA innovadors en condicions del món real. A més, s'han agregat noves disposicions que permeten provar sistemes de IA en condicions del món real, sota condicions i salvaguardias específiques. Per alleujar la càrrega administrativa per a les empreses més petites, l'acord provisional inclou una llista d'accions que han d'emprendre's per recolzar a aquests operadors i preveu algunes derogacions limitades i clarament especificades. 

Entrada en vigor

L'acord provisional estableix que la llei sobre IA hauria d'aplicar-se dos anys després de la seva entrada en vigor, amb algunes excepcions per a disposicions específiques.

Propers passos

Després de la signatura de l'acord provisional, en les properes setmanes se seguirà treballant a nivell tècnic per ultimar els detalls del nou reglament. La Presidència presentarà el text transaccional als representants dels Estats membres (Coreper) per a la seva aprovació una vegada conclòs aquest treball.

El text complet haurà de ser confirmat per ambdues institucions i sotmès a una revisió jurídic-lingüística abans de la seva adopció formal pels colegisladores.

Informació de context

La proposta de la Comissió, presentada a l'abril de 2021, és un element clau de la política de la UE per fomentar el desenvolupament i l'adopció en tot el mercat únic d'una IA segura/segura i legal que respecti els drets fonamentals.

La proposta segueix un enfocament basat en el risc i estableix un marc jurídic uniforme i horitzontal per la IA que el seu objectiu és garantir la seguretat jurídica. L'esborrany del reglament té com a objectiu promoure la inversió i la innovació en IA, millorar la governança i l'aplicació efectiva de la legislació existent sobre drets fonamentals i seguretat, i facilitar el desenvolupament d'un mercat únic per a les aplicacions de IA. Va de la mà al costat d'altres iniciatives, inclòs el pla coordinat sobre intel·ligència artificial que té com a objectiu accelerar la inversió en IA a Europa.

El 6 de desembre de 2022, el Consell va aconseguir un acord sobre una orientació general (mandat de negociació) sobre aquest expedient i va entaular converses interinstitucionals amb el Parlament Europeu («diàlegs tripartits») a mitjan juny de 2023.

Font original de la notícia(Obre en nova finestra)

  • Cooperació interadministrativa
  • Intel·ligència Artificial i Blockchain