accesskey_mod_content

Llei d'Intel·ligència Artificial: el Consell i el Parlament Europeu arriben a un acord sobre les primeres normes per a regular la IA en el món

  • Escoltar
  • Imprimir PDF
  • Compartir

11 desembre 2023

El projecte de reglament té com a objectiu garantir que els sistemes de IA comercialitzats en el mercat europeu i utilitzats en la UE siguen segurs i respecten els drets fonamentals i els valors de la UE.

Després de tres dies de converses “maratonianas”, la presidència del Consell i els negociadors del Parlament Europeu han arribat a un acord provisional sobre la proposta de normes harmonitzades sobre intel·ligència artificial (IA), l'anomenada llei d'intel·ligència artificial. L'esborrany del reglament té com a objectiu garantir que els sistemes de IA comercialitzats en el mercat europeu i utilitzats en la UE siguen segurs i respecten els drets fonamentals i els valors de la UE. Esta proposta històrica també té com a objectiu estimular la inversió i la innovació en IA a Europa.

La Llei de IA és una iniciativa legislativa emblemàtica amb el potencial de fomentar el desenvolupament i l'adopció de IA segura i confiable en tot el mercat únic de la UE per part d'actors públics i privats. La idea principal és regular la IA en funció de la seua capacitat de causar dany a la societat seguint un enfocament “basat en el risc”: com més gran és el risc, més estrictes són les regles. Com a primera proposta legislativa d'este tipus en el món, pot establir un estàndard global per a la regulació de la IA en altres jurisdiccions, tal com ho ha fet el GDPR, promovent així l'enfocament europeu de la regulació tecnològica en l'escenari mundial.

Els principals elements de l'acord provisional

En comparació de la proposta inicial de la Comissió Europea, els principals elements nous de l'acord provisional poden resumir-se com seguix:

  • Regles sobre models de IA de propòsit general d'alt impacte que puguen causar risc sistèmic en el futur, així com sobre sistemes de IA d'alt risc
  • Un sistema revisat de governança amb alguns poders d'execució a nivell de la UE
  • Ampliació de la llista de prohibiciones, però amb la possibilitat d'utilitzar la identificació biomètrica remota per part de les autoritats encarregades de fer complir la llei en espais públics, subjecte a salvaguardias.
  • Una millora en la protecció dels drets mitjançant l'obligació que els qui implementen sistemes de IA d'alt risc realitzen una avaluació de l'impacte en els drets fonamentals abans de posar en ús un sistema de IA.

En termes més concrets, l'acord provisional cobrix els següents aspectes:

Definicions i abast

Per a garantir que la definició d'un sistema de IA proporcione criteris suficientment clars per a distingir la IA dels sistemes de programari més simples, l'acord de compromís alinea la definició amb l'enfocament proposat per l'OCDE.

L'acord provisional també aclarix que el reglament no s'aplica a àrees fora de l'abast de la legislació de la UE i no hauria de, en cap cas, afectar les competències dels Estats membres en matèria de seguretat nacional o qualsevol entitat a la qual se li hagen confiat tasques en esta àrea. A més, la llei de IA no s'aplicarà als sistemes que s'utilitzen exclusivament amb finalitats militars o de defensa. De manera similar, l'acord establix que la regulació no s'aplicaria als sistemes de IA utilitzats amb l'única fi d'investigació i innovació, ni a les persones que utilitzen la IA per motius no professionals.

Classificació dels sistemes de IA com a pràctiques prohibides i d'alt risc de la IA

L'acord de compromís preveu una capa horitzontal de protecció, inclosa una classificació d'alt risc, per a garantir que no es capturen els sistemes d'intel·ligència artificial que probablement no causen violacions greus dels drets fonamentals o altres riscos importants. Els sistemes de IA que presenten solament un risc limitat estarien subjectes a obligacions de transparència molt lleus, per exemple, revelar que el contingut va ser generat per IA perquè els usuaris puguen prendre decisions informades sobre el seu ús posterior.

S'autoritzaria una àmplia gamma de sistemes de IA d'alt risc, però subjectes a una sèrie de requisits i obligacions per a accedir al mercat de la UE. Estos requisits han sigut aclarits i ajustats pels colegisladores de tal manera que siguen més viables tècnicament i menys onerosos de complir per a les parts interessades, per exemple, pel que fa a la qualitat de les dades o en relació amb la documentació tècnica que ha de ser elaborada per pimes per a demostrar que els seus sistemes de IA d'alt risc complixen els requisits.

Atés que els sistemes de IA es desenvolupen i distribuïxen a través de cadenes de valor complexes, l'acord de compromís inclou canvis que aclarixen l'assignació de responsabilitats i rols dels diversos actors en eixes cadenes, en particular els proveïdors i usuaris de sistemes de IA. També aclarix la relació entre les responsabilitats en virtut de la Llei de IA i les responsabilitats que ja existixen en virtut d'una altra legislació, com la legislació sectorial o de protecció de dades de la UE pertinent.

Per a alguns usos de la IA, el risc es considera inacceptable i, per tant, estos sistemes seran prohibits en la UE. L'acord provisional prohibix, per exemple, la manipulació cognitiu-conductual, l'eliminació no selectiva d'imatges facials d'Internet o imatges de CCTV, el reconeixement d'emocions en el lloc de treball i en institucions educatives, la puntuació social, la categorització biomètrica per a inferir dades sensibles, com l'orientació sexual o creences reeligiosas i alguns casos de vigilància policial predictiva per a individus.

Excepcions d'aplicació de la llei

Tenint en compte les especificitats de les autoritats encarregades de fer complir la llei i la necessitat de preservar la seua capacitat d'utilitzar la IA en el seu treball vital, es van acordar diversos canvis en la proposta de la Comissió en relació amb l'ús de sistemes de IA amb finalitats policials. Subjectes a les salvaguardias adequades, estos canvis pretenen reflectir la necessitat de respectar la confidencialitat de les dades operatives sensibles en relació amb les seues activitats. Per exemple, s'ha introduït un procediment d'emergència que permet als organismes encarregats de fer complir la llei desplegar en cas d'urgència una ferramenta d'intel·ligència artificial d'alt risc que no haja passat el procediment d'avaluació de la conformitat. No obstant açò, també s'ha introduït un mecanisme específic per a garantir que els drets fonamentals estiguen suficientment protegits contra possibles usos indeguts dels sistemes de IA.

A més, pel que fa a l'ús de sistemes d'identificació biomètrica remota en temps real en espais d'accés públic, l'acord provisional aclarix els objectius quan aquest ús siga estrictament necessari per a finalitats policials i per als quals, per tant, ha de permetre's excepcionalment a les autoritats policials utilitzar aquests sistemes. L'acord de compromís preveu salvaguardias addicionals i limita estes excepcions als casos de víctimes de certs delictes, la prevenció d'amenaces genuïnes, presents o previsibles, com a atacs terroristes, i la cerca de persones sospitoses dels delictes més greus.

Sistemes de IA de propòsit general i models bàsics

S'han afegit noves disposicions per a tindre en compte situacions en les quals els sistemes de IA poden utilitzar-se per a moltes finalitats diferents (IA de propòsit general) i en les quals la tecnologia de IA de propòsit general s'integra posteriorment en un altre sistema d'alt risc. L'acord provisional també aborda els casos específics dels sistemes de IA de propòsit general (GPAI).

També s'han acordat regles específiques per als models bàsics, grans sistemes capaços de realitzar de manera competent una àmplia gamma de tasques distintives, com generar vídeo, text, imatges, conversar en llenguatge lateral, informàtica o generar codi informàtic. L'acord provisional establix que els models de base han de complir amb obligacions específiques de transparència abans de la seua comercialització. Es va introduir un règim més estricte per als models de fundacions de “alt impacte”. Es tracta de models bàsics entrenats amb una gran quantitat de dades i amb una complexitat, capacitats i rendiment avançats molt per damunt de la mitjana, que poden difondre riscos sistèmics al llarg de la cadena de valor.

Una nova arquitectura de governança

Arran de les noves normes sobre els models GPAI i l'evident necessitat de la seua aplicació a nivell de la UE, es crea una Oficina de IA dins de la Comissió encarregada de supervisar estos models de IA més avançats, contribuir a fomentar estàndards i pràctiques de prova, i fer complir les normes comunes en tots els estats membres. Un panell científic d'experts independents assessorarà a l'Oficina d'AI sobre els models GPAI, contribuint al desenvolupament de metodologies per a avaluar les capacitats dels models de fonaments, assessorant sobre la designació i el sorgiment de models de fonaments d'alt impacte i monitoreando possibles riscos de seguretat de materials relacionats. a models de fonamentació.

La Junta d'AI, que estaria composta per representants dels Estats membres, seguirà sent una plataforma de coordinació i un òrgan assessor de la Comissió i atorgarà un paper important als Estats membres en la implementació del reglament, inclòs el disseny de codis de pràctiques per a models de fundació. Finalment, es crearà un fòrum consultiu per a les parts interessades, com a representants de la indústria, les pimes, les empreses emergents, la societat civil i el món acadèmic, per a proporcionar els coneixements tècnics a la Junta de IA.

Penalitzacions

Les multes per violacions de la llei de IA es van establir com un percentatge de la facturació anual global de l'empresa infractora l'any financer anterior o una quantitat predeterminada, el que fóra major. Una xifra que representaria 35 milions d'euros o el 7% per violacions de les aplicacions de IA prohibides, 15 milions d'euros o el 3% per violacions de les obligacions de la llei de IA i 7,5 milions d'euros o l'1,5% pel subministrament d'informació incorrecta. No obstant açò, l'acord provisional establix límits més proporcionats a les multes administratives per a les pimes i les empreses de nova creació en cas d'infracció de les disposicions de la Llei de IA.

L'acord de transacció també deixa clar que una persona física o jurídica pot presentar una queixa davant l'autoritat de vigilància del mercat pertinent en relació amb l'incompliment de la Llei de IA i pot esperar que aquesta queixa es tramite d'acord amb els procediments específics d'eixa autoritat.

Transparència i protecció dels drets fonamentals

L'acord provisional preveu una avaluació de l'impacte sobre els drets fonamentals abans que els seus implementadores posen en el mercat un sistema d'intel·ligència artificial d'alt risc. L'acord provisional també preveu una major transparència respecte de l'ús de sistemes d'intel·ligència artificial d'alt risc. En particular, s'han modificat algunes disposicions de la proposta de la Comissió per a indicar que certs usuaris d'un sistema de IA d'alt risc que siguen entitats públiques també estaran obligats a registrar-se en la base de dades de la UE per a sistemes de IA d'alt risc. A més, les disposicions recentment afegides posen l'accent en l'obligació que els usuaris d'un sistema de reconeixement d'emocions informen a les persones físiques quan estiguen exposades a aquest sistema.

Mesures de suport a la innovació

Amb vista a crear un marc jurídic més favorable a la innovació i promoure l'aprenentatge normatiu basat en proves, les disposicions relatives a les mesures de suport a la innovació s'han modificat substancialment en comparació de la proposta de la Comissió.

En particular, s'ha aclarit que els entorns limitats de proves regulatòries de IA, que se supone deben establecer un entorno controlado para el desarrollo, prova i validació de sistemes de IA innovadors, també haurien de permetre provar sistemes de IA innovadors en condicions del món real. A més, s'han agregat noves disposicions que permeten provar sistemes de IA en condicions del món real, baix condicions i salvaguardias específiques. Per a alleujar la càrrega administrativa per a les empreses més xicotetes, l'acord provisional inclou una llista d'accions que han d'emprendre's per a recolzar a aquests operadors i preveu algunes derogacions limitades i clarament especificades. 

Entrada en vigor

L'acord provisional establix que la llei sobre IA hauria d'aplicar-se dos anys després de la seua entrada en vigor, amb algunes excepcions per a disposicions específiques.

Pròxims passos

Després de la firma de l'acord provisional, en les pròximes setmanes se seguirà treballant a nivell tècnic per a ultimar els detalls del nou reglament. La Presidència presentarà el text transaccional als representants dels Estats membres (Coreper) per a la seua aprovació una vegada conclòs este treball.

El text complet haurà de ser confirmat per les dos institucions i sotmès a una revisió jurídic-lingüística abans de la seua adopció formal pels colegisladores.

Informació de context

La proposta de la Comissió, presentada a l'abril de 2021, és un element clau de la política de la UE per a fomentar el desenvolupament i l'adopció en tot el mercat únic d'una IA segura i legal que respecte els drets fonamentals.

La proposta seguix un enfocament basat en el risc i establix un marc jurídic uniforme i horitzontal per a la IA que el seu objectiu és garantir la seguretat jurídica. L'esborrany del reglament té com a objectiu promoure la inversió i la innovació en IA, millorar la governança i l'aplicació efectiva de la legislació existent sobre drets fonamentals i seguretat, i facilitar el desenvolupament d'un mercat únic per a les aplicacions de IA. Va de la mà al costat d'altres iniciatives, inclòs el pla coordinat sobre intel·ligència artificial que té com a objectiu accelerar la inversió en IA a Europa.

El 6 de desembre de 2022, el Consell va aconseguir un acord sobre una orientació general (mandat de negociació) sobre este expedient i va entaular converses interinstitucionals amb el Parlament Europeu («diàlegs tripartits») a mitjan juny de 2023.

Font original de la notícia(Obri en nova finestra)

  • Cooperació interadministrativa
  • Intel·ligència Artificial i Blockchain