accesskey_mod_content

L'Oficina Europea de IA recopila contribucions d'experts per alimentar dos tallers sobre models de IA

  • Escoltar
  • Copiar
  • Imprimir PDF
  • Compartir

26 novembre 2024

L'oficina de IA està recopilant contribucions d'experts per incorporar-les al taller sobre models de IA de propòsit general i riscos sistèmics.

L'Oficina Europea de IA organitza un taller en línia el 13 de desembre de 2024 (solament per a especialistes), centrat en l'avaluació de models de IA de propòsit general amb risc sistèmic. Es tracta d'una oportunitat perquè les organitzacions i els grups de recerca mostrin la seva experiència i contribueixin a donar forma a l'ecosistema d'avaluació en el marc de la Llei de IA de la UE.

L'esdeveniment reunirà als principals avaluadors i a l'Oficina de IA per intercanviar idees sobre les metodologies d'avaluació més avançades per a models de IA de propòsit general. Els participants seleccionats presentaran els seus enfocaments, compartiran les millors pràctiques i discutiran els desafiaments en l'avaluació dels riscos sistèmics associats amb les tecnologies avançades de IA.

Aquesta iniciativa té com a objectiu fomentar la col·laboració i avançar en la ciència de les avaluacions de models de IA de propòsit general, contribuint al desenvolupament de marcs sòlids per garantir la seguretat i la confiabilitat d'aquests models.

Convocatòria per a la presentació de propostes

L'Oficina de IA convida als avaluadors a enviar resums d'articles publicats anteriorment sobre l'avaluació de models de IA de propòsit general amb risc sistèmic. Els temes clau inclouen:

  • Riscos QBRN: Riscos relacionats amb amenaces químiques, biològiques, radiològiques i nuclears
  • Ciberatac: Riscos associats a les capacitats cibernètiques ofensives
  • Accidents greus: riscos d'interrupcions a gran escala o interferències en la infraestructura
  • Pèrdua de control: preocupacions sobre la supervisió i l'alineació dels models autònoms de IA
  • Discriminació: Riscos de generar resultats discriminatoris
  • Infraccions de privadesa: riscos que involucren violacions de privadesa o ús indegut de dades
  • Desinformació: Riscos relacionats amb la propagació d'informació falsa o nociva
  • Altres riscos sistèmics: Riscos addicionals que afecten la salut pública, la seguretat, els processos democràtics o els drets fonamentals

Segueixi l'enllaç per participar en la trucada(Obre en nova finestra) . Més informació sobre el procediment de sol·licitud(Obre en nova finestra)  (PDF).

Elegibilitat i selecció

Els sol·licitants elegibles han de ser organitzacions registrades o grups de recerca afiliats a universitats amb experiència demostrada en avaluacions de models de IA de propòsit general. Les presentacions s'avaluaran en funció de la qualitat tècnica, la pertinència i l'alineació amb la missió de l'Oficina de IA.

Dates clau

  • Data límit de presentació: 8 de desembre de 2024 (fi del dia, en qualsevol lloc de la Terra) Animem a enviar els seus treballs al més aviat possible.
  • Notificació d'invitació: 11 de desembre de 2024
  • Data del taller: 13 de desembre de 2024 (14:00 CET)

Fons

La Llei de IA estableix normes per garantir que els models de IA d'ús general siguin segurs/segurs i segurs/segurs, en particular aquells que plantegen riscos sistèmics, com facilitar el desenvolupament d'armes biològiques, la pèrdua de control o danys a gran escala, com la discriminació o la desinformació. Els proveïdors d'aquests models han d'avaluar i mitigar els riscos, realitzar proves adverses, informar incidents i garantir la ciberseguretat del model.

L'Oficina Europea d'Intel·ligència Artificial vela pel compliment d'aquests requisits, realitzant avaluacions, investigant els riscos sistèmics i imposant multes quan sigui necessari. També pot designar a experts independents perquè realitzin avaluacions en el seu nom.

Com la ciència de l'avaluació de riscos sistèmics encara està en desenvolupament, l'Oficina de IA està fomentant la col·laboració amb els avaluadors per avançar en les metodologies i establir les millors pràctiques. Els tallers, com el proper esdeveniment de desembre de 2024, recolzen aquest esforç i sentin les bases per a una supervisió segura/segura i responsable de la IA.

Font original de la notícia(Obre en nova finestra)

  • Intel·ligència Artificial i Blockchain