accesskey_mod_content

L'Oficina Europea de IA recopila contribucions d'experts per a alimentar dos tallers sobre models de IA

  • Escoltar
  • Copiar
  • Imprimir PDF
  • Compartir

26 novembre 2024

L'oficina de IA està recopilant contribucions d'experts per a incorporar-les al taller sobre models de IA de propòsit general i riscos sistèmics.

L'Oficina Europea de IA organitza un taller en línia el 13 de desembre de 2024 (solament per a especialistes), centrat en l'avaluació de models de IA de propòsit general amb risc sistèmic. Es tracta d'una oportunitat perquè les organitzacions i els grups d'investigació mostren la seua experiència i contribuïsquen a donar forma a l'ecosistema d'avaluació en el marc de la Llei de IA de la UE.

L'esdeveniment reunirà als principals avaluadors i a l'Oficina de IA per a intercanviar idees sobre les metodologies d'avaluació més avançades per a models de IA de propòsit general. Els participants seleccionats presentaran els seus enfocaments, compartiran les millors pràctiques i discutiran els desafiaments en l'avaluació dels riscos sistèmics associats amb les tecnologies avançades de IA.

Esta iniciativa té com a objectiu fomentar la col·laboració i avançar en la ciència de les avaluacions de models de IA de propòsit general, contribuint al desenvolupament de marcs sòlids per a garantir la seguretat i la confiabilitat d'estos models.

Convocatòria per a la presentació de propostes

L'Oficina de IA convida als avaluadors a enviar resums d'articles publicats anteriorment sobre l'avaluació de models de IA de propòsit general amb risc sistèmic. Els temes clau inclouen:

  • Riesgos QBRN: Riesgos relacionats amb amenaces químiques, biològiques, radiològiques i nuclears
  • Ciberatac: Riesgos associats a les capacitats cibernètiques ofensives
  • Accidents greus: riscos d'interrupcions a gran escala o interferències en la infraestructura
  • Pèrdua de control: preocupacions sobre la supervisió i l'alineació dels models autònoms de IA
  • Discriminació: Riesgos de generar resultats discriminatoris
  • Infraccions de privacitat: riscos que involucren violacions de privacitat o ús indegut de dades
  • Desinformació: Riscos relacionats amb la propagació d'informació falsa o nociva
  • Altres riscos sistèmics: Riscos addicionals que afecten la salut pública, la seguretat, els processos democràtics o els drets fonamentals

Seguisca l'enllaç per a participar en la telefonada(Obri en nova finestra) . Més informació sobre el procediment de sol·licitud(Obri en nova finestra)  (PDF).

Elegibilitat i selecció

Els sol·licitants elegibles han de ser organitzacions registrades o grups d'investigació afiliats a universitats amb experiència demostrada en avaluacions de models de IA de propòsit general. Les presentacions s'avaluaran en funció de la qualitat tècnica, la pertinència i l'alineació amb la missió de l'Oficina de IA.

Dates clau

  • Data límit de presentació: 8 de desembre de 2024 (fi del dia, en qualsevol lloc de la Terra) Animem a enviar els seus treballs al més prompte possible.
  • Notificació d'invitació: 11 de desembre de 2024
  • Data del taller: 13 de desembre de 2024 (14:00 CET)

Fons

La Llei de IA establix normes per a garantir que els models de IA d'ús general siguen segurs i confiables, en particular aquells que plantegen riscos sistèmics, com facilitar el desenvolupament d'armes biològiques, la pèrdua de control o danys a gran escala, com la discriminació o la desinformació. Els proveïdors d'estos models han d'avaluar i mitigar els riscos, realitzar proves adverses, informar incidents i garantir la ciberseguretat del model.

L'Oficina Europea d'Intel·ligència Artificial vela pel compliment d'estos requisits, realitzant avaluacions, investigant els riscos sistèmics i imposant multes quan siga necessari. També pot designar a experts independents perquè realitzen avaluacions en el seu nom.

Com la ciència de l'avaluació de riscos sistèmics encara està en desenvolupament, l'Oficina de IA està fomentant la col·laboració amb els avaluadors per a avançar en les metodologies i establir les millors pràctiques. Els tallers, com el pròxim esdeveniment de desembre de 2024, recolzen este esforç i senten les bases per a una supervisió segura i responsable de la IA.

Font original de la notícia(Obri en nova finestra)

  • Intel·ligència Artificial i Blockchain