accesskey_mod_content

A Oficina Europea de IA recompila contribucións de expertos para alimentar dous talleres sobre modelos de IA

  • Escoitar
  • Copiar
  • Imprimir PDF
  • Compartir

26 novembro 2024

A oficina de IA está a recompilar contribucións de expertos para incorporalas ao taller sobre modelos de IA de propósito xeral e riscos sistémicos.

A Oficina Europea de IA organiza un taller en liña o 13 de decembro de 2024 (só para especialistas), centrado na avaliación de modelos de IA de propósito xeral con risco sistémico. Trátase dunha oportunidade para que as organizacións e os grupos de investigación mostren a súa experiencia e contribúan a dar forma ao ecosistema de avaliación no marco da Lei de IA da UE.

O evento reunirá aos principais avaliadores e á Oficina de IA para intercambiar ideas sobre as metodoloxías de avaliación máis avanzadas para modelos de IA de propósito xeral. Os participantes seleccionados presentarán os seus enfoques, compartirán as mellores prácticas e discutirán os desafíos na avaliación dos riscos sistémicos asociados coas tecnoloxías avanzadas de IA.

Esta iniciativa ten como obxectivo fomentar a colaboración e avanzar na ciencia das avaliacións de modelos de IA de propósito xeral, contribuíndo ao desenvolvemento de marcos sólidos para garantir a seguridade e a confiabilidad destes modelos.

Convocatoria para a presentación de propostas

A Oficina de IA convida os avaliadores a enviar resumos de artigos publicados anteriormente sobre a avaliación de modelos de IA de propósito xeral con risco sistémico. Os temas clave inclúen:

  • Riesgos QBRN: Riesgos relacionados con ameazas químicas, biolóxicas, radiológicas e nucleares
  • Ciberataque: Riesgos asociados ás capacidades cibernéticas ofensivas
  • Accidentes graves: riscos de interrupcións a gran escala ou interferencias na infraestrutura
  • Perda de control: preocupacións sobre a supervisión e a aliñación dos modelos autónomos de IA
  • Discriminación: Riesgos de xerar resultados discriminatorios
  • Infraccións de privacidade: riscos que involucran violacións de privacidade ou uso indebido de datos
  • Desinformación: Riscos relacionados coa propagación de información falsa ou daniña
  • Outros riscos sistémicos: Riscos adicionais que afectan a saúde pública, a seguridade, os procesos democráticos ou os dereitos fundamentais

Siga a ligazón para participar na chamada(Abre en nova xanela) . Máis información sobre o procedemento de solicitude(Abre en nova xanela)  (PDF).

Elixibilidade e selección

Os solicitantes elegibles deben ser organizacións rexistradas ou grupos de investigación afiliados a universidades con experiencia demostrada en avaliacións de modelos de IA de propósito xeral. As presentacións avaliaranse en función da calidade técnica, a pertinencia e a aliñación coa misión da Oficina de IA.

Datas crave

  • Data límite de presentación: 8 de decembro de 2024 (fin do día, en calquera lugar da Terra) Animamos a enviar os seus traballos canto antes.
  • Notificación de invitación: 11 de decembro de 2024
  • Data do taller: 13 de decembro de 2024 (14:00 CET)

Fondo

A Lei de IA establece normas para garantir que os modelos de IA de uso xeral sexan seguros e confiables, en particular aqueles que expoñen riscos sistémicos, como facilitar o desenvolvemento de armas biolóxicas, a perda de control ou danos a gran escala, como a discriminación ou a desinformación. Os provedores destes modelos deben avaliar e mitigar os riscos, realizar probas adversas, informar incidentes e garantir a ciberseguridade do modelo.

A Oficina Europea de Intelixencia Artificial vea polo cumprimento destes requisitos, realizando avaliacións, investigando os riscos sistémicos e impondo multas cando sexa necesario. Tamén pode designar a expertos independentes para que realicen avaliacións no seu nome.

Como a ciencia da avaliación de riscos sistémicos aínda está en desenvolvemento, a Oficina de IA está a fomentar a colaboración cos avaliadores para avanzar nas metodoloxías e establecer as mellores prácticas. Os talleres, como o próximo evento de decembro de 2024, apoian este esforzo e sintan as bases para unha supervisión segura e responsable da IA.

Fonte orixinal da noticia(Abre en nova xanela)

  • Intelixencia Artificial e Blockchain