accesskey_mod_content

La Oficina Europea de IA recopila contribuciones de expertos para alimentar dos talleres sobre modelos de IA

  • Escuchar
  • Copiar
  • Imprimir PDF
  • Compartir

26 noviembre 2024

La oficina de IA está recopilando contribuciones de expertos para incorporarlas al taller sobre modelos de IA de propósito general y riesgos sistémicos.

La Oficina Europea de IA organiza un taller en línea el 13 de diciembre de 2024 (solo para especialistas), centrado en la evaluación de modelos de IA de propósito general con riesgo sistémico. Se trata de una oportunidad para que las organizaciones y los grupos de investigación muestren su experiencia y contribuyan a dar forma al ecosistema de evaluación en el marco de la Ley de IA de la UE.

El evento reunirá a los principales evaluadores y a la Oficina de IA para intercambiar ideas sobre las metodologías de evaluación más avanzadas para modelos de IA de propósito general. Los participantes seleccionados presentarán sus enfoques, compartirán las mejores prácticas y discutirán los desafíos en la evaluación de los riesgos sistémicos asociados con las tecnologías avanzadas de IA.

Esta iniciativa tiene como objetivo fomentar la colaboración y avanzar en la ciencia de las evaluaciones de modelos de IA de propósito general, contribuyendo al desarrollo de marcos sólidos para garantizar la seguridad y la confiabilidad de estos modelos.

Convocatoria para la presentación de propuestas

La Oficina de IA invita a los evaluadores a enviar resúmenes de artículos publicados anteriormente sobre la evaluación de modelos de IA de propósito general con riesgo sistémico. Los temas clave incluyen:

  • Riesgos QBRN: Riesgos relacionados con amenazas químicas, biológicas, radiológicas y nucleares
  • Ciberataque: Riesgos asociados a las capacidades cibernéticas ofensivas
  • Accidentes graves: riesgos de interrupciones a gran escala o interferencias en la infraestructura
  • Pérdida de control: preocupaciones sobre la supervisión y la alineación de los modelos autónomos de IA
  • Discriminación: Riesgos de generar resultados discriminatorios
  • Infracciones de privacidad: riesgos que involucran violaciones de privacidad o uso indebido de datos
  • Desinformación: Riesgos relacionados con la propagación de información falsa o dañina
  • Otros riesgos sistémicos: Riesgos adicionales que afectan la salud pública, la seguridad, los procesos democráticos o los derechos fundamentales

Siga el enlace para participar en la llamada(Abre en nueva ventana) . Más información sobre el procedimiento de solicitud(Abre en nueva ventana)  (PDF).

Elegibilidad y selección

Los solicitantes elegibles deben ser organizaciones registradas o grupos de investigación afiliados a universidades con experiencia demostrada en evaluaciones de modelos de IA de propósito general. Las presentaciones se evaluarán en función de la calidad técnica, la pertinencia y la alineación con la misión de la Oficina de IA.

Fechas clave

  • Fecha límite de presentación: 8 de diciembre de 2024 (fin del día, en cualquier lugar de la Tierra) Animamos a enviar sus trabajos lo antes posible.
  • Notificación de invitación: 11 de diciembre de 2024
  • Fecha del taller: 13 de diciembre de 2024 (14:00 CET)

Fondo

La Ley de IA establece normas para garantizar que los modelos de IA de uso general sean seguros y confiables, en particular aquellos que plantean riesgos sistémicos, como facilitar el desarrollo de armas biológicas, la pérdida de control o daños a gran escala, como la discriminación o la desinformación. Los proveedores de estos modelos deben evaluar y mitigar los riesgos, realizar pruebas adversas, informar incidentes y garantizar la ciberseguridad del modelo.

La Oficina Europea de Inteligencia Artificial vela por el cumplimiento de estos requisitos, realizando evaluaciones, investigando los riesgos sistémicos e imponiendo multas cuando sea necesario. También puede designar a expertos independientes para que realicen evaluaciones en su nombre.

Como la ciencia de la evaluación de riesgos sistémicos aún está en desarrollo, la Oficina de IA está fomentando la colaboración con los evaluadores para avanzar en las metodologías y establecer las mejores prácticas. Los talleres, como el próximo evento de diciembre de 2024, respaldan este esfuerzo y sientan las bases para una supervisión segura y responsable de la IA.

Fuente original de la noticia(Abre en nueva ventana)

  • Inteligencia Artificial y Blockchain