La Oficina Europea de IA organiza un taller en línea el 13 de diciembre de 2024 (solo para especialistas), centrado en la evaluación de modelos de IA de propósito general con riesgo sistémico. Se trata de una oportunidad para que las organizaciones y los grupos de investigación muestren su experiencia y contribuyan a dar forma al ecosistema de evaluación en el marco de la Ley de IA de la UE.
El evento reunirá a los principales evaluadores y a la Oficina de IA para intercambiar ideas sobre las metodologías de evaluación más avanzadas para modelos de IA de propósito general. Los participantes seleccionados presentarán sus enfoques, compartirán las mejores prácticas y discutirán los desafíos en la evaluación de los riesgos sistémicos asociados con las tecnologías avanzadas de IA.
Esta iniciativa tiene como objetivo fomentar la colaboración y avanzar en la ciencia de las evaluaciones de modelos de IA de propósito general, contribuyendo al desarrollo de marcos sólidos para garantizar la seguridad y la confiabilidad de estos modelos.
Convocatoria para la presentación de propuestas
La Oficina de IA invita a los evaluadores a enviar resúmenes de artículos publicados anteriormente sobre la evaluación de modelos de IA de propósito general con riesgo sistémico. Los temas clave incluyen:
- Riesgos QBRN: Riesgos relacionados con amenazas químicas, biológicas, radiológicas y nucleares
- Ciberataque: Riesgos asociados a las capacidades cibernéticas ofensivas
- Accidentes graves: riesgos de interrupciones a gran escala o interferencias en la infraestructura
- Pérdida de control: preocupaciones sobre la supervisión y la alineación de los modelos autónomos de IA
- Discriminación: Riesgos de generar resultados discriminatorios
- Infracciones de privacidad: riesgos que involucran violaciones de privacidad o uso indebido de datos
- Desinformación: Riesgos relacionados con la propagación de información falsa o dañina
- Otros riesgos sistémicos: Riesgos adicionales que afectan la salud pública, la seguridad, los procesos democráticos o los derechos fundamentales
Siga el enlace para participar en la llamada . Más información sobre el procedimiento de solicitud (PDF).
Elegibilidad y selección
Los solicitantes elegibles deben ser organizaciones registradas o grupos de investigación afiliados a universidades con experiencia demostrada en evaluaciones de modelos de IA de propósito general. Las presentaciones se evaluarán en función de la calidad técnica, la pertinencia y la alineación con la misión de la Oficina de IA.
Fechas clave
- Fecha límite de presentación: 8 de diciembre de 2024 (fin del día, en cualquier lugar de la Tierra) Animamos a enviar sus trabajos lo antes posible.
- Notificación de invitación: 11 de diciembre de 2024
- Fecha del taller: 13 de diciembre de 2024 (14:00 CET)
Fondo
La Ley de IA establece normas para garantizar que los modelos de IA de uso general sean seguros y confiables, en particular aquellos que plantean riesgos sistémicos, como facilitar el desarrollo de armas biológicas, la pérdida de control o daños a gran escala, como la discriminación o la desinformación. Los proveedores de estos modelos deben evaluar y mitigar los riesgos, realizar pruebas adversas, informar incidentes y garantizar la ciberseguridad del modelo.
La Oficina Europea de Inteligencia Artificial vela por el cumplimiento de estos requisitos, realizando evaluaciones, investigando los riesgos sistémicos e imponiendo multas cuando sea necesario. También puede designar a expertos independientes para que realicen evaluaciones en su nombre.
Como la ciencia de la evaluación de riesgos sistémicos aún está en desarrollo, la Oficina de IA está fomentando la colaboración con los evaluadores para avanzar en las metodologías y establecer las mejores prácticas. Los talleres, como el próximo evento de diciembre de 2024, respaldan este esfuerzo y sientan las bases para una supervisión segura y responsable de la IA.
Fuente original de la noticia