" /> PAe - A importancia da equidade de datos nos sistemas de intelixencia artificial
accesskey_mod_content

A importancia da equidade de datos nos sistemas de intelixencia artificial

  • Escoitar
  • Imprimir PDF
  • Compartir

17 xullo 2024

O Foro Económico Mundia realizou o informe titulado “Equidade de datos: conceptos fundamentais para a IA generativa" dirixido á industria, a sociedade civil, academia e tomadores e tomadoras de decisión. Agora Datos.gob publica unha interesante análise do mesmo.

A equidade de datos é un concepto que salienta a importancia de considerar cuestións de poder, rumbo e discriminación na recompilación, a análise e a interpretación de datos. Implica garantir que os datos se recompilen, analicen e utilicen de maneira xusta, inclusiva e equitativa para todas as partes interesadas, en particular aquelas que historicamente foron marxinadas ou excluídas. Aínda que non hai un consenso sobre a súa definición, a equidade de datos ten como obxectivo abordar as desigualdades sistémicas e os desequilibrios de poder mediante a promoción da transparencia, a rendición de contas e a propiedade comunitaria dos datos. Tamén implica recoñecer e corrixir os legados de discriminación a través de datos e garantir que os datos se utilicen para apoiar o benestar e o empoderamiento de todos os individuos e comunidades. Por todo iso, a equidade de datos é un principio crave na gobernación de datos, relacionado cos impactos en individuos, grupos e ecosistemas

Para aclarar máis sobre esta cuestión, o Foro Económico Mundial –unha organización que reúne a líderes das grandes empresas e persoas expertas para tratar asuntos globais— publicou hai uns meses un informe breve titulado “ Data Equity: Foundational Concepts for Generative AI ” ("Equidade de datos: conceptos fundamentais para a IA generativa"), dirixido á industria, a sociedade civil, academia e tomadores e tomadoras de decisión.

O obxectivo do documento do Foro Económico Mundial é, primeiro, definir a equidade dos datos e demostrar a súa importancia no desenvolvemento e a implementación de a  IA generativa  (coñecida como genAI). Neste informe, o Foro Económico Mundial identifica algúns desafíos e riscos asociados coa falta de equidade de datos no desenvolvemento da IA, como o rumbo, a discriminación e os resultados inxustos. Así mesmo, pretende ofrecer orientación práctica e recomendacións para lograr a equidade de datos, incluídas estratexias para a recompilación, a análise e o uso de datos. Doutra banda, o Foro Económico Mundial di querer, por unha banda, fomentar a colaboración entre as partes interesadas da industria, os gobernos, o mundo académico e a sociedade civil para abordar as cuestións de equidade de datos e promover o desenvolvemento dunha IA xusta e inclusiva, e por outro, influír sobre o futuro do desenvolvemento da IA.

A seguir, analízanse algunhas das claves do informe.

Tipos de equidade de datos

O documento identifica catro clases principais de equidade de datos:  

  • A equidade de representación refírese a a inclusión xusta e proporcional de diferentes grupos nos conxuntos de datos utilizados para adestrar modelos de genAI.

  • A equidade de recursos fala da distribución ecuánime dos recursos (datos, infraestrutura e coñecementos) necesarios para o desenvolvemento e uso de a genAI.

  • A equidade de acceso implica garantir un acceso xusto e non discriminatorio ás capacidades e beneficios de a genAI por parte de diferentes grupos.

  • A equidade de resultados busca asegurar que os resultados e aplicacións de a genAI non xeren impactos desproporcionados ou prexudiciais para grupos vulnerables.

Desafíos de equidade en a genAI

O documento destaca que os modelos de fundación, que son a base de moitas ferramentas de genAI, presentan desafíos específicos de equidade de datos, xa que codifican rumbos e prexuízos presentes nos conxuntos de datos de adestramento e pódenos chegar a amplificar nos seus resultados. En IA, un modelo de función refírese a un programa ou algoritmo que se basea en datos de adestramento para recoñecer patróns e facer predicións ou decisións, o que lle permite facer predicións ou decisións baseadas en novos datos de entrada.

Os principais retos en termos de xustiza social coa intelixencia artificial (IA) inclúen o feito de que os datos de adestramento poden estar nesgados. Os modelos de IA generativa adéstranse en grandes conxuntos de datos que a miúdo conteñen rumbos e contido discriminatorio, o que pode conducir á perpetuación do discurso de odio, a misoxinia e o racismo. Logo, pódense producir rumbos algorítmicos, que non só reproducen estes rumbos iniciais, senón que poden amplificarlos, aumentando as desigualdades sociais existentes e resultar en discriminación e trato inxusto aos grupos estereotipados. Existen tamén preocupacións sobre a privacidade, xa que a IA generativa baséase nalgúns datos persoais confidenciais, que poden ser explotados e expostos.

O uso cada vez máis extenso da IA generativa en diversos campos está xa provocando cambios laborais, xa que é máis fácil, rápido ou barato pedirlle a unha intelixencia artificial que cre unha imaxe ou un texto –en realidade, baseado nas creacións humanas que existen en internet- que encargalo a unha persoa experta. Isto pode exacerbar as desigualdades económicas.

Finalmente, a IA generativa ten o potencial de intensificar a desinformación. A IA generativa pódese utilizar para crear deepfakes de alta calidade, que xa se están usando para difundir bulos e desinformación, algo que podería socavar os procesos e institucións democráticos.

Brechas e posibles solucións

Estes desafíos resaltan a necesidade de unha coidadosa consideración e regulación da IA generativa para garantir que se desenvolver e utilice dunha maneira que respecte os dereitos humanos e promova a xustiza social. Con todo, o documento non aborda a desinformación e só menciona o xénero cando fala da “equidade de características” (feature equity), un compoñente da equidade de datos. A equidade de características busca “garantir unha representación precisa dos individuos, grupos e comunidades representados polos datos, o que require a inclusión de atributos como raza, xénero, localización e ingresos xunto con outros datos” (páx. 4). Sen estes atributos, di o documento, “a miúdo resulta difícil identificar e abordar rumbos e desigualdades latentes”. No entanto, esas mesmas características pódense utilizar para discriminar contra as mulleres, por exemplo.

Para abordar estes desafíos, requírese o compromiso e a colaboración de diversas partes interesadas, como a industria, o goberno, a academia e a sociedade civil, para desenvolver métodos e procesos que integren consideracións de equidade de datos en todas as fases do desenvolvemento de a genAI. Este documento senta as bases teóricas do que se pode entender como equidade de datos; con todo, queda moito camiño para ver como se pasa da teoría á práctica en regulación, hábitos e coñecemento.

Este documento enlaza cos pasos que xa se están levando a cabo en Europa e España con a  Lei de IA da Unión Europea  e  a Estratexia IA do Goberno de España , respectivamente. Precisamente, un dos eixos desta última (Eixo 3) é fomentar unha IA transparente, ética e humanística.

A estratexia española de IA é un documento máis amplo que o do Foro Económico Mundial, que describe os plans do goberno para o desenvolvemento e a adopción de tecnoloxías de intelixencia artificial xeneral. A estratexia céntrase en áreas como o desenvolvemento do talento, a investigación e a innovación, os marcos regulatorios e a adopción da IA nos sectores público e privado, e diríxese principalmente a partes interesadas nacionais, como axencias gobernamentais, empresas e institucións de investigación. Aínda que a estratexia española de IA non menciona explicitamente a equidade dos datos, si salienta a importancia dun desenvolvemento responsable e ético da IA, que podería incluír consideracións ao redor da equidade dos datos.

Fonte orixinal da noticia(Abre en nova xanela)

  • Información e datos do sector público
  • Intelixencia Artificial e Blockchain