AEQUITAS: Assessment And Engineering Of Equitable, Unbiased, Impartial And Trustworthy Ai Systems

Progettare un ambiente di sperimentazione controllata per sviluppatori e utenti per creare esperimenti controllati per valutare il bias nei sistemi di IA, fornire metodi efficaci e linee guida ingegneristiche per riparare, rimuovere e mitigare il bias, fornire linee guida, metodologie e tecniche di ingegneria del software per progettare nuovi sistemi privi di bias.

I sistemi di supporto decisionale basati sull'IA sono sempre più utilizzati nell'industria, nei settori pubblico e privato e nella definizione delle politiche. Poiché la nostra società sta affrontando un drammatico aumento delle disuguaglianze e della discriminazione intersezionale, dobbiamo impedire che i sistemi di IA amplifichino questo fenomeno, ma piuttosto mitigarli. Per fidarsi di questi sistemi, gli esperti del settore e le parti interessate devono fidarsi delle decisioni. L'equità è uno dei principali principi dell'IA affidabile promossa a livello dell'UE. Come questi principi, in particolare l'equità, si traducano in requisiti tecnici, funzionali, sociali e legali nella progettazione dei sistemi di IA è ancora una questione aperta. Allo stesso modo, non sappiamo come testare se un sistema è conforme a questi principi e ripararlo nel caso in cui non lo sia.

AEQUITAS propone la progettazione di un ambiente di sperimentazione controllata per sviluppatori e utenti per creare esperimenti controllati per:

  • valutare il bias nei sistemi di IA, ad esempio identificando le potenziali cause di bias nei dati, negli algoritmi e nell'interpretazione dei risultati,
  • fornire, quando possibile, metodi efficaci e linee guida ingegneristiche per riparare, rimuovere e mitigare il bias,
  • fornire linee guida per la progettazione equa, metodologie e tecniche di ingegneria del software per progettare nuovi sistemi privi di bias.

L'ambiente di sperimentazione genera set di dati sintetici con diverse caratteristiche che influenzano l'equità per un test in laboratorio. Casi d'uso reali nella sanità, nelle risorse umane e nelle sfide dei gruppi socialmente svantaggiati testano ulteriormente la piattaforma di sperimentazione, dimostrando l'efficacia della soluzione proposta. Il campo di sperimentazione sarà integrato sulla piattaforma AI-on-demand per aumentarne l'adozione, ma una versione autonoma consentirà test di equità dei sistemi di IA preservando la privacy in sede.

AEQUITAS si basa su un forte consorzio che comprende esperti di IA, esperti di dominio nei settori dei casi d'uso, nonché scienziati sociali e associazioni che difendono i diritti delle minoranze e dei gruppi discriminati.

  • Programma: HORIZON EUROPE 
  • Ente finanziatore: Unione Europea 
  • Data inizio e data fine: dal 7/1/2022 al 12/31/2025 

Per maggior informazioni

Contatta la DISI Team Leader

Roberta Calegari

Professoressa a contratto

Assegnista di ricerca