European Conference on Artificial Intelligence (ECAI): il divario tra principi e pratica

European Conference on Artificial Intelligence (ECAI): il divario tra principi e pratica

Leggi intervista al Prof. Andrea Omicini: Nell’IA la scienza studia a posteriori ciò che la tecnica ha già prodotto. Il ruolo dei MAS per la spiegabilità, l'affidabilità e per la Distributed AI

Pubblicato: 26 novembre 2025 | Innovazione e ricerca

 Una serie di interviste "Dialoghi sul Futuro Digitale" dedicate ad offrire spunti di riflessione e approfondimenti, a partire da convegni, seminari, progetti in ambito Terza Missione. Uno spazio per interagire e dialogare con docenti del Dipartimento, al fine di tratteggiare e comprendere alcuni percorsi futuribili o già presenti. 

L'articolo è di Francesca Montuschi, del Settore della comunicazione e informazione del dipartimento.

Trasparenza, equità, responsabilità, inclusione e riferimento a valori condivisi sono i principi fondamentali per rispettare standard etici e mitigare i potenziali rischi dell’IA. Tuttavia, rimangono aperte diverse questioni cruciali: come si traduce un ideale in un protocollo operativo? Quali metriche devono essere adottate? E chi stabilisce cosa sia equo in un determinato contesto? In particolare, i valori non sempre hanno una valenza universale: possono infatti mutare nel tempo, nello spazio geografico e nei vari ambiti culturali, politici, sociali ed economici.

Analogamente, il principio di trasparenza non è sempre facile da affrontare. Un modello può essere tecnicamente opaco, oppure talmente complesso da risultare incomprensibile anche agli esperti. A ciò si aggiunge il problema dell’attribuzione della responsabilità: quando una decisione emerge dall’interazione tra esseri umani, dati, algoritmi e modelli, individuare chi debba assumersi responsabilità (sociale, ambientale, ecc.) diventa un esercizio complicato, e non solo sul piano giuridico.

Il tema del divario tra principi e pratica - ovvero la difficoltà di tradurre gli ideali astratti della governance dell’IA in strutture concrete di decisione e responsabilità - è stato al centro dell'European Conference on Artificial Intelligence (ECAI 2025), svoltasi recentemente a Bologna e considerata insieme a IJCAI e AAAI una delle tre principali conferenze a livello mondiale sull'IA. Il comitato organizzatore ha visto la partecipazione dei docenti del Dipartimento di Informatica - Scienza e Ingegneria Federico Chesani, Michela Milano e Andrea Omicini.

Se si parla di responsabilità nell'ambito dell'IA, appare evidente come debba essere un principio incorporato già nelle prime fasi della progettazione. Si può tradurre in strumenti tecnici che rendano tracciabili le decisioni, monitorabili le prestazioni e verificabili le deviazioni rispetto agli obiettivi dichiarati. Quindi vanno presi in considerazione modelli di audit algoritmico, valutazioni d’impatto, registri di tracciabilità e comitati etici.

“Tuttavia, anche questi strumenti non sono privi di limiti. Un audit algoritmico, per esempio, è utile nella misura in cui sono affidabili i dati di partenza ed è tanto più incisivo quanto più è indipendente da chi lo conduce. Le valutazioni d’impatto rischiano di diventare formalismi burocratici se non sono supportate da competenze reali e da un potere di intervento effettivo. E la presenza di comitati etici non garantisce, di per sé, che le raccomandazioni suggerite siano integrate nelle scelte strategiche, per esempio di una azienda”, le parole del prof. Omicini.

Regole e norme, per loro natura, intervengono ex post: nascono per regolamentare fenomeni già osservati e consolidati. Quando una tecnologia cambia e avanza così velocemente, qualsiasi norma rischia di nascere già obsoleta o non efficace.

“Si è spostato il baricentro dell’innovazione: la scienza osserva e studia a posteriori ciò che la tecnica ha già prodotto. La scienza cerca di comprendere e verificare l’IA, mentre la tecnica la sospinge in avanti senza sapere sempre con precisione come o perché funziona. È un po’ come se il motore del progresso si muovesse a una velocità tale da rendere difficile anche il semplice studio del suo stesso funzionamento. Quando apparvero, i primi motori termici (a vapore) erano una tecnologia senza una scienza alle spalle: alcuni funzionavano, alcuni esplodevano; ci sono voluti molti decenni di ricerca per arrivare a una scienza termodinamica. Quando la tecnica corre più velocemente della scienza, in attesa che si giunga a sistemi di comprensione stabili, la normativa può cercare solo di mitigare alcuni rischi; e ciò deve avvenire trovando un giusto equilibrio tra il ridurre i rischi, da un lato, e l'evitare di frenare la crescita tecnologica, dall’altro”.

Il progresso nella scienza non segue un percorso lineare.

“La storia della scienza evidenzia come periodi di lenta maturazione siano alternati a rivoluzioni improvvise (paradigm shifts); a volte si è giunti a risultati imprevedibili, e proprio per questo è importante continuare ad investire sempre nella ricerca di base, quella non vincolata. Al tempo stesso l’open science, con risultati condivisi, liberamente consultabili e non bloccati da paywall, apre a nuove opportunità, interdisciplinari o di collaborazione a livello internazionale, e più in generale favorisce la condivisione e il progresso della ricerca”.

Tra i princìpi riconosciuti dall'Association for Computing Machinery (ACM) in tema di trasparenza e responsabilità algoritmica, si richiede che i sistemi basati sull'IA siano comprensibili.

“La nozione di comprensibilità non è ancora standardizzata né è stata valutata sistematicamente in modo univoco e condiviso. L'Explainable AI (XAI) si concentra in particolare sull'interpretabilità, ovvero l'operazione di collegare gli oggetti al loro significato effettivo in un determinato contesto. La nostra linea di ricerca, denominata Explainability through Multi-Agent Systems (XMAS), attribuisce importanza fondamentale a caratteristiche chiave come la spiegabilità e l'affidabilità. La nozione di spiegabilità va intesa come l'atto di far comprendere a qualcuno le informazioni trasmesse in uno specifico discorso. Vale la pensa sottolineare che l’atto di spiegare implica uno spiegante e un ricevente, disposto a comprendere. C’è un elemento dialogico forte, unito all’atto autonomo dello spiegante in sé”.

A chi spiegare? Ai ricercatori di AI? agli utenti dei modelli? Ai regolatori? Quando spiegare? Durante la fase di preelaborazione dei dati? Durante l’addestramento dei modelli? Durante il loro uso operativo? Che cosa vogliamo spiegare? Le ragioni per cui è stata presa o non è stata presa una decisione? Gli scenari ipotetici del tipo “what if”?

“La spiegazione deve avvenire sempre, deve essere strutturale ai componenti intelligenti, ed è fondamentale per rendere sempre possibile la comprensione dei motivi per i quali una particolare decisione o soluzione può essere considerata migliore di un’altra. Inoltre, la spiegazione deve avvenire a livelli diversi, a seconda che ci si rivolga a sviluppatori, a ricercatori o a semplici utenti”.

Dalle sue ricerche, la capacità degli agenti di aggiornare e correggere le proprie basi o credenze può aprire la strada allo sviluppo di sistemi informativi in cui le previsioni possono essere realizzate senza la centralizzazione dei dati su una specifica struttura computazionale.

“La comunicazione tra agenti intelligenti deve avere come default la condivisione di conoscenza, spiegazioni incluse. La “decentralizzazione” delle informazioni e dei processi deve nascere da lì”.

I sistemi multi-agente (MAS) possono essere un riferimento per la Distributed AI (DAI). E' ipotizzabile un futuro senza il predominio di giga infrastrutture per le applicazioni di AI?

“Sì, è possibile, e auspicabile. In effetti le infrastrutture di AI tendono a diventare velocemente obsolete, e richiedono continui reinvestimenti e manutenzioni. I MAS sono in grado di colmare il divario tra infrastrutture su larga scala e reti decentrate, poiché possono coprire tutta la gamma dei diversi dispositivi computazionali, dai grandi server ad alte prestazioni fino ai dispositivi edge”.

Riproduzione riservata © copyright