La nozione di affidabilità è al centro dell’approccio etico europeo all’intelligenza artificiale. Progettare, validare e sviluppare una Trustworthy AI (TAI) è anche l’obiettivo del progetto BRIO, finanziato dal Ministero dell’Università e della Ricerca. Il progetto BRIO mira a ricercare soluzioni in grado di evitare le distorsioni cognitive, mitigare il rischio ed evitare l’opacità. Più nello specifico, il progetto è incentrato sullo sviluppo di criteri di progettazione per la TAI e basati su analisi filosofiche della fiducia insieme alla loro formalizzazione simbolica e alla loro implementazione tecnica. L’analisi delle componenti epistemologiche e etiche della fiducia, primo obiettivo del progetto BRIO, è condotta dal gruppo META (Social Sciences and Humanities for Science and Technology) del Politecnico di Milano. Questa parte del progetto è coordinata dalla Prof.ssa Viola Schiaffonati del Dipartimento di Elettronica, Informazione e Bioingegneria e dal Prof. Daniele Chiffi del Dipartimento di Architettura e Studi Urbani.
Secondo le linee guida etiche per la TAI (HLEGAI 2019), la prevenzione del danno è uno dei principi fondamentali per ottenere fiducia, insieme al rispetto per l’autonomia, la trasparenza e la spiegabilità. Ci sono molti modi in cui la prevenzione del danno può essere realizzata concretamente ma uno degli obiettivi del progetto BRIO è concentrarsi sull’identificazione e sulla riduzione dei rischi a livello sia di dati sia di algoritmi. Il rischio si può definire in modi diversi. Una definizione classica concepisce il rischio come la probabilità di un evento avverso in congiunzione con le sue conseguenze in uno specifico lasso di tempo. Questa concezione classica del rischio è al cuore della valutazione probabilistica del rischio, dove l’affidabilità delle stime probabilistiche rende possibile prevedere e valutare le conseguenze di un evento avverso. Purtroppo, la valutazione probabilistica dei rischi connessi alla tecnologia non è sempre possibile ed è senz’altro molto difficile nel caso delle tecnologie basate sull’intelligenza artificiale, che operano prevalentemente in condizioni di incertezza e rischio elevato.
La capacità di gestire l’incertezza è un modo per incrementare la fiducia nell’intelligenza artificiale. La fiducia sta diventando un fattore di primaria importanza nelle nostre società, in cui molte decisioni che influenzano la vita delle persone sono prese sempre più spesso con il supporto di sistemi basati sull’intelligenza artificiale. Inoltre, né linee guida etiche né framework sono sufficienti, in quanto molto astratti e a volte privi di indicazioni concrete su come affrontare problemi specifici. Una reale integrazione dell’analisi concettuale – che sfrutti i punti di forza dell’epistemologia e dell’etica – con la progettazione di soluzioni adeguate è necessaria. Il progetto BRIO mira a realizzare questa integrazione e il riconoscimento della complessità intrinseca di questi elementi, affrontandoli con molteplici strumenti concettuali, rappresenta un primo passo in questa direzione.