Gli anni duemila hanno mostrato un crescente interesse per le tecnologie di intelligenza artificiale e gli investimenti in progetti relativi all’IA sono aumentati notevolmente negli ultimi anni. Ad esempio, dal 2016 il finanziamento delle start-up dell’IA ha superato ogni anno i 5 miliardi di dollari, ed è sempre più comune sentir parlare di IA.

Vivendo in un mondo ormai governato da algoritmi, bisogna però essere consapevoli di come questi gestiscono i diritti degli individui: i dati personali vengono infatti utilizzati per “far apprendere le macchine” ed occorre prestare somma attenzione a come viene condotto tale processo.

Anche perché i sistemi di IA vengono utilizzati non solo per semplificare la vita delle persone, come nel caso di tutte quelle operazioni intuitive a cui ormai non facciamo nemmeno più caso come il riconoscimento facciale dei nostri smartphone, ma anche per giudicarci.

Sono infatti ormai numerosi i sistemi giudiziari che consentono, ed anzi prevedono, l’utilizzo di programmi dotati di IA per determinare le condanne e le probabilità di recidiva degli individui sottoposti a giudizio.

Tuttavia, l’utilizzo dell’intelligenza artificiale non è sinonimo di infallibilità, come dimostra il recente caso Loomis.

Nel 2013, infatti, Eric Loomis era stato arrestato in Wisconsin per aver guidato un veicolo rubato collegato a una sparatoria e condannato a sei anni di carcere.

La pena decisa dalla Corte era stata suffragata dall’alta probabilità di recidiva attribuita al condannato, calcolata utilizzando un sistema denominato COMPAS (acronimo di Correctional Offender Management Profiling for Alternative Sanctions). Tuttavia, come risultato da indagini successive, il giudice che aveva applicato la condanna non era a conoscenza del metodo attraverso cui il sistema COMPAS aveva stabilito l’entità della pena, così come del peso decisivo per la quantificazione della stessa di parametri quali la razza, il sesso e l’estrazione sociale dell’imputato.

Il caso Loomis è diventato emblematico di una nuova sfida legata all’intelligenza artificiale: ossia del fatto se sia etico, o semplicemente prudente, affidare scelte importanti a sistemi di cui non si conoscono il funzionamento e i criteri di programmazione.

Idealmente, gli algoritmi dovrebbero fornire misure oggettive e basate sui dati per aiutare a guidare il processo decisionale: essi, infatti, dopo che sono stati inseriti degli input iniziali, apprendono autonomamente dal set di parametri forniti, eseguendo calcoli, analizzando risultati, ricomponendo nuovi modelli e ripetendo le analisi per affinare sempre di più i risultati ottenuti. Tuttavia, se nel set di dati iniziale sono compresi degli errori, gli algoritmi non fanno altro che replicarli, ritenendoli dati validi come tutti gli altri.

Oggi, il campo di equità algoritmica sta crescendo: i “data scientist” stanno sviluppando sempre più approcci tecnici per certificare e correggere impatti disparati negli algoritmi di machine learning.

Questo perché, mentre i primi sistemi reali di intelligenza artificiale erano facilmente interpretabili, negli ultimi anni si è assistito all’avvento di sistemi decisionali complessi, delle vere e proprie reti neurali stratificate, che presentano zone opache ma a cui affidiamo decisioni fondamentali, quali la guida autonoma, l’assistenza medica o ancora la possibilità di condannare o assolvere persone.

Per questo motivo si inizia a parlare di XAI, ovvero di Intelligenza artificiale esplicabile (in inglese eXplicable ArtificiaL Intelligence), come definita da Francisco Herrera, dell’Istituto andaluso di Data science e intelligenza computazionale dell’Università di Granada.

L’obiettivo della XAI è quello di creare un insieme di tecniche di machine learning che producano modelli più spiegabili, mantenendo un alto livello di performance, ossia di accuratezza nelle previsioni, modelli che consentano a noi esseri umani di capire, di fidarci in maniera appropriata e di governare effettivamente il processo di “risveglio delle macchine” in cui siamo già impegnati.