Il Garante della Privacy negli scorsi giorni ha lanciato un decalogo per la realizzazione di servizi sanitari a livello nazionale attraverso sistemi di intelligenza artificiale. Trasparenza dei processi decisionali, decisioni automatizzate sotto il controllo umano, non discriminazione algoritmica: sono questi i tre principi chiave individuati dall’Autorità sulla base del Regolamento e alla luce della giurisprudenza del Consiglio di Stato. Sulla base delle indicazioni dell’Autorità, il paziente deve avere il diritto di conoscere, anche attraverso campagne di comunicazione, se esistono e quali processi decisionali esistono basati su trattamenti automatizzati effettuati attraverso strumenti dell’intelligenza artificiale e ricevere informazioni chiare sulla logica utilizzata per arrivare a tali decisioni. Si cita il fatto che per i trattamenti di dati, avvenuti mediante tecnologie di intelligenza artificiale, “è necessario che essi siano previsti da uno specifico quadro normativo” Che una valutazione d’impatto sulla protezione dei dati è sempre necessaria come previsto dall’articolo 35 del Regolamento che indica che “quando un tipo di trattamento, in particolare quando comporta l’uso di nuove tecnologie, considerando la natura, l’oggetto, il contesto e le finalità del trattamento, può presentare un rischio elevato per i diritti e le libertà delle persone fisiche”.

Dunque, il processo decisionale deve includere una supervisione umana che consenta al personale sanitario di verificare, convalidare o confutare il trattamento effettuato dagli strumenti di intelligenza artificiale. È opportuno che il titolare del trattamento utilizzi sistemi di IA affidabili che riducano gli errori dovuti a cause tecnologiche o umane e ne verifichi periodicamente l’efficacia, attuando misure tecniche e organizzative adeguate. Ciò avviene, con l‘obiettivo di mitigare i potenziali effetti discriminatori che il trattamento di dati inesatti o incompleti potrebbe avere sulla salute della persona. Un esempio è il caso americano, richiamato dal Garante nel decalogo, riguardante un sistema di intelligenza artificiale utilizzato per stimare il rischio sanitario di oltre 200 milioni di americani. Gli algoritmi tendevano ad assegnare un livello di rischio inferiore ai pazienti afroamericani a parità di condizioni di salute, a causa della metrica utilizzata, basata sulla spesa sanitaria media individuale, meno elevata per la popolazione afroamericana, con la conseguenza di negare a quest’ultima accesso a cure adeguate.

Dati non aggiornati o inesatti, sottolinea l’Autorità, potrebbero influenzare anche l’efficacia e la correttezza dei servizi che i sistemi di IA intendono realizzare. Particolare attenzione è stata posta dal Garante all’idoneità della base giuridica per l’utilizzo dell’intelligenza artificiale. Il trattamento di dati sanitari mediante tecniche di IA, effettuato per motivi di interesse pubblico nel settore sanitario, deve essere previsto da uno specifico quadro normativo, che individui misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi degli interessati.

Nel rispetto del quadro normativo di settore, il Garante ha inoltre sottolineato la necessità che, prima di procedere al trattamento dei dati sanitari attraverso l’IA nazionale, venga effettuata una valutazione d’impatto con l’obiettivo di individuare misure idonee a tutelare i diritti e le libertà dei pazienti e garantire il rispetto dei principi del Regolamento UE. Infatti, un sistema nazionale centralizzato che utilizza l’IA determina un trattamento sistematico su larga scala di dati sanitari che rientrano nei dati “ad alto rischio”, per i quali la valutazione di impatto è obbligatoria e deve essere effettuata a livello centrale per consentire un esame complessivo della situazione. Nella descrizione dei trattamenti è inoltre necessario che le logiche algoritmiche utilizzate al fine di “generare” i dati e i servizi, le metriche utilizzate per addestrare il modello, i controlli effettuati per verificare la presenza di eventuali bias e la possibilità del loro correzione.