I leader dei Paesi del G7 hanno concordato un primo Codice di Condotta sull’Intelligenza Artificiale (IA) per promuovere l’adozione di IA sicura e affidabile: esso fornisce linee guida volte a mitigare i potenziali rischi e garantire la trasparenza nell’uso dell’IA e si rivolge principalmente alle aziende che sviluppano tecnologie di intelligenza artificiale ed è un accordo volontario che contribuirà a rafforzare le future regole dell’Unione Europea. I suoi obiettivi principali consistono nel promuovere l’adozione di IA sicura, protetta e affidabile a livello globale e aiutare le aziende a sfruttare appieno i benefici, al tempo stesso consentendo loro di valutare e gestire i potenziali rischi.

Questo codice è stato sviluppato a seguito dell’iniziativa “Processo di Hiroshima sull’IA” lanciata durante il G7 del 19 maggio 2023 per stabilire criteri di sicurezza per i sistemi avanzati di IA a livello global e tale iniziativa si colloca all’interno di un contesto più ampio di discussioni internazionali riguardo alla protezione dei sistemi di IA, che coinvolgono organizzazioni come l’OCSE, il Partenariato Globale sull’Intelligenza Artificiale (GPAI) e il Consiglio per il Commercio e la Tecnologia UE-USA, oltre ai Partenariati Digitali dell’UE.

Di fatto tale processo ha portato all’identificazione di undici Principi Guida per lo sviluppo e l’applicazione dell’IA, i quali hanno costituito la base per la formulazione del Codice di Condotta rivolto agli sviluppatori. Tanto questi principi quanto il Codice di Condotta saranno adottati su base volontaria dalle aziende e contribuiranno a rafforzare le future regole previste dal regolamento europeo sull’IA, il quale è ancora in corso di elaborazione. I principi guida adottati dai leader del G7 forniscono indicazioni alle organizzazioni coinvolte nello sviluppo, nella distribuzione e nell’uso di sistemi avanzati di IA, come modelli di fondazione e IA generativa: essi mirano a garantire la sicurezza e l’affidabilità della tecnologia, a preservare i principi democratici e il rispetto della legge e a mantenere l’essere umano al centro del processo di sviluppo dell’IA. Le linee guida comprendono impegni per affrontare rischi e abusi, identificare vulnerabilità, promuovere la condivisione responsabile delle informazioni, la segnalazione di incidenti, investimenti in sicurezza informatica e un sistema di etichettatura per consentire agli utenti di riconoscere i contenuti generati dall’IA.

Precisamente, gli 11 principi alla base del Codice di Condotta internazionale sull’Intelligenza Artificiale (IA) consistono nelle seguenti azioni/operazioni:

  • Assumere misure adeguate durante lo sviluppo dei sistemi avanzati di IA, inclusa l’identificazione, la valutazione e la mitigazione dei rischi lungo tutto il ciclo di vita dell’IA. Questo include test interni ed esterni indipendenti e l’applicazione di misure per affrontare i rischi e le vulnerabilità rilevate.
  • Prevenire l’abuso dei modelli di utilizzo dell’IA dopo la loro distribuzione e commercializzazione, promuovendo la segnalazione di problemi relativi alla sicurezza e alla vulnerabilità sia internamente che esternamente.
  • Fornire pubbliche informazioni sulle capacità, i limiti e gli utilizzi appropriati e inappropriati dei sistemi avanzati di IA per garantire maggiore trasparenza e responsabilità.
  • Favorire la condivisione responsabile delle informazioni e la segnalazione di incidenti tra le organizzazioni che sviluppano sistemi avanzati di IA e coinvolgere l’industria, i governi, la società civile e il mondo accademico.
  • Sviluppare politiche di governance e gestione del rischio basate su un approccio basato sul rischio, comprese politiche sulla privacy e misure di mitigazione.
  • Implementare solide misure di sicurezza, comprese la sicurezza fisica, la cybersecurity e la protezione da minacce interne durante tutto il ciclo di vita dell’IA.
  • Creare meccanismi affidabili di autenticazione e provenienza dei contenuti generati dall’IA, come il watermarking, se tecnicamente fattibile.
  • Prioritizzare la ricerca e gli investimenti in misure di mitigazione per affrontare i rischi per la società e la sicurezza.
  • Sviluppare sistemi avanzati di IA per affrontare sfide globali, come il cambiamento climatico, la salute globale e l’istruzione.
  • Promuovere lo sviluppo e l’adozione di standard tecnici internazionali per l’IA.
  • Implementare misure adeguate per la protezione dei dati personali e della proprietà intellettuale, comprese quelle per prevenire i bias degli algoritmi.

Alla luce di tali elementi, i leader del G7 invitano le organizzazioni sviluppatrici di IA a impegnarsi ad applicare il Codice di Condotta internazionale, con annunci dei primi firmatari in futuro.