L’approvazione all’unanimità del AI Act da parte di tutti i Paesi dell’Unione Europea il 2 febbraio 2024 rappresenta un passo significativo verso l’introduzione del primo quadro legislativo globale sull’intelligenza artificiale. Dopo un lungo processo di negoziazione, culminato con l’accordo politico a dicembre, il testo del AI Act è stato finalmente approvato, preparandosi per la votazione finale il 24 aprile 2024. Questo regolamento mira a definire le norme per l’uso responsabile e innovativo dell’IA, garantendo nel contempo il rispetto dei diritti umani e dei principi democratici. Tra i suoi punti chiave, vi è la regolamentazione dei sistemi di IA ad alto rischio, l’introduzione di nuove misure di governance e una maggiore protezione dei diritti individuali tramite valutazioni d’impatto. Nonostante le critiche e le opposizioni, l’Unione Europea è riuscita a superare gli ostacoli, evidenziando il ruolo cruciale dell’Italia nel processo di negoziazione. L’adozione del AI Act segna un momento storico e posiziona l’UE come leader globale nella regolamentazione dell’IA, promuovendo un approccio che mira a bilanciare l’innovazione con la protezione dei cittadini.

Brando Benifei, l’eurodeputato che ha guidato il negoziato parlamentare per l’approvazione del AI Act, esprime una profonda soddisfazione per il via libera unanime dei Paesi dell’Unione Europea al testo finale del regolamento sull’Intelligenza Artificiale. Questo risultato, ottenuto dopo più di due anni di intenso lavoro e negoziazioni, rappresenta un importante traguardo per l’Unione Europea. Benifei sottolinea l’importanza di questo passo avanti, considerando il contesto di incertezza e di pressioni provenienti da grandi imprese, principalmente extra-europee, e da alcuni ministri che avrebbero preferito utilizzare le tecnologie legate all’IA per fini di sorveglianza e controllo sociale senza adeguati vincoli normativi.

Oltre a celebrare il successo ottenuto, Benifei evidenzia l’importanza di sostenere l’applicazione anticipata delle regole previste dal AI Act, soprattutto per contrastare fenomeni come la disinformazione e i deepfake, che rappresentano una minaccia per le democrazie, specialmente in un anno elettorale cruciale. L’entrata in vigore del AI Act promette di garantire una maggiore sicurezza nell’uso quotidiano delle nuove tecnologie, sia nel contesto lavorativo che nelle istituzioni. Passando agli impatti dell’AI Act, è importante considerare prima gli effetti sugli individui. La classificazione e la regolamentazione dei diversi tipi di intelligenza artificiale sono finalizzate a proteggere le persone da potenziali rischi. Le tecnologie basate sull’IA devono garantire trasparenza nel loro funzionamento, consentire agli utenti di controllare e rimuovere i propri dati, rispettare i diritti umani e i livelli di qualità stabiliti, oltre a essere sottoposte a verifiche periodiche.

Tuttavia, alcuni temono che l‘AI Act possa frenare lo sviluppo dell’IA, rallentando l’innovazione e la commercializzazione dei servizi basati su di essa, il che potrebbe influire sulla competitività delle aziende europee attive in questo settore. È quindi cruciale trovare un equilibrio che dia priorità alla protezione degli individui senza compromettere l’innovazione e la competitività delle imprese. Infine, per quanto riguarda i prossimi passi, il AI Act è in procinto di raggiungere il traguardo finale dopo anni di preparazione. Le commissioni del Parlamento europeo prevedono di adottare il regolamento sull’IA il 13 febbraio, seguite da una votazione in seduta plenaria ad aprile, con l’adozione formale fissata per il 24 aprile 2024. Una volta approvata, la legge sull’IA entrerà in vigore 20 giorni dopo la sua pubblicazione nella Gazzetta ufficiale europea, con un periodo di attuazione differita entro i due anni successivi.