Il Parlamento europeo ha approvato il 13 marzo 2024 il suo storico AI Act, ossia l’ampia legislazione che mira a contrastare i rischi derivanti dalla tecnologia in rapida evoluzione. Dopo il Digital Market e il Digital Services Acts del 2022, l’AI Act è l’ultima legislazione correlata alla tecnologia approvata sotto il Parlamento e la Commissione europei del 2019-24, nell’ambito della loro missione di creare un’”Europa adatta all’era digitale“.

L’Unione Europea ha fatto storia diventando la prima al mondo a implementare normative sull’Intelligenza Artificiale attraverso l’AI Act, approvato dal Parlamento europeo con una schiacciante maggioranza, la scorsa settimana. Il testo è stato sostenuto da 523 voti favorevoli, con soli 46 contrari e 49 astenuti. Brando Benifei, relatore per l’AI Act presso il Parlamento europeo e capodelegazione del Partito Democratico, ha celebrato l’evento come una giornata storica, dichiarando che “la prima legge al mondo sull’intelligenza artificiale è finalmente realtà”, di fatto, ha espresso soddisfazione per il risultato ottenuto e per l’ampia maggioranza raggiunta, sottolineando l’importanza di concentrarsi ora sull’attuazione delle normative, sugli investimenti nel settore, sulla condivisione delle capacità dei supercomputer e sulla collaborazione con partner internazionali, al fine di promuovere un modello di sviluppo dell’IA che ponga l’essere umano al centro.

Il contenuto principale dell’AI Act prevede la suddivisione dei sistemi di apprendimento automatico in quattro categorie principali in base al rischio potenziale che presentano per la società. I sistemi considerati ad alto rischio saranno soggetti a regole severe che dovranno essere rispettate prima del loro ingresso sul mercato dell’Unione Europea. Le normative generali sull’IA entreranno in vigore un anno dopo l’approvazione, nel maggio 2025, mentre gli obblighi per i sistemi ad alto rischio saranno implementati entro tre anni. Tali sistemi saranno supervisionati dalle autorità nazionali, con il supporto di un ufficio appositamente creato dalla Commissione europea. Gli Stati membri sono ora chiamati a istituire agenzie nazionali di supervisione, con un periodo di 12 mesi per nominare tali organi di controllo. Cecilia Bonefeld-Dahl, responsabile dell’organizzazione commerciale dell’Unione Europea Digital Europe, ha evidenziato la sfida che l’UE deve affrontare nel settore dell’IA, sottolineando che attualmente solo il 3% degli unicorni mondiali dell’IA proviene dall’UE, mentre gli investimenti privati nel settore sono molto superiori negli Stati Uniti e in Cina. Ha inoltre sottolineato che entro il 2030 ci si aspetta che il mercato globale raggiunga i 1.500 miliardi di dollari, sottolineando l’importanza per le aziende europee di accedervi senza essere ostacolate dalla burocrazia.

Nel complesso, il legislatore europeo si preoccupa del rapido sviluppo dell’Intelligenza Artificiale e delle sue implicazioni sociali, politiche e culturali, temendo che in un mercato libero come quello dell’Unione Europea possano emergere problematiche difficilmente gestibili, minacciando la credibilità delle nuove tecnologie e danneggiando il mercato interno. Questa preoccupazione è accentuata dalla frammentazione politica ed economica dell’UE, che richiede un coordinamento delle legislazioni nazionali per evitare conflitti e raggiungere un mercato unico e armonizzato.

I ritardi nello sviluppo delle tecnologie digitali e dei semiconduttori rappresentano una motivazione fondamentale per l’azione legislativa anticipata sull’IA. Gli sforzi dell’UE, come gli IPCEI sulla microelettronica e sul cloud, mirano a colmare il divario con altre potenze mondiali e stimolare la crescita delle filiere digitali. Tuttavia, l’UE vuole evitare una crescita disordinata e non regolamentata dell’IA. In definitiva, l’AI Act rimane un tentativo finalizzato alla definizione di regole e linee guida per lo sviluppo dell’IA nell’UE, fornendo certezza giuridica per favorire gli investimenti e l’innovazione, e prevenire la frammentazione del mercato interno. Gli obiettivi specifici includono la creazione di un mercato unico per applicazioni di IA lecite, sicure e affidabili, e la promozione dell’innovazione, mentre si lascia agli Stati membri il compito di designare autorità di controllo per attuare i requisiti legislativi e promuovere l’innovazione all’interno dei propri confini nazionali.