L’AI Act, che stabilisce diverse regole basate sul rischio per le tecnologie, sta attraversando l’ultima fase del processo legislativo, con le principali istituzioni dell’UE impegnate nei triloghi per definire le disposizioni finali e si tratta di una fase complessa, soprattutto a causa dei diversi interessi nazionali rappresentati dal Consiglio.

Nello specifico, la riunione tecnica dell’UE sul regolamento sull’IA del 10 novembre 2023 è stata interrotta poiché i principali paesi dell’Unione hanno richiesto il ritiro dell’approccio proposto per i foundation model. L’intera approvazione dell’AI Act è ora a rischio, poiché la legislazione è nella fase finale del processo legislativo, con le principali istituzioni dell’UE impegnate nei triloghi per definire le disposizioni finali. Il punto critico sono i foundation model, specialmente con l’emergere di ChatGPT basato su GPT-4 di OpenAI. Durante il trilogo del 24 ottobre, sembrava esserci consenso su regole graduali per i foundation model, ma alcuni paesi, tra cui Francia, Germania e Italia, si sono opposti a qualsiasi regolamentazione durante una riunione del Gruppo di lavoro sulle telecomunicazioni. Mistral, una start-up francese, ha guidato l’opposizione, sostenuta dall’ex segretario di Stato francese per il digitale, Cedric O, mentre Aleph Alpha in Germania ha esercitato pressioni. La presidenza spagnola ha proposto un ripensamento delle disposizioni sui foundation model, ma ciò è stato contestato come una “regolamentazione nella regolamentazione“. Il Parlamento europeo ha concluso l’incontro poiché la regolamentazione dei foundation model è una “linea rossa“, e ora la palla passa al Consiglio. Gli sforzi della presidenza spagnola per mediare sono complicati, e alcuni Stati membri sono contrari alla legge sull’AI in toto, considerandola eccessivamente regolamentante. Se non si raggiunge un accordo entro dicembre, l’intera legge potrebbe essere a rischio, con ripercussioni sull’UE nel panorama internazionale della regolamentazione dell’IA.

Inoltre, recentemente, alcuni Paesi, tra cui l’Italia, stanno ritirando il consenso precedentemente espresso sulle regole per l’IA generativa, con l’intenzione di bloccare i negoziati fino a quando non verrà raggiunto un nuovo accordo per una completa deregolamentazione. In una riunione tecnica del Consiglio dei ministri dell’UE, rappresentanti di Francia, Germania e Italia si sono opposti a qualsiasi tipo di regolamentazione dei foundation models. Questa nuova posizione sembra essere guidata dagli sforzi lobbystici di una startup francese, Mistral, sostenuta dall’ex segretario di Stato francese per il digitale, Cedric O, e l’azienda leader tedesca nel settore dell’IA, Aleph Alpha. Gli interessi dell’Italia appaiono meno chiari e trasparenti rispetto ad altri paesi, senza una chiara difesa delle imprese nazionali. Questa situazione è notevole, considerando il costante interesse del governo italiano e la creazione di due commissioni, una presieduta da Giuliano Amato e l’altra nominata dal Sottosegretario all’Innovazione Alessio Butti, entrambe incaricate di fornire pareri e indirizzi sulla regolamentazione dell’IA e sulla strategia nazionale in questo settore.

Dunque negli ultimi mesi, l’evoluzione dell’intelligenza artificiale, in particolare quella generativa e dei foundation model, è stata seguita come una sorta di soap opera, con cambi di leadership in OpenAI e dinamiche che ricordano la serie Succession. Tuttavia, dopo l’uscita di GPT-3, alcuni ricercatori hanno chiesto una pausa nello sviluppo di IA avanzate per comprendere meglio le potenzialità e i rischi. Essenzialmente, alcuni paesi, inclusa l’Italia, sembrano fare marcia indietro, opponendosi a regolamentazioni proposte precedentemente. Questa nuova posizione è guidata da lobby come Mistral in Francia e Aleph Alpha in Germania. Mentre l’Italia sembra impegnata nell’intelligenza artificiale a livello nazionale, la sua posizione in sede europea solleva domande. Il governo italiano, nonostante commissioni e dichiarazioni, non ha una posizione chiara sulle decisioni politiche legate alla tecnologia. La proposta di regolamentazione bloccata dall’Italia avrebbe applicato obblighi specifici per i grandi attori della tecnologia, offrendo benefici a migliaia di implementatori. Organizzazioni italiane hanno inviato una lettera a più di 500 attori, inclusi enti governativi, chiedendo un riposizionamento dell’Italia e una maggiore trasparenza sulla sua posizione in Parlamento rispetto alle normative sull’intelligenza artificiale.