Negli ultimi tempi, la Corte di Cassazione ha sollevato un allarme che ha scosso il contesto giuridico: l’emergere delle cosiddette “sentenze fantasma”, decisioni apparentemente legittime ma basate su precedenti inesistenti o citazioni errate, spesso riconducibili all’uso improprio di strumenti di intelligenza artificiale. Il fenomeno, reso noto da alcuni casi recenti, tra cui quelli verificatisi presso il TAR Lombardia e il Tribunale di Firenze, mette in evidenza un nodo cruciale della giustizia contemporanea. Il caso lombardo ha riguardato un legale che, nel presentare un ricorso, avrebbe citato sentenze inesistenti o non pertinenti, costringendo i giudici a verifiche superflue e onerose. Il TAR ha definito la condotta “sleale”, rilevando come l’omessa verifica delle fonti rappresenti una grave mancanza di diligenza professionale. A Firenze, un altro episodio simile ha portato il tribunale a riconoscere il “disvalore dell’omessa verifica” di sentenze generate dalle AI, pur escludendo la configurabilità di dolo in assenza di danno concreto: la Cassazione, con un recente intervento, ha mostrato dubbi su una decisione d’appello fondata su “principi di legittimità non affermati”, segno che il problema delle fonti inesatte non riguarda più solo gli avvocati, ma può insinuarsi anche nei livelli più alti del sistema giudiziario. Alla base del fenomeno si colloca il noto problema delle “allucinazioni” dell’intelligenza artificiale: l’AI, infatti, può generare testi perfettamente coerenti dal punto di vista linguistico, ma privi di riscontro nella realtà. I modelli linguistici predittivi, come i Large Language Models, non verificano la veridicità delle informazioni, ma producono la sequenza di parole statisticamente più probabile, con l’obiettivo di mantenere fluidità e coerenza discorsiva.
In ambito legale, le conseguenze di queste allucinazioni sono particolarmente gravi: la citazione di precedenti o di norme inesistenti mina la credibilità della giustizia e compromette il principio di certezza del diritto. Il rischio è che un testo perfettamente plausibile, corredato di numeri di sentenza e riferimenti apparentemente autentici, passi inosservato, specie a chi non effettua un controllo accurato: la responsabilità ultima non è dell’AI, ma dell’essere umano che la utilizza senza verifica critica. I sistemi generativi sono strumenti di supporto, non sostituti del ragionamento giuridico. Come ha sottolineato la giurisprudenza italiana, la firma su un atto processuale attribuisce al sottoscrittore la piena responsabilità del suo contenuto, indipendentemente dallo strumento usato per redigerlo. La diligenza, il controllo delle fonti e la verifica dei precedenti restano doveri non delegabili, tanto per gli avvocati quanto per i giudici.
Il problema, dunque, non è tecnologico ma formativo. L’allarme lanciato dalla Cassazione riflette una lacuna nella preparazione degli operatori del diritto sull’uso consapevole dell’intelligenza artificiale. È necessario un percorso di alfabetizzazione digitale e giuridica che consenta di comprendere i limiti strutturali dei modelli generativi e di applicare protocolli di verifica sistematica delle informazioni prodotte. A livello internazionale, diversi ordinamenti hanno già intrapreso questa strada. Negli Stati Uniti, dopo il celebre caso Mata v. Avianca, nel 2023, la magistratura ha imposto agli avvocati un obbligo etico di disclosure sull’uso dell’AI nei propri atti. In Canada, la Bar Association ha elaborato linee guida etiche per i professionisti del diritto, mentre nel Regno Unito è stata pubblicata una guida ufficiale che ribadisce la responsabilità personale degli utenti di AI. L’Unione Europea, con l’AI Act, classifica l’impiego dell’AI nel settore giudiziario come “ad alto rischio”, imponendo trasparenza, tracciabilità e supervisione umana (anche l’Italia, con la recente Legge n. 132/2025, ha introdotto un obbligo di informazione per i professionisti che utilizzano strumenti di intelligenza artificiale, avvicinandosi così alle prassi internazionali).
In definitiva, l’emergere delle “sentenze fantasma” non rappresenta un fallimento dell’AI, ma un banco di prova per la maturità del sistema giuridico di fronte all’innovazione. L’intelligenza artificiale non ha inventato l’imprecisione nel diritto, l’ha soltanto resa più evidente, lasciando meno spazio all’approssimazione e alla superficialità.
Scrivi un commento
Devi accedere, per commentare.