L’intelligenza artificiale è senza dubbio uno degli elementi distintivi dell’industria 4.0 e pone quesiti interessanti non solo da un punto di vista economico ma anche giuridico. 

Se, ad esempio, si utilizzano sistemi di AI in grado di gestire interazioni con soggetti terzi, si accetta anche implicitamente il fatto che da tali interazioni possano conseguire effetti giuridici, che devono essere necessariamente ricondotti ad un soggetto di dirittodal momento che le AI non sono ancora considerate tali. 

Quella dell’imputazione di responsabilità delle AI è un’area in cui inizia ad essere urgente una riflessione e un intervento normativo. Ad esempio, in tema di responsabilità per i reati commessi mediante l’impiego di strumenti informatici, comincia a farsi strada l’opinione secondo cui lo strumento elettivo per giungere all’imputazione delle responsabilità penali provenienti dall’uso delle tecnologie citate sia la responsabilità ex d.lgs. 231/2001 della persona giuridica titolare del sistema di AI che ha “commesso” il fatto di reato. 

Come noto, iD.Lgs. 231/2001 ha introdotto la responsabilità amministrativa per società, enti e organizzazioni, con o senza personalità giuridica, prevedendo la responsabilità delle aziende per reati compiuti da amministratori, o dipendenti nell’interesse dell’azienda stessa. Per essere conformi alla normativa, i soggetti interessati devono dotarsi di modelli di gestione idonei alla prevenzione dei reati, un sistema di gestione dei rischi (definito comunemente “risk management”) sviluppato in due fasi: in primo luogo si osserva l’identificazione dei rischi ed in seguito la creazione di precise procedure volte a contenerli 

Alla luce delle innovazioni relative alle intelligenze artificiali, vista la potenziale introduzione, da parte delle imprese, di nuovi rischi correlati ai modelli di organizzazione e gestione, è necessaria una continua evoluzione dei modelli di prevenzione e gestione ex d.lgs. 231/2001 adottati. 

In uno scenario sempre più influenzato dalle nuove tecnologie, per connettere, e in qualche modo conciliare, la tecnologia con il diritto, è indispensabile l’utilizzo di sistemi informatici per standardizzare e certificare i modelli 231. 

Infatti, per valutare l’esclusione della responsabilità dell’ente ex art. 6 della norma in oggetto, una delle possibili attività rilevanti è l’adozione di software o procedure informatiche per facilitare ed attuare concretamente i modelli previsti: software e AI che aiutano altri programmi ad attuare modelli di comportamento, spesso contrapposti ad altri programmi, utilizzati ad esempio nel caso di cyber-attacchi che mirano a dati di utenti o clienti di un’azienda. Tali programmi servono quindi per scongiurare l’applicazione di sanzioni amministrative per aziende e manager, una vera e propria certificazione di intenti. 

Questa attività è ulteriormente interessante in quanto rivelatrice di una modalità prevalentemente tecnica di ragionare che si sta per osmosi trasferendo anche al diritto: le norme non indicano più il livello minimo di attività necessarie per non vedersi imputati o coinvolti in un fatto di reato, ma stabiliscono che i soggetti facciano di tutto per dimostrare la loro conformità ai massimi standard di sicurezza e di tutela. Questa concezione spingerà dunque le aziende a non accontentarsi degli standard di sicurezza raggiunti, ma al contrario è da stimolo per un continuo aggiornamento e adeguamento dei modelli adottati, miglioramento reso possibile anche dalle AI.