Lo sviluppo tecnologico connesso all’intelligenza artificiale pone oggi agli interpreti, alcuni problemi inediti, specialmente relativi alla responsabilità per danni causati dai c.d. robot: la complessità delle tecnologie incide, spesso, negativamente sulla comprensione dei processi alla luce dei quali è stata presa una determinata “decisione”. I processi non soltanto sono “nebulosi” ex post, ma sono anche imprevedibili ex ante, dal momento che si reputano disegnati per rispondere sia a stimoli predefiniti che nuovi, identificati autonomamente dagli algoritmi.

L’imprevedibilità dipende altresì dall’apertura dei sistemi, mettendone in luce la vulnerabilità.
La complessità e incompletezza, l’opacità e imprevedibilità, apertura e vulnerabilità sono tutte caratteristiche che mettono in crisi gli attuali modelli della responsabilità, in particolare quelli fondati sul criterio di imputazione della colpa.

Tale scenario deriva soprattutto dalle difficoltà probatorie che un soggetto danneggiato deve affrontare per dimostrare la sussistenza dei presupposti della responsabilità, specialmente con riguardo all’individuazione del responsabile, l’accertamento della colpa e del nesso causale.

Quella che costituisce forse la caratteristica principale della nuova tecnologia digitale è la capacità di assumere decisioni autonome, conseguenti a un processo di adattamento self learning.

Tradizionalmente, il produttore/operatore di una macchina è ritenuto (moralmente e legalmente) responsabile delle conseguenze del suo funzionamento. Macchine autonome, basate su reti neurali, algoritmi genetici e architetture di agenti, possono generare una nuova situazione, in cui il produttore o l’operatore della macchina non è più in grado di prevedere il funzionamento della macchina, nel futuro prossimo, e quindi non può essere ritenuto moralmente responsabile o responsabile per esso.

Si inserisce qui la nozione di “gap di responsabilità” con l’intelligenza artificiale, la quale è stata originariamente introdotta nel dibattito filosofico per indicare la preoccupazione che “l’apprendimento degli automi” possa rendere più difficile o impossibile attribuire la colpa morale alle persone.

Basandosi sulla letteratura in filosofia morale e giuridica e sull’etica della tecnologia, il documento propone un’analisi più ampia e completa del divario di responsabilità. Il divario di responsabilità, si sostiene, non è un problema, ma un insieme di almeno quattro problemi interconnessi – lacune nella colpevolezza, responsabilità morale e pubblica, responsabilità attiva – causate da diverse fonti, alcune tecniche, altre organizzative, legali, etiche e sociale. Alcune lacune relative alla responsabilità possono verificarsi anche con i sistemi non di apprendimento.

Nel tempo, il dibattito si è evoluto sviluppato a livello internazionale e ha trovato un appoggio istituzionale nel Parlamento europeo, che nel 2017 ha approvato una Risoluzione di raccomandazioni alla Commissione “concernenti norme di diritto civile sulla robotica”. Raccomandazioni che hanno trovato risposta sin dalla Comunicazione del 25 aprile 2018 “L’intelligenza artificiale per l’Europa” con la quale la Commissione europea ha rilanciato analisi elaborate in precedenti comunicazioni sulle strategie per il mercato unico digitale.

Nel 2019, un gruppo di esperti ha pubblicato un Report, contenente alcuni elementi successivamente presentati nella Relazione della stessa Commissione (nel febbraio del 2020) nella “sulle implicazioni dell’intelligenza artificiale, dell’Internet delle cose e della robotica in materia di sicurezza e responsabilità” (allegato al Libro Bianco “sull’intelligenza artificiale).

Gli obiettivi che la Commissione intende perseguire sono improntati a criteri di efficienza:

  • Evitando che l’uso di tecnologie intelligenti, piuttosto che di ausiliari umani o di tecnologie convenzionali, possa comportare una diminuzione di sicurezza e di responsabilità (c.d. equivalenza funzionale);
  • Collocando nel modo maggiormente idoneo, i danni provocati dalle forme più moderne di intelligenza artificiale.

L’estensione della soggettività giuridica è una scelta normativa volta a individuare nuovi centri di imputazione, evitando di mettere in tensione il sistema della responsabilità civile.