Stephen Hawking, in tempi non sospetti, affermava che “nell’arco dei prossimi cento anni, l’intelligenza dei computer supererà quella degli esseri umani” ed avvertiva inoltre che “quando questo accadrà, dovremo assicurarci che i computer condividano i nostri stessi obiettivi”.

Ecco, quel momento sembra avvicinarsi sempre di più e irrompere nel nostro quotidiano sotto forma di “Intelligenza Artificiale” (AI, Artificial Intelligence).

Prima di inoltrarci negli scenari sopra preannunciati ed analizzare gli ambiti in cui questo avviene già o avverrà nei prossimi anni, è doveroso fare una breve premessa cercando di definire cosa si intende per Intelligenza Artificiale (AI).

Quanto segue non vorrà essere un’enucleazione esaustiva né un’univoca definizione; l’AI, difatti, permea molti aspetti della nostra realtà e, come un liquido, si adatta a diversi contesti tale da renderne difficoltosa un’unica definizione.

Può sostenersi, in senso generale, che per Intelligenza artificiale si intende “l’abilità di un sistema tecnologico di risolvere problemi o svolgere compiti e attività tipici della mente e delle abilità umane. Nello specifico “guardando al settore informatico, potremmo identificare l’AI – Artificial Intelligence- come la disciplina che si occupa di realizzare macchine (hardware e software)” in grado non solo di “agire” autonomamente (risolvere problemi, compiere azioni, ecc.) ma altresì capaci di migliorarsi imparando tecnicamente e letteralmente dai propri “dati” (c.d. machine learning).

Ciò premesso è evidente che siamo di fronte a una lenta, quanto inesorabile, trasformazione della nostra realtà e del modo di vederla e viverla.

Ciò, però, non deve destare sospetti o creare paure poiché – soprattutto in Europa- esistono una serie di paletti che sono in grado di arginare i “pericoli” che l’AI potrebbe generare; l’Europa infatti si è molto interrogata sul contesto normativo ed etico nel quale far evolvere l’AI e sulle sue implicazioni.

Ma quali potrebbero essere i pericoli? E Perché è ormai assolutamente indispensabile che il diritto e l’informatica crescano permeandosi l’uno dell’altro?

Andiamo con ordine.

Il 4 dicembre scorso la European Commission for the Efficiency of Justice- CEPEJ ha adottato la prima carta etica europea per l’utilizzo dell’intelligenza artificiale nel settore dell’amministrazione della giustizia.

Tale Carta assume un valore nuovo e rilevante, mai prima d’ora era stato dettagliato un documento del genere soprattutto in tale settore: la sfida, nuova e avvincente, rivolta a tutti gli “operatori” del settore, è quella di riuscire ad integrare l’AI e tutti i suoi corollari con gli strumenti del diritto.

Ciò che emerge da questa nuova normativa è che va si incoraggiato l’uso di strumenti e servizi dell’AI, ma ciò deve avvenire, imprescindibilmente, nel rispetto dei principi che vengono enucleati in questo nuovo atto normativo.

Si profilano pertanto 5 principi generali che devono costituire linee guida nell’applicazione dell’AI:

  1. Rispetto dei diritti fondamentali: al fine di garantire che gli strumenti e principi dell’AI siano conformi e aderenti a quanto statuiti ai diritti fondamentali;
  2. Non discriminazione: per prevenire ogni forma di discriminazione;
  • Qualità e sicurezza: nel processare dati e decisioni;
  1. Trasparenza, Imparzialità ed Equità;
  2. Principio dell’”under user control”: preservare la centralità e la libertà di scelta dell’utente.

Ma cosa prevedono analiticamente e concretamente tali principi? Nel prossimo articolo ci occuperemo proprio di questo: analizzeremo il contenuto della prima carta etica europea per l’utilizzo dell’intelligenza artificiale.

 

Leggi tutti gli articoli della rubrica