La Giustizia nell´era dell´AI: l´eterno dialogo tra innovazione tecnologica e istanze etiche
Modifica pagina
Angela Del Vecchio

Da qualche anno il Sistema Giustizia è protagonista di una vera e propria rivoluzione operata dai più sofisticati sistemi di Intelligenza Artificiale. L’imporsi, in particolare, della giustizia predittiva ha stimolato un vivace dibattito sulle sue implicazioni etiche e sulle possibili violazioni dei diritti umani fondamentali. Determinante si è dimostrato anche l’intervento concreto di tecnici e giuristi per lo sviluppo dell’informatica giuridica e per promuovere formazione professionale e innovazione tecnologica adeguate. Le istituzioni europee, intanto, stanno cercando di normare in maniera puntuale il fenomeno. Il nuovo IA Act è solo l’ultimo provvedimento adottato per far fronte ai rischi connessi all’utilizzo dei nuovi strumenti, ma rimangono ancora aperte questioni di grande importanza per il futuro dell’IA nell’amministrazione della giustizia.
ENG
For several years now, the Justice System has been undergoing a true revolution brought about by the most sophisticated Artificial Intelligence systems. The rise of predictive justice, in particular, has sparked a lively debate on its ethical implications and potential violations of fundamental human rights. The concrete intervention of technicians and jurists has also proven to be crucial for the development of legal IT and for promoting adequate professional training and technological innovation. Meanwhile, European institutions are trying to specifically regulate the phenomenon. The new AI Act is only the latest measure adopted to address the risks associated with the use of new tools, but questions of great importance for the future of AI in the administration of justice remain unanswered.Sommario: 1. L’Intelligenza artificiale tra tecnica, etica e diritti; 2. L’affermazione dell’Intelligenza Artificiale tra rigidi inverni e nuove primavere; 3. L’algoretica come antidoto al potere dell’algoritmo; 4. L’avvento e evoluzione dell’informatica giuridica: la giurimetria, la giuscibernetica e la giuritecnica; 5. La politica europea in tema di Intelligenza Artificiale; 6. Conclusioni.
1. L’Intelligenza artificiale tra, tecnica, etica e diritti
Nel luglio 2020, il gruppo di esperti incaricati dal Ministero dello Sviluppo Economico italiano ha redatto alcune «Proposte per una Strategia italiana per l’intelligenza artificiale» tese a supportare la produttività nazionale alla luce degli obiettivi di sviluppo sostenibile fissati dall’Agenda 2030 dell’ONU. In quel contesto, i redattori del documento hanno offerto una loro definizione di Intelligenza Artificiale descrivendola come «la disciplina che si occupa dello sviluppo di sistemi di software (spesso anche utilizzati in combinazione con hardware) che, dato un obiettivo complesso, sono in grado di agire nella dimensione fisica o virtuale in modo da percepire l’ambiente che li circonda, acquisire e interpretare dati e formulare decisioni basate sull’evidenza raccolta, al fine di raggiungere l’obiettivo prefissato»[1].
Così intesa, l’IA va dunque ricondotta a quel settore della scienza informatica che, con il ricorso, congiunto o disgiunto, ad hardware o software, adotta comportamenti intelligenti o propone decisioni. Cerca cioè di risolvere problemi complessi o svolgere mansioni proprie dell’intelletto umano[2].
Nel corso degli anni, l’IA si è molto evoluta, così come è profondamente mutato il contesto di riferimento. Negli anni ’80 del secolo scorso, filosofi come John Searle[3] ritenevano già necessario distinguere tra Intelligenza Artificiale debole, meramente riproduttiva (c.d. weak AI), specializzata nel problem-solving, nello svolgimento di determinati singoli compiti con assoluta precisione di esecuzione, seppur priva di capacità di apprendimento autonomo[4]; e Intelligenza Artificiale forte e cognitiva (c.d. strong AI), che si avvale, cioè, di calcolatori capaci di apprendere, comprendere il linguaggio, ragionare, sviluppare un pensiero[5]. Insomma, mentre dall’IA debole, più pragmaticamente e realisticamente, ci si attende solo che si comporti “come se fosse intelligente” nell’esecuzione di specifici compiti, per quanto riguarda l’IA forte, si può ipotizzare che essa arrivi ad acquisire una sua coscienza “simulando il funzionamento del cervello umano”[6].
Ma c’è di più: oggi si parla anche di Intelligenza Artificiale articolata (c.d. narrow AI), con cui si attribuisce alle macchine la capacità di elaborare un’enorme quantità di dati in ambiti specifici, grazie a un addestramento intensivo dei motori di ricerca. E si potrebbe addirittura giungere a forme di Super Intelligenza Artificiale (c.d. Artificial Super Intelligence - ASI), in grado, cioè, di superare qualsiasi attività intellettuale umana. Cosa che prefigurerebbe scenari inquietanti, perché potrebbe condurre alla perdita di controllo dell’IA da parte dell’uomo.
Il lento e articolato processo di affermazione dell’IA nella vita quotidiana di ogni cittadino, così come in ogni settore di attività umana, è continuamente influenzato dall’interesse di opinione pubblica, comunità scientifica, istituzioni pubbliche e mondo dell’imprenditoria privata per il valore aggiunto e gli innegabili benefici che il ricorso all’IA può apportare, sia in termini di organizzazione e gestione di ogni attività che si avvalga del supporto della IA, che di tempo e risultato. Ma, nel contempo, esigenze etiche sempre più diffuse continuano a porre al centro le persone e i loro bisogni: una visione antropocentrica dell’IA non può temere la sostituzione dell’uomo con le macchine, ma deve tendere a coniugare al meglio le istanze di innovazione e sviluppo con quelle di sostenibilità sociale e ambientale[7].
Com’è stato correttamente osservato, dunque, il concetto di Intelligenza Artificiale è elastico, ossia «si amplia e si restringe in base a quale teoria si vuole aderire e, soprattutto, in base al fatto che, per motivi culturali, spesso si è portati a sopravvalutare la scienza informatica che, comunque, mostra dei limiti logici-matematici e logici-deduttivi»[8].
Gli interrogativi di carattere etico-filosofico su un imminente capovolgimento del paradigma classico del rapporto uomo/macchina sono già da diversi anni al centro del dibattito della comunità scientifica. La corrente di pensiero maggioritaria ritiene ancora ben salda la guida dell’uomo. E pensa che tale rimarrà fintantoché sarà l’uomo a fornire alla macchina sia la massa di dati da trattare che gli algoritmi, gli strumenti che permettono l’elaborazione di tali dati[9].
Perché questa relazione si mantenga stabile, perché le macchine rimangano sempre al servizio dell’uomo e non arrivino mai a minacciarne la dignità, la libertà politica e sociale e i diritti umani fondamentali, occorre comunque vigilare e sventare ogni tentativo di uso distorto e pericoloso della IA[10].
L’urgenza di porre la giusta attenzione al corretto utilizzo dell’IA, che potrebbe ulteriormente sbilanciare i rapporti tra Stati ricchi e avanzati tecnologicamente e Stati poveri, tra società progredite e quelle in cui ancora bisogna lottare per difendere la dignità dell’uomo, soprattutto dei più indifesi, è stata avvertita anche dalla Chiesa cattolica. È infatti noto l’intervento di Papa Francesco al G7 sull’Intelligenza Artificiale svoltosi in Italia, a Borgo Egnazia (BR), nel giugno 2024.
Il Santo Padre ha posto l’accento, in particolare, sulla necessità di tendere sempre al perfetto equilibrio tra libertà e responsabilità che è alla base dell’etica. Non va poi mai sottratto all’uomo il potere decisionale: l’IA deve rimanere un utile strumento per operare delle scelte tecniche, algoritmiche, basate su criteri ben definiti o su deduzioni statistiche, ma non può arrivare a sostituire la complessità di pensiero e la sensibilità umana di chi è chiamato a decidere. Per Papa Francesco, la decisione è infatti «un elemento che potremmo definire maggiormente strategico di una scelta e richiede una valutazione pratica»[11].
Questa visione è stata sostanzialmente condivisa anche dal Ministro della Giustizia italiana, Carlo Nordio, che, già in occasione del G7 Giustizia tenutosi a Venezia nel maggio 2024, aveva proposto l’istituzione del G7 Venice Justice Group per l’Intelligenza artificiale nella Giustizia, un tavolo di discussione sull’impatto dell’IA nel settore giudiziario riservato ai Ministeri competenti del G7[12]. Il tavolo si è effettivamente riunito una prima volta presso il Ministero degli Affari Esteri e della Cooperazione internazionale nel novembre 2024, alla presenza di una delegazione dell’Unione Europea. Nel suo discorso di apertura dei lavori, il Ministro Nordio ha ribadito che l’uso dei sistemi di IA non deve interferire con il potere decisionale dei giudici né con l’indipendenza giudiziaria. Né tantomeno può farlo perché, secondo il Guardasigilli, se è vero che l’IA rappresenta un valido aiuto per il giudice, è altrettanto vero che essa «non ne sostituirà mai le qualità fondamentali: il buon senso, l’umiltà, lo sforzo di comprendere l’animo umano. Il ruolo del giudice non consiste semplicemente nel conoscere la legge e nell’adattarla a un caso specifico. Implica anche la ricostruzione degli eventi da una prospettiva sia materiale che psicologica. In questo campo, l’Intelligenza Artificiale dovrà sempre essere non solo controllata ma anche integrata dall’intelligenza umana. Non dobbiamo quindi temere questo nuovo sviluppo, ma gestirlo e, pur consapevoli dei grandi pericoli che comporta, dobbiamo trasformarlo in un’opportunità»[13].
Soprattutto nel settore giudiziario, si ricorre, in effetti, all’IA per ottenere un più apprezzabile risultato in termini di imparzialità ed efficienza. Tuttavia, spesso gli algoritmi possono interpretare in modo distorto le informazioni, dando luogo ad ingiustizie, scelte illogiche e discriminanti. Ciò mette fortemente in discussione una concreta e effettiva imparzialità delle decisioni, nonché la trasparenza dei parametri che le hanno determinate. D’altro canto, proprio perché l’IA, com’è stato affermato, «è cieca di fronte all’interesse del destinatario del provvedimento», l’utilizzo degli algoritmi nell’esercizio della giustizia può ridurre, oltre agli errori, «le ipotesi di eccesso di potere, faziosità e travisamento dei fatti»[14]. Incide altresì positivamente sull’efficienza perché, non essendo condizionata, come accade spesso negli uffici preposti, da tensioni per probabili azioni di responsabilità o per pressioni esterne, né tantomeno dall’eccessivo carico di lavoro, può garantire una maggiore velocità nell’emissione dei provvedimenti e nel disbrigo degli adempimenti.
Al momento, dunque, si fa ricorso all’IA solo come valido supporto per affiancare o aumentare l’intelligenza umana in alcuni passaggi specifici dell’iter decisionale.
2. L’affermazione dell’Intelligenza Artificiale tra rigidi inverni e nuove primavere
Storicamente, si fanno risalire i primi esperimenti che porteranno all’IA agli inizi del ‘900, ad opera del matematico britannico A. M. Turing, oggi riconosciuto come il padre della moderna informatica. Il merito dello studioso è stato quello di aver ideato, nel 1936, seppur solo a livello teorico, una macchina, nota come Macchina di Turing (MdT), in grado di eseguire un algoritmo espresso dalla sua tabella delle azioni, ossia una procedura di calcolo o, più in generale, una sequenza perfettamente ordinata di operazioni necessarie per risolvere un problema specifico attraverso un adeguato linguaggio di programmazione[15]. Il meccanismo di elaborazione dell’informazione ipotizzato da Turing ha però rivelato ben presto i suoi limiti, poiché occorrevano programmi molto complessi anche per ottenere risultati atrettanto semplici.
Di lì a poco, i due ricercatori americani W. McCulloch e W. Pitts hanno rivisto il progetto di Turing e, nel 1943, hanno proposto alla comunità scientifica quella che può essere riconosciuta come una vera e propria ipotesi di Artificial Intelligence: il primo neurone artificiale, con cui si volevano riprodurre i collegamenti neuronali complessi del cervello umano[16].
Per i due studiosi, l’esperienza avrebbe permesso di sviluppare e perfezionare i programmi per rendere operativo il sistema, ma le potenzialità dei computer in uso in quegli anni hanno reso impossibile la realizzazione a breve termine del progetto[17].
Solo grazie al matematico ungherese J. Von Neumann si è giunti, invece, nella seconda metà degli anni ’40 del secolo scorso, ad un modello ancora oggi noto come “Architettura di Von Neumann”[18]. Questo meccanismo, gettando le basi per la programmazione e il calcolo automatico, definisce tuttora la struttura logica dei computer moderni. Permetteva infatti di registrare dati su un’unità centrale e di elaborarli tramite operazioni richieste dall’utente attraverso istruzioni di controllo. All’origine, il modello ideato da Von Neumann effettuava solo calcoli matematici. In seguito, i calcolatori sono stati dotati di strutture di controllo più complesse e in grado di immagazzinare dati non esclusivamente numerici e, soprattutto, in quantità via via maggiore. È stato perciò possibile elaborare anche i testi ed organizzare tutto in data base che, grazie ad interfacce intellegibili, risultavano di facile consultazione anche per quanti non conoscevano il funzionamento degli algoritmi e dei linguaggi di programmazione[19].
Lo scienziato ha altresì contribuito a fornire le basi teoriche per l’IA nel campo degli algoritmi di decisione e ottimizzazione.
Tuttavia, il termine Artificial Intelligence è stato formalizzato e, nel contempo, ufficializzato solo nell’estate del 1956, in occasione del workshop di due mesi organizzato al Darthmouth college di Hanover, nel New Hampshire, da John McCarthy, all’epoca assistente universitario di matematica presso quello stesso ateneo, e da un nutrito numero di suoi colleghi. L’idea era quella di inaugurare un confronto tra tutti i ricercatori americani interessati alla teoria degli automi, alle reti neurali e allo studio dell’intelligenza[20].
Scopo primario dell’incontro tra scienziati era infatti «cercare di capire come far sì che le macchine usino il linguaggio, formino astrazioni e concetti, risolvano tipi di problemi oggi riservati agli esseri umani e migliorino sé stesse»[21].
Il workshop non ha registrato apprezzabili risultati sotto il profilo puramente tecnico. Rimane comunque il merito degli organizzatori di aver chiamato a raccolta quanti si occupavano del tema presso i centri di ricerca più prestigiosi d’America come MIT, CMU, Stanford e IBM, e di aver coniato il termine Intelligenza Artificiale per questa specifica branca di studio, dando, nei fatti, l’avvio allo sviluppo dei primi programmi di IA[22].
Negli anni immediatamente successivi, in effetti, tutti coloro che avevano partecipato al Dartmouth Summer Project nel 1956 si sono adoperati per ottenere “in un futuro vicino”[23], dei risultati davvero rivoluzionari che, tuttavia, tardavano ad arrivare[24]. Molto era dovuto, ancora una volta, alla insufficiente capacità di calcolo dei computer dell’epoca, che non permetteva di supportare algoritmi complessi. La mancanza di dati adeguati rendeva poi difficile l’addestramento di modelli utili. Le reti neurali, dal canto loro, pur potendo offrire soluzioni più efficaci, erano ancora ai loro albori e, dunque, non se ne comprendeva ancora l’alto potenziale.
La ricerca in questo campo ha così vissuto, suo malgrado, il suo primo AI winter, un inverno dell’Intelligenza Artificiale”[25] protrattosi dal 1974 al 1980. In questo periodo, alla delusione della comunità scientifica per i tempi inopinatamente lunghi occorrenti per ottenere una vera e propria svolta tecnologica grazie all’IA, si è unita quella dei finanziatori dei progetti di ricerca, che ne ha completamente paralizzato gli sviluppi[26].
Negli anni a cavallo tra gli ’80 e i ‘90 del secolo scorso, gli studi sull’Intelligenza Artificiale hanno vissuto una sorta di rinascita quando questa tecnologia, seppur ancora allo stato embrionale, è stata utilizzata per settori come la pianificazione finanziaria, la diagnosi medica, l’esplorazione geologica e la progettazione di circuiti microelettronici. Restava tuttavia molto alta la soglia di errore nelle valutazioni richieste all’IA e, dunque, altrettanto elevata l’esigenza di supervisione umana dell’elaborazione dei dati. Tanto da condurre ad un secondo irrimediabile inverno dell’Intelligenza Artificiale. In quel momento la comunità scientifica ha preso definitivamente atto dei limiti della IA, in grado di supportare l’uomo con affidabilità e precisione solo in determinati passaggi dei processi decisionali, in qualunque settore essa venisse impiegata.
Ciò spiega la particolare lentezza del processo di affermazione dell’Intelligenza Artificiale che tuttavia oggi trova concreta applicazione in ogni settore di attività umana, fino a coinvolgere il diritto e la gestione della giustizia pur continuando, nel contempo, ad essere priva di una lettura generalizzata, di coscienza, volontà e intenzionalità proprie dell’uomo chiamato continuamente a fare scelte ponderate e a prendere decisioni logiche ed equilibrate.
La pandemia da Covid 19, invece, ha determinato di recente un’accelerazione vertiginosa di questo percorso, all’inizio per lo più in campo medico o per la pubblica sicurezza. Le pressanti esigenze di sorveglianza sanitaria della popolazione hanno infatti imposto un massiccio ricorso ai programmi di IA, con inevitabili restrizioni alla privacy, nonché alla libertà di scelta e di movimento dei cittadini[27]. Superata la fase emergenziale, la Pubblica Amministrazione ha acquisito in svariati altri settori metodologie di lavoro che molto si avvalgono della IA. I radicali cambiamenti che esse stanno apportando all’organizzazione interna degli uffici sono oggetto di continue e specifiche riforme legislative. Insomma, com’è stato giustamente osservato, «per la prima volta non creiamo macchine che si interfacciano con il mondo ma stiamo modificando il mondo in modo che si possa interfacciare con le macchine»[28].
Il sempre più frequente ricorso all’algoritmo in settori che spaziano dalla sanità al lavoro, dalla giustizia alla pubblica sicurezza sta, tra l’altro, determinando anche una crescente commistione di responsabilità tra pubblico e privato in ordine alla tutela di diritti umani fondamentali, con una crescente emersione del secondo. Sono infatti per lo più i privati ad amministrare i contenuti, a gestire, cioè, le informazioni presenti sui internet attraverso sistemi automatizzati basati sulla raccolta e l’analisi dei dati degli utenti[29].
Per quanto riguarda l’amministrazione della giustizia, in particolare, in emergenza Covid 19, la tecnologia ha garantito la continuità della giurisdizione introducendo, ad esempio, il deposito telematico dei documenti o la trattazione da remoto o scritta dell’udienza. Ciò che è stato necessario fare in una fase storica particolarmente critica si è rivelato poi utile e vantaggioso per avvocati, magistrati, personale degli uffici giudiziari. Ma se, da un lato, è stata per lo più apprezzata dagli addetti ai lavori la possibilità di curare quasi ogni aspetto delle cause a distanza e in forma scritta, a farne le spese sono tuttora l’oralità del processo e il rapporto tra giudici, parti in causa e i loro difensori.
Non va tuttavia dimenticato che l’avvento dell’IA nel Sistema Giustizia si è reso indispensabile per ridurre sensibilmente i tempi, come viene chiesto a gran voce anche dalle Istituzioni Internazionali al nostro Paese, e offrire maggiori garanzie in tema di certezza del diritto. Certo, dare risposte più veloci alla domanda di giustizia, alleggerendo così pure il carico arretrato che giace negli uffici dei tribunali italiani, può migliorare anche il rapporto di fiducia, oggi gravemente compromesso, tra cittadini e potere giudiziario ma occorre sempre bilanciare una maggiore efficienza del settore con una apprezzabile logicità e coerenza delle decisioni assunte[30].
3. L’algoretica come antidoto al potere dell’algoritmo
Anche nel settore della giustizia, come in ogni altra branca della Pubblica Amministrazione, stiamo dunque assistendo ad un irrevocabile processo di digitalizzazione, con cui si intende l’organizzazione di dati codificati numericamente all’interno di programmi per il loro trattamento. La serie di passaggi chiari e precisi di cui essi sono composti, se eseguita in un dato ordine corretto, conduce al risultato specifico richiesto dall’operatore[31].
Il trattamento di una massa sempre più importante di dati e la possibilità di stabilire correlazioni tra essi conduce, in particolare, all’algoritmizzazione[32]. L’algoritmo che permette all’IA di operare può essere definito come «una regola costruita dall’uomo per disciplinare le operazioni di calcolo effettuate dal software»[33]. È qui che si sta attuando un salto di qualità: i sistemi intelligenti, a differenza dei programmi informatici tradizionali, non si limitano ad eseguire operazioni logiche, ma creano un valore aggiunto elaborando parametri nuovi, soluzioni e risposte non predeterminabili[34].
Insomma, l’algoritmo restituisce dei trends, degli standards che riconosce nei dati e genera “una visione normalizzata” dei problemi che si trova ad affrontare, offrendo così una prima forma di “normatività digitale”[35] che guida le azioni umane.
Quando, poi, l’algoritmo viene adoperato in funzione predittiva, esso ipotizza determinate condotte analizzando azioni precedenti in maniera schematica, ossia senza alcuna considerazione delle ragioni che hanno determinato certi comportamenti, né tantomeno valutarne loro portata etica.
La recente tendenza ad avvalersi di algoritmi sempre più sofisticati fa quindi sorgere numerosi interrogativi circa il rispetto dei principi del procedimento amministrativo, quali la legittimità, la ragionevolezza, la proporzionalità, la trasparenza e la pubblicità dell’azione amministrativa. Non mancano altresì perplessità circa la tutela dei diritti della persona[36].
In merito, vi è chi ha segnalato l’assoluta necessità che l’azione amministrativa, in ogni suo campo, non sia mai priva della necessaria mediazione e composizione dei diritti di tutte le parti in causa e che essa venga svolta garantendo sempre ai destinatari della decisione automatizzata, così come ad ogni altra parte legittimamente interessata, la massima “conoscibilità dell’algoritmo” nei suoi molteplici aspetti: dai suoi autori al procedimento usato per la sua elaborazione, al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti[37].
Com’è stato correttamente osservato, la trasparenza e l’accessibilità alle informazioni circa ogni decisione automatizzata consentono anche la sindacabilità dell’algoritmo da parte del giudice amministrativo, sia per quanto riguarda la correttezza del processo informatico che per la logicità e la ragionevolezza della “regola” che governa l’algoritmo[38].
L’attenzione verso questo tema è talmente diffusa nella comunità scientifica che i rischi sottesi al ricorso eccessivo o distorto all’algoritmo e all’IA sono oggi divenuti oggetto di una nuova e più specifica branca della riflessione etica. Si tratta dell’algoretica, che cerca non solo di analizzare l’impatto della IA sulle relazioni sociali e sulla sfera esistenziale dei singoli, ma anche di verificare se e in che modo l’IA tende al bene, e non al male, dell’umanità e come contribuisce alla sua aspettativa di tutela dei diritti umani e di un futuro migliore.
Tra le voci impegnate in questo dibattito si è levata anche quella, autorevolissima, di Papa Francesco che, in occasione della sua partecipazione al G7 del giugno 2024, non ha mancato di sottolineare che i programmi di Intelligenza Artificiale devono avere un’ispirazione etica e, dunque, devono tener conto «non solo degli esiti di un’azione, ma anche dei valori in gioco e dei doveri che da questi valori derivano»[39].
Il Santo Padre, pur consapevole che, in un contesto internazionale complesso, è difficile definire un solo insieme di valori, si è detto convinto che, intorno al termine “algoretica” possano condensarsi «una serie di principi che si dimostrano essere una piattaforma globale e plurale in grado di trovare il supporto di culture, religioni, organizzazioni internazionali e grandi aziende protagoniste di questo sviluppo»[40].
In particolare, per quanto riguarda il sistema giudiziario, la discussione tra addetti ai lavori si concentra sulla “giustizia predittiva” e sulla “decisione robotica”, che si avvalgono di algoritmi complessi per emettere sentenze al posto dei magistrati competenti o prevedere gli esiti di ogni tipo di provvedimento. L’efficienza previsionale degli algoritmi, infatti, va a mortificare il libero convincimento del giudice, sottraendone, di fatto, il potere decisionale e restringendone il compito ad un semplice prender atto del risultato dell’analisi predittiva. Ma se, da un lato, l’avvento della IA nella giustizia la espone ad un graduale processo di deresponsabilizzazione dell’organo giudicante, dall’altro, esso ne contiene fattivamente una discrezionalità che potrebbe sfociare in arbitrarietà del giudicato[41].
4. L’avvento e l’evoluzione dell’informatica giuridica: la giurimetria, la giuscibernetica e la giuritecnica
Sebbene in Europa e in Italia sia ancora in fase sperimentale, l’elaborazione elettronica dei dati tramite l’informatica in combinazione con i programmi di Intelligenza Artificiale al diritto con funzione predittiva era già nota negli Stati Uniti dagli anni ‘50 con il termine “giurimetria”[42], la disciplina che si occupa del trattamento elettronico delle informazioni giuridiche o, meglio, della misurazione e dell’analisi dei fenomeni giuridici attraverso metodi quantitativi e matematici.
Attraverso modelli statistici e algoritmi di apprendimento automatico, l’analisi giurimetrica esamina le sentenze precedenti e ne estrapola informazioni relative, ad esempio, alle tipologie di casi trattati, alle parti coinvolte, ad altri dati omogenei. Essa offre un importante supporto alle decisioni giudiziarie, migliorandone l’accuratezza, soprattutto per la valutazione delle prove, le ricerche sui precedenti giudiziari e l’estrazione di informazioni rilevanti dai testi legislativi.
I risultati di questa analisi vengono altresì utilizzati per predire gli esiti di casi legali simili. La giustizia predittiva supportata dalla giurimetria e dall’IA adotta cioè la logica del machine learning: acquisisce dati, impara dalla loro analisi e formula previsioni pertinenti.
La giustizia predittiva associata alle tecniche proprie della giurimetria e gli strumenti di IA procura una serie di vantaggi per il sistema giudiziario: primo tra tutti, il miglioramento dell’efficienza, perché l’analisi dei casi con modelli predittivi può aiutare a stabilire una gerarchia delle priorità nella suddivisione delle risorse economiche e nel disbrigo del carico di lavoro dei tribunali. Tale ottimizzazione di uomini e mezzi riduce anche i tempi di gestione dei processi.
Un altro vantaggio concreto è la riduzione della discrezionalità dei giudici, il cui rovescio della medaglia è la maggiore uniformità nell’applicazione della legge.
Non meno importanti sono le garanzie di conoscibilità e di accesso agli atti e alla giustizia che vengono offerte ai difensori che, anche presso i propri studi, possono acquisire la documentazione digitale o essere informati sugli atti procedurali e offrire una migliore e più tempestiva assistenza ai loro clienti; ma anche ai privati cittadini che possono fare più agevolmente e, sempre più spesso senza costi, ricerche giuridiche e tutelare i loro diritti.
Restano tuttavia critici alcuni punti: l’accuratezza dei modelli predittivi è strettamente legata alla qualità e alla quantità dei dati sottoposti all’analisi giurimetrica. Va quindi sempre operata una attenta valutazione di logicità e correttezza della decisione proposta dal sistema da parte dell’organo giudicante. È infatti ancora impossibile affidarsi alla c.d. “calcolabilità del diritto”, ossia alla mera applicazione di una formula matematica, rinunciando, tra l’altro, alla creatività del diritto per via giurisprudenziale, che ha fatto evolvere la trama dei diritti tutelati dall’ordinamento[43].
I dati, poi, non devono dar luogo a pregiudizi o discriminazioni che potrebbero essere amplificati dagli algoritmi di apprendimento automatico, generando decisioni inique, ingiuste o sbagliate. I sistemi di giustizia predittiva devono essere infatti sempre improntati a criteri di qualità, imparzialità e trasparenza dei dati utilizzati[44].
Va comunque pur sempre sottolineato l’innegabile miglioramento apportato dalla giurimetria per il lavoro di ogni giurista: l’accesso al computer anche in questo settore e l’applicazione dell’informatica al diritto hanno permesso di velocizzare enormemente il reperimento delle informazioni, grazie all’uso di parole-chiave per la ricerca[45].
Certo, la storia ci ha messo di fronte ad una nuova svolta quando, con la maggiore diffusione degli elaboratori, dei programmi operativi e dunque dell’informatica, si è imposta quella che oggi definiamo “giuscibernetica”[46], con cui è stata formalizzata e specializzata la branca dell’informatica giuridica ed è stata sottolineata per la prima volta l’importanza, per chi se ne serve, di una preparazione anche tecnica, oltre che squisitamente giuridica.
Le conoscenze attuali ci portano a parlare oggi di Legal Tech, ovvero di tecnologia applicata al settore legale, grazie all’impiego dell’IA. In particolare, i vantaggi che se ne possono trarre riguardano, ad esempio, l’automazione documentale, ossia la generazione automatica e l’elaborazione standardizzata di documenti legali d’ogni genere.
I più recenti software basati sull’IA supportano poi tutti gli addetti ai lavori nella ricerca sempre aggiornata, a differenza delle vecchie banche dati, e nell’analisi giuridica di grandi quantità di dati come casi giudiziari, decisioni passate, leggi e regolamenti.
L’analisi predittiva, può poi fornire indicazioni agli avvocati sulle probabilità di successo di un caso e supportare la strategia legale, così come può supportare l’organo giudicante nella stesura delle sue pronunce.
L’assistenza virtuale ai clienti fornita dai programmi di Legal Tech semplifica inoltre il rapporto con l’utenza fornendo risposte a domande comuni, offrendo orientamento legale di base e raccogliendo informazioni.
Infine, grazie alle piattaforme di Intelligenza Artificiale, si possono guidare le parti coinvolte in una controversia in percorsi di negoziazione o mediazione automatizzate per la risoluzione online dell’oggetto del contendere[47].
L’uso della tecnologia in ambito legale è stato infine consacrato con l’avvento della “giuritecnica”[48] che, prendendo atto di quanto l’informatica e tante altre nuove scoperte tecniche abbiano inciso sul modo di lavorare, di ragionare e di risolvere le problematiche di carattere giuridico, è andata ad indagare tutte quelle «metodologie operative nel campo del diritto, risultanti dall’applicazione di strumenti e di procedimenti tecnologici»[49].
Colui che oggi è unanimemente riconosciuto come il pioniere dell’informatica giuridica, il giurista e filosofo Vittorio Frosini, all’inizio degli anni ’70 del secolo scorso ha segnalato che «i problemi della giuritecnica sono quelli che sorgono da una compenetrazione tra quelli giuridici e quelli tecnologici, in modo tale da obbligare ad un mutamento di mentalità dello studioso e dell’operatore del diritto, costretti, l’uno e l’altro, a staccarsi dagli schemi mentali
del formalismo giuridico a cui erano abituati, giacché il diritto veniva considerato come un universo scritto sui codici, e la cultura giuridica era ritenuta puramente umanistica ed anzi libresca»[50].
In quel periodo storico, intanto, si è assistito alla diffusione di applicativi gestionali presso enti pubblici e privati di grosse dimensioni per far fronte alle più svariate esigenze di gestione, elaborazione e archiviazione dei dati. Gli osservatori più attenti si sono dunque interrogati sull’impatto sociale e giuridico che l’uso di questi gestionali poteva avere nel rapporto tra uffici competenti e cittadini, dipendenti, clienti, etc. Si pensi, ad esempio, al trattamento dei dati personali o altri dati sensibili contenuti negli archivi e tutte le ipotesi di violazione della riservatezza che i processi automatizzati potevano originare allora, così come ancora oggi.
In quegli stessi anni, poi, si sono fatti i primi timidi passi verso quella che attualmente definiamo “giustizia predittiva”, con applicativi in cui sono stati immagazzinati tutta una serie di dati relativi all’infortunistica stradale, come la normativa vigente e una vasta gamma di casi giurisprudenziali. I sistemi in uso presso gli studi di consulenza legale in materia erano perciò in grado di rispondere a determinate domande preimpostate, attribuendo le responsabilità dei sinistri e determinando anche l’ammontare dei risarcimenti[51].
Ma questo strumento ha presto rivelato tutti i suoi limiti: la consulenza automatica offerta da questi rudimentali software era rigidamente legata ad un assai ristretto tipo di casi standardizzati. I sinistri, infatti, dovevano verificarsi tutti secondo una specifica dinamica, senza, cioè, importanti variazioni o il conseguente coinvolgimento di altre branche del diritto.
I software, poi, per rimanere sempre affidabili nel tempo, dovevano essere aggiornati con la più recente normativa in materia, con evidenti costi da sostenere anche con una certa tempestività all’indomani dell’approvazione di qualche nuova disciplina.
A rallentare il progresso tecnologico in campo legale è, ancora oggi, a ben vedere, l’evidente divario tra la logica sottesa all’algoritmo, che si compone di sequenze ben precise per l’elaborazione di dati ben definiti, e il linguaggio legale, pieno di sfumature e ricco d’interpretazioni.
Ciò spiega perché, in campo legale, si siano sviluppati principalmente gli applicativi che supportano notai e avvocati nella stesura di atti standard, pur sempre da integrare e adattare ai singoli casi di specie, nonché le banche dati, da cui è possibile estrapolare, attraverso l’interrogazione con parola chiave, norme, testi dottrinali, precedenti giurisprudenziali tanto di merito quanto di legittimità.
Ma, anche per quanto le ricerche delle informazioni prima contenute nelle sole banche dati, molto è cambiato con la massima diffusione di internet, l’avvento dei media, la disponibilità sul mercato di smartphone e tablet che hanno reso possibile connettersi al web da qualsiasi posto raggiunto dalla rete cellulare. Nel contempo, l’obbligo di pubblicità e trasparenza a cui è sottoposto il legislatore nazionale, così come tutti gli organi amministrativi dello Stato ha reso più facilmente e immediatamente reperibili molte fonti normative su portali istituzionali così come su tantissimi altri siti. Si sono altresì moltiplicate le voci di studiosi, gruppi di ricerca, centri di formazione, che, attraverso le loro pubblicazioni, stanno rendendo sempre più accessibile ad una vastissima platea di fruitori ogni tipo di informazione.
E così, com’è stato giustamente osservato, «di conseguenza, si moltiplicano esponenzialmente le occasioni in cui anche il giurista, interprete con differenti ruoli (magistrato, avvocato, notaio, giurista di impresa) della realtà che lo circonda, viene in contatto con l’ambiente tecnologico, interagisce con i nuovi strumenti: e dunque non può più prescindere da conoscere tale ambiente, tali strumenti» [52].
5. La politica europea in tema di Intelligenza Artificiale
Il graduale quanto inarrestabile passaggio dal dominio dell’algoritmo, che sovrintende l’automated decision making (ADM), all’autonomia decisionale dell’IA ha imposto al legislatore europeo di intervenire in maniera significativa una prima volta nel 2016 con il noto Regolamento (UE) 2016/679 (General Data Protection Regulation - GDPR), relativo alla privacy, alla protezione dei dati personali, nonché alla libera circolazione di tali dati. Il provvedimento segna una rivoluzione, un netto cambio di visione sul tema. Oltre ad essere direttamente applicabile in tutti gli Stati senza la necessità di un recepimento nazionale, mette subito in chiaro che «il trattamento dei dati personali dovrebbe essere al servizio dell’uomo. Il diritto alla protezione dei dati di carattere personale non è una prerogativa assoluta, ma va considerato alla luce della sua funzione sociale e va contemperato con altri diritti fondamentali, in ossequio al principio di proporzionalità»[53].
Insomma, già dall’oggetto del Regolamento e dal suo preambolo, l’UE ha voluto affermare che da quel momento avrebbe prestato la massima attenzione ad una nuova categoria di ditti umani, i diritti digitali, che non si esauriscono solo nella fase del trattamento dei dati personali, bensì vanno tutelati soprattutto nella fase più delicata, ossia la loro circolazione. E pur sempre mai in maniera rigida, assoluta, bensì bilanciata con altri diritti fondamentali, in base al principio di proporzionalità.
Necessario contraltare è la responsabilità, in capo a chi si occupa del trattamento, di osservare le norme contenute nel provvedimento. Ma vi è di più: dopo aver declinato, all’art. 5, il principio di limitazione delle finalità, gli artt. 35 e ss. del GDPR richiedono un’attenta valutazione dei rischi per i diritti e le libertà delle persone derivanti da un determinato tipo di trattamento, specie se prevede l’uso di nuove tecnologie, come nel caso dell’IA, e l’attuazione di misure adeguate per ridurre al minimo tali rischi. Non manca un richiamo alle autorità nazionali per il controllo e la repressione delle violazioni al regolamento, né tantomeno la possibilità di infliggere consistenti sanzioni amministrative pecuniarie a chiunque non rispetti i diritti degli interessati[54].
Tuttavia, con il progresso tecnologico e, soprattutto, la diffusione di social network, di strumenti connessi ad internet sempre presenti nella vita quotidiana di ogni cittadino, il regolamento europeo ha ben presto rivelato i suoi limiti: le prime perplessità sollevate dagli addetti ai lavori riguardano addirittura la definizione stessa di “dato personale”, di cui, infatti, ne occorrerebbe una più aggiornata, compiuta e chiara, visto che oggi la distinzione tra dato personale e dato non personale, come tra sfera pubblica e privata, è divenuta molto labile alla luce delle nuove tecnologie. Per lo stesso motivo, è divenuto estremamente più trasversale anche il profilo dell’“interessato” ad un “trattamento” dei dati. Si pensi che il regolamento UE non contempla neppure l’ipotesi che l’”interessato” sia un gruppo o, quantomeno, più di un singolo individuo, sebbene la procedura di trattamento dei dati includa la “profilazione”, ossia la raccolta di informazioni su una persona o un gruppo di persone al fine di includerli in una determinata categoria o gruppo[55].
Le lacune evidenziate nel GDPR sono state esaminate dalla Commissione per l’efficienza della giustizia del Consiglio d’Europa (CEPEJ) che, a margine della 31° Riunione plenaria tenutasi a Strasburgo nel dicembre del 2018, ha licenziato la Carta etica sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, con cui sono stati codificati cinque principi. Primo tra tutti è il «principio del rispetto dei diritti fondamentali: Assicurare che l’elaborazione e l’attuazione di strumenti e servizi di intelligenza artificiale siano compatibili con i diritti fondamentali»: la CEPEJ, nell’illustrare l’enunciato, ricorda che, «quando gli strumenti di intelligenza artificiale sono utilizzati per dirimere una controversia, per fornire supporto nel processo decisionale giudiziario, o per orientare il pubblico, è essenziale assicurare che essi non minino le garanzie del diritto di accesso a un giudice e del diritto a un equo processo (parità delle armi e rispetto del contraddittorio). Essi dovrebbero essere utilizzati anche con il dovuto rispetto per i principi dello stato di diritto e dell’indipendenza dei giudici nel loro processo decisionale»[56].
Il secondo individuato dalla Commissione è il «principio di non-discriminazione: Prevenire specificamente lo sviluppo o l’intensificazione di discriminazioni tra persone o gruppi di persone».
Segue il «principio di qualità e sicurezza: In ordine al trattamento di decisioni e dati giudiziari, utilizzare fonti certificate e dati intangibili, con modelli elaborati interdisciplinarmente, in un ambiente tecnologico sicuro». La CEPEJ crede fermamente nella proficua collaborazione tra professionisti del sistema della giustizia (giudici, pubblici ministeri, avvocati, ecc.), ricercatori/docenti nei campi del diritto e delle scienze sociali (per esempio, economisti, sociologi e filosofi), e creatori di modelli di apprendimento automatico per la realizzazione di software funzionali e, nel contempo, eticamente accettabili[57].
Il penultimo è il «principio di trasparenza, imparzialità e equità: Rendere le metodologie di trattamento dei dati accessibili e comprensibili, autorizzare verifiche esterne». Dopo aver invitato a lavorare per ottenere un equilibrio tra la proprietà intellettuale di alcune metodologie di trattamento e l’esigenza di trasparenza, intesa come accesso al processo creativo e di imparzialità, ossia assenza di pregiudizi, la CEPEJ parla di esigenza di equità e integrità intellettuale nel senso di privilegiare gli interessi della giustizia quando si utilizzano strumenti che possono avere conseguenze giuridiche, o che possono incidere significativamente sulla vita delle persone[58].
Chiude il «principio del controllo da parte dell’utilizzatore: Precludere un approccio prescrittivo e assicurare che gli utilizzatori siano attori informati e abbiano il controllo delle loro scelte». Sul punto, la Commissione ritiene infatti che tutti i professionisti della giustizia dovrebbero avere accesso, in qualsiasi momento, alle decisioni giudiziarie, alle informazioni e a tutti i dati utili, continuando tuttavia a formarsi un loro libero convincimento, senza sentirsi necessariamente vincolati dalla casistica esaminata[59].
Ma a segnare un vero spartiacque nella disciplina sulla diffusione della IA e la sua applicazione in ambito europeo è senza dubbio il recente Regolamento (UE) 1689/2024, ormai noto come AI Act, entrato in vigore ad agosto 2024[60]. Il legislatore comunitario ha esplicitato nel Considerando n. 8 il proprio convincimento affermando che «si rende pertanto necessario un quadro giuridico dell’Unione che istituisca regole armonizzate in materia di IA per promuovere lo sviluppo, l’uso e l’adozione dell’IA nel mercato interno, garantendo nel contempo un elevato livello di protezione degli interessi pubblici, quali la salute e la sicurezza e la protezione dei diritti fondamentali, compresi la democrazia, lo Stato di diritto e la protezione dell’ambiente, come riconosciuti e tutelati dal diritto dell’Unione».
La portata storica del documento è data dal suo rappresentare un unicum al mondo: nessuno, prima dell’Europa, aveva provato a normare l’IA così ad ampio raggio. La nuova disciplina eurocomunitaria sull’IA è stata approvata con la schiacciante maggioranza di 523 voti a favore, 46 contrari e 49 astenuti. Destinatario delle nuove regole è il mercato interno e quindi tutte le aziende, europee o meno, che aspirano ad inserirsi in un marcato sicuro per i consumatori, interessante per gli investitori e aperto al rinnovamento tecnologico[61].
Un altro aspetto innovativo del Regolamento sta nella scelta di disciplinare il mercato dell’IA suddividendone i sistemi in tre categorie risk-based, ossia in base al rischio (inaccettabile, alto o limitato) che questi pongono per la sicurezza degli utenti e per il rispetto dei diritti fondamentali dei cittadini, e individuando, per ciascuna categoria, gli obblighi gravanti sui fornitori e sugli utilizzatori “professionali”. Anche in questo caso, il Regolamento, riserva agli Stati membri il compito di introdurre sanzioni “effettive, proporzionate e dissuasive”, che possono includere anche avvertimenti e misure non pecuniarie[62].
Figurano nell’Allegato III dell’AI Act, come “ad alto rischio” anche i sistemi di IA funzionali all’amministrazione della giustizia, ossia «i sistemi di IA destinati a essere usati da un’autorità giudiziaria o per suo conto per assistere un’autorità giudiziaria nella ricerca e nell’interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti, o a essere utilizzati in modo analogo nella risoluzione alternativa delle controversie»[63].
Ma si tratta pur sempre di una presunzione relativa di alto rischio basata sul principio di precauzione: sono fatte perciò salve le attività amministrative strumentali alla giurisdizione, così come ogni altra di cui si possa dimostrare l’assenza di rischio significativo. In realtà, ciò che ancora oggi il legislatore eurocomunitario vuole evitare sono tutte le distorsioni, le forzature, gli errori generati da algoritmi per loro natura inconsapevoli che possono potenzialmente impattare in modo rilevante sulla democrazia, sullo Stato di diritto, sui diritti fondamentali delle parti, tra cui quello ad un ricorso effettivo e a un giudice imparziale[64]. E lo fa formalizzando l’obbligo, in capo a tutti quelli che si avvalgono di sistemi di IA, di operare una valutazione d’impatto sui diritti fondamentali che all’interno del documento prende il nome di FRIA (Fundamental Rights Impact Assessment).
6. Conclusioni
Per quanto pionieristico, coraggioso e avveniristico possa apparire l’IA Act, soprattutto nell’ambito della giustizia, lascia sostanzialmente aperte molte delle questioni di carattere etico di cui si è detto.
In linea generale, si osserva che, per quanto riguarda la predeteminazione del rischio, tuttora non sussiste una netta diversificazione degli obblighi a carico dei produttori, così come dei fornitori e degli utenti dei sistemi di IA. Di conseguenza, è ancora oggi impossibile capire con chiarezza come il Sistema Giustizia possa garantire un maggior equilibrio nel riscorso all’IA rispetto al passato, sebbene esso sia stato classificato come “ad alto rischio”.
Resta così urgente trovare risposte convincenti alle perplessità che ruotano attorno alla natura del FRIA e alle ripercussioni più dirette del suo esito: perché sia valida, perché porti ad un risultato apprezzabile, la valutazione d’impatto dell’IA sui diritti fondamentali dell’uomo deve essere svolta utilizzando parametri né troppo rigidi, né troppo permissivi, ossia con un metodo chiaro, che, com’è stato giustamente segnalato, non è stato ancora indicato. Infatti, le istituzioni europee non hanno ancora prodotto delle opportune linee guida al riguardo, sebbene l’art. 56 dell’AI Act raccomandi l’elaborazione di codici di buone pratiche che contribuiscano alla corretta applicazione del regolamento all’interno dell’Unione[65].
Risulta dunque delegata all’interpretazione del singolo la sussistenza di un adeguato bilanciamento degli interessi in gioco[66].
[1] MISE, Proposte per una Strategia italiana per l’intelligenza artificiale, Roma, 25 luglio 2020, p.8. In seguito, queste proposte sono prima confluite, nel 2021, nel più ampio “Programma strategico Intelligenza Artificiale” del Ministero dell’Università e della Ricerca, del Ministero dello Sviluppo Economico e del Ministero per l’Innovazione tecnologica e la Transizione Digitale e poi nella “Strategia italiana per l’Intelligenza Artificiale 2024 – 2026” a cura del Dipartimento per la trasformazione digitale e l’AGID (Agenzia per l’Italia digitale).
[2] In questo senso anche F. DONATI, Intelligenza artificiale e giustizia, Rivista AIC (Associazione Italiana dei Costituzionalisti), n. 1, 2020, Jovene, Napoli, p. 415. A livello internazionale, avevano già dato questa lettura osservatori qualificati quali M. A. BODEN, Artificial intelligence: a very short introduction, Oxford, 2018; I. GOODFELLOW, Y. BENGIO, A. COURVILLE, Deep Learning, Boston, 2016.
[3] J. SEARLE, Minds Brains and Programs, in The Behavioral and Brain Sciences, 1980, pp. 417 ss. In Italia questa distinzione è stata ripresa in tempi più recenti anche in contributi quali A. SANTOSUOSSO, C. BOSCARATO e F. CAROLEO, Robot e Diritto: una prima ricognizione, in La nuova giurisprudenza civile commentata, n. 7/8, 2012, CEDAM, Padova, pp. 494 ss.
[4] Le più avanzate tecniche di machine learning permettono agli elaboratori di trattare una mole sempre maggiore di dati senza comprenderne l’intimo significato, limitandosi ad ottenere un risultato analogo o migliore rispetto alle prestazioni umane. In questo caso, è possibile parlare di AI conversazionale quando la tecnologia impiegata, dopo aver elaborato input vocali e di testo, arriva ad imitare il linguaggio naturale, anche in diverse lingue, permettendo alla macchina di parlare con gli utenti. Si pensi, ad esempio, ai bancomat o alle biglietterie automatiche presenti nelle stazioni metropolitane o ferroviarie. Ma vi è anche l’AI generativa, una forma avanzata di machine learning che crea nuovi contenuti, ossia immagini, video, audio, codici, testi e simulazioni, che può essere utilizzata in molteplici settori. Si può giungere fino all’AI autonoma, una forma particolarmente avanzata di Intelligenza Artificiale in cui gli algoritmi agiscono senza alcun input umano, in modo autonomo e senza necessità di supervisione. Oltre ai videogiochi, questo tipo di IA trova applicazione nelle auto a guida autonoma o per sistemi di gestione automatizzata. Essa ha la capacità di percepire il proprio ambiente in tempo reale attraverso l’uso di telecamere, microfoni, scanner laser, radar, GPS e altri strumenti. Sul punto si veda J. KAPLAN, Intelligenza artificiale. Guida al prossimo futuro, Luiss University Press, Roma, 2017, pp. 57 e 105.
[5] In questo caso parliamo di deep learning, ossia di processi più sofisticati che si avvalgono di reti neurali multistrato, attraverso i quali, gli elaboratori apprendono e mettono a confronto una notevole quantità di dati, immagini, suoni, testi, etc per ottenere un risultato più accurato.
[6] L. Corso, Intelligenza collettiva, intelligenza artificiale e principio democratico, in R. Giordano, A. Panzarola, A. Police, S. Preziosi, M. Proto (a cura di), Il diritto nell’era digitale. Persona, Mercato, Amministrazione, Giustizia, Giuffrè, Milano, 2022, p.443.
[7] In questo senso L. FLORIDI, Etica dell’intelligenza artificiale: Sviluppi, opportunità, sfide, Raffaello Cortina, Milano, 2022; A. PATRONI GRIFFI (a cura di), Bioetica, diritti e intelligenza artificiale, Mimesis, Milano-Udine, 2023.
[8] G. Pasceri, Introduzione all’Intelligenza Artificiale, in Innovazione, intelligenza artificiale e giustizia, Quaderno dell’Ordine degli Avvocati di Milano, Commissione Intelligenza Artificiale e Processo Telematico dell’Ordine degli Avvocati di Milano, luglio 2021, p. 5.
[9] V. Verdicchio, IA e diritto: una introduzione, in AI Law, International Review of Artificial Intelligence Law, 1, 2025, Giappichelli, Torino, p. 149.
[10] Ivi, p. 150, 151. Lo studioso ci invita a riflettere, anche solo per un attimo, alle estreme conseguenze del ricorso a quella che oggi definiamo AI predittiva, la forma di Intelligenza Artificiale che elabora dati storici per estrarre previsioni in ogni campo e anticipare quello che probabilmente accadrà in futuro o, peggio, orientare, condizionare scelte e comportamenti. Il riferimento è, ad esempio, al microtargeting, il processo marketing che già oggi permette di profilare a fini commerciali i clienti e di indirizzare messaggi pubblicitari mirati in base alle abitudini, ai gusti e alle scelte di ogni singolo consumatore, informazioni rilevate attraverso il flusso di dati forniti dai dispositivi digitali utilizzati. Queste metodologie di ricerca possono servire anche per indagare l’orientamento politico delle persone e ad esercitare un controllo illecito che viola la libertà di pensiero. Anche il pedinamento digitale, che consente di individuare in ogni momento l’esatta posizione di ognuno e/o di riprenderlo con le telecamere istallate per motivi di sicurezza dalle autorità pubbliche, può prestarsi ad un trattamento non corretto delle informazioni. Spesso conduce già oggi ad autentiche violazioni della privacy e potrebbe evolversi negativamente in scenari aberranti neanche troppo futuri. Al contrario, queste tecnologie possono essere funzionali anche a tentativi di disinformazione e/o diffusione di notizie false per condizionare e fuorviare l’opinione pubblica.
[11] Papa Francesco, Discorso del Santo Padre Francesco, Borgo Egnazia (Puglia), Santa Sede, Roma, 14 giugno 2024, p. 3. Nel suo intervento, il Santo Padre ha espresso anche il suo dissenso per il ricorso ai programmi di giustizia predittiva che supportano i magistrati chiamati a concedere i domiciliari a detenuti che stanno scontando una pena in un istituto carcerario. Nel discorso, pp. 4, 5, si legge: «In questo caso, si chiede all’intelligenza artificiale di prevedere la probabilità di recidiva del crimine commesso da parte di un condannato a partire da categorie prefissate (tipo di reato, comportamento in prigione, valutazione psicologiche ed altro), permettendo all’intelligenza artificiale di avere accesso a categorie di dati inerenti alla vita privata del detenuto (origine etnica, livello educativo, linea di credito ed altro). L’uso di una tale metodologia – che rischia a volte di delegare de facto a una macchina l’ultima parola sul destino di una persona – può portare con sé implicitamente il riferimento ai pregiudizi insiti alle categorie di dati utilizzati dall’intelligenza artificiale. L’essere classificato in un certo gruppo etnico o, più prosaicamente, l’aver commesso anni prima un’infrazione minore (il non avere pagato, per esempio, una multa per una sosta vietata), influenzerà, infatti, la decisione circa la concessione dei domiciliari. Al contrario, l’essere umano è sempre in evoluzione ed è capace di sorprendere con le sue azioni, cosa di cui la macchina non può tenere conto».
[12] https://www.g7italy.it/it/eventi/giustizia/.
[13] L. Biarella, Intelligenza artificiale, per il Guardasigilli l’AI non sostituirà il giudice, 26 novembre 2024, https://www.altalex.com/documents/news/2024/11/26/intelligenza-artificiale-per-guardasigilli-ai-non-sostituira-giudice.
[14] L. Corso, Intelligenza collettiva, intelligenza artificiale e principio democratico, cit., p. 444, 445.
[15] A. M. Turing, Intelligent machinery, in National Physical Laboratory Report, Teddington, Middlesex (U.K.), 1948. Nel 1950, Turing ha pubblicato sulla rivista Mind il famoso articolo dal titolo Computer and Machinery Intelligence, in cui ha presentato il c.d. Test di Turing, il criterio per determinare se una macchina può esibire un’intelligenza indistinguibile da quella di un essere umano tutt’oggi considerato una pietra miliare nel campo dell’IA.
[16] W. S. McCulloch, W. Pitts, A logical calculus of ideas immanent in nervous activity, in Bulletin of Mathematical Biophysics, n. 5, 1943, Springer, New York, 115 – 133.
[17] L. Rinaldi, Intelligenza artificiale, diritti e doveri nella Costituzione Italiana, in C. Casonato, M. Fasan, S. Penasa (a cura di), Diritto e intelligenza artificiale, DPCE online (Diritto Pubblico Comparato e Europeo), n. 1, 2022, Università Commerciale Luigi Bocconi, Milano, p. 210.
[18] In collaborazione con un gruppo di scienziati, nel 1949,Von Neumann ha applicato per la prima volta la sua “architettura” al calcolatore EDVAC (Electronic Discrete Variable Automatic Calculator).
[19] J.D. ULLMAN, Principles of Database Systems, Computer Science Press, Potomac (Maryland), 1980.
[20] S. Russell, P. Norvig, Intelligenza artificiale. Un approccio moderno, traduzione in italiano S. Gaburri (a cura di), Pearson education Italia, Milano 2005, p. 25.
[21] J. Mc Carthy, M. L. Minsky, N. Rochester, C. E. Shannon, A proposal for the Dartmouth summer research projec on artificial intelligence, 1955, p. 2, http://jmc.stanford.edu/articles/dartmouth/dartmouth.pdf.
[22] D. De Lorenzo, Intelligenza artificiale e diritto. Analisi comparatistica tra Europa, Stati Uniti e Cina, Università di Salerno, 2023, p. 5
[23] S. Russell, P. Norvig, Intelligenza artificiale. Un approccio moderno, cit., p. 30
[24] Già nel 1956, appena terminati i lavori del workshop, A. Newell, H. A. Simon e C. Shaw hanno progettato il Logic Theorist, il primo programma di IA per computer pensato per eseguire un ragionamento automatizzato non numerico; in seguito, in A. Newell, H. A. Simon, GPS: a program that simulates human thought, in H. Billing (a cura di), Lernende automaten, Monaco, 1961, pp. 109-124, è stato presentato alla comunità scientifica il General Problem Solver (GPS), che imitava il comportamento umano per la soluzione di problemi di logica e non solo. Negli anni ’60 del secolo scorso, sempre negli Stati Uniti, si è cercato di applicare anche altri programmi basati sul ragionamento logico alla robotica e all’attività fisica realizzando i primi automi, in grado di muoversi in uno spazio limitato o di offrire feedback a determinate domande, ma i risultati di questa interazione uomo/macchina rimanevano molto insoddisfacenti rispetto alle prospettive avveniristiche degli inizi.
[25] L’espressione “AI winter” è stata impiegata per la prima volta nel 1984, dai due ricercatori M. Minsky e R. Schank, durante la riunione annuale dell’AAAI (Association for the Advancement of Artificial Intelligence).
[26] A. Innocenti, L’ inverno dell’IA dal 1974 al 1980, 7 luglio 2024, in Rivista AI, Intelligenza Artificiale, Innovazione e Trasformazione Digitale, https://www.rivista.ai/2024/07/07/l-inverno-dellia-dal-1974-al-1980/.
[27] Si pensi all’accesso al fascicolo sanitario dei pazienti, alla registrazione delle somministrazioni delle varie dosi di vaccino, al controllo circa il rispetto del divieto di circolazione e dell’obbligo di distanziamento sociale.
[28] A. Del Noce, Intelligenza artificiale e giustizia predittiva: apocalittici e integrati,1 febbraio 2023, https://www.ordineavvocatitorino.it/sites/default/files/documents/CPO/Intelligenza%20artificiale%20e%20giustizia%20predittiva%20-%20Apocalittici%20ed%20Integrati%20-%20Alberto%20Del%20Noce.pdf, p. 2.
[29] O. Pollicino, Regolare l’Intelligenza Artificiale: la lunga via dei diritti fondamentali, in O. Pollicino, F. Paolucci, G. Finocchiaro, F. Donati (a cura di), La disciplina dell’intelligenza artificiale, Giuffrè, Milano, 2025, p. 7.
[30] IVI, p. 3.
[31] A. Garapon, J. Lassègue, La giustizia digitale. Determinismo tecnologico e libertà, Il Mulino, Bologna, 2018, p. 44.
[32] Ivi, pp. 52-57.
[33] F. DONATI, Intelligenza artificiale e giustizia, cit., p. 424.
[34] M. Zanichelli, L’intelligenza artificiale e la persona: tra dilemmi etici e necessità di regolazione giuridica, in Teoria e Critica della Regolazione Sociale, n. 2, 2021, Mimesis, Milano-Udine, p. 142.
[35] Troviamo per la prima volta il termine “normatività digitale” in E. Fourneret, B. Yvert, Digital Normativity: A Challenge for Human Subjectivation, in Frontiers in Artificial Intelligence, n. 3, 2020, Losanna, p. 1, che gli autori del contributo definiscono come “la capacità degli algoritmi di definire standard che gli esseri umani incorporano come ciò che dovrebbe essere ritenuto normale nella loro vita e che guidano le loro azioni”.
[36] Sul punto A. Masucci, L’algoritmizzazione delle decisioni amministrative tra Regolamento europeo e leggi degli Stati membri, in Diritto pubblico, n. 3, 2020, Il Mulino, Bologna, pp. 943-979.
[37] Per un approfondimento sul processo di digitalizzazione e algoritmizzazione in corso nella Pubblica Amministrazione si veda anche A. SIMONCINI, L’algoritmo incostituzionale; intelligenza artificiale e il futuro delle libertà, BioLaw Journal – Rivista di BioDiritto, n. 1, 2019, Facoltà di Giurisprudenza dell’Università di Trento, pp. 63-89; P. OTRANTO, Decisione amministrativa e digitalizzazione della p.a., in Federalismi.it, n. 2, 2018, Società editoriale federalismi s.r.l., Roma, pp. 2-27.
[38] F. DONATI, Intelligenza artificiale e giustizia, cit., p. 425. Sul punto anche A. G. OROFINO, La patologia dell’atto amministrativo elettronico: sindacato giurisdizionale e strumenti di tutela, in Il Foro amministrativo – C.d.S., 2002, Giuffrè, Milano, pp. 2256-2281.; F. SAITTA Le patologie dell’atto amministrativo elettronico e il sindacato del giudice amministrativo, in Quaderni del DAE - Rivista di diritto amministrativo elettronico, 2003, www.cesda.it, pp. 1- 28.
[39] Papa Francesco, Discorso del Santo Padre Francesco, Borgo Egnazia (Puglia), 14 giugno 2024, p. 7.
[40] IVI.
[41] Sul punto, R. Redaelli, Il profilo normativo dell’intelligenza artificiale. Un’indagine sulla relazione tra sistemi intelligenti e normatività morale, Scienza & Filosofia, n. 32, 2024, Nevermind Srls, Napoli, pp. 322-344.
[42] Sebbene in quegli anni la tecnologia a disposizione fosse ancora molto limitata e per lo più utilizzata per eseguire calcoli, in contributi come L. LOEVINGER, Jurimetrics: The next step forward, in Minnesota Law Review, n. 5, 1949, pp. 455 – 493, già si iniziava ad ipotizzare, con un approccio molto pragmatico, l’applicazione al diritto di modelli di logica formale, della macchina e dell’informatica, finalizzati alla memorizzazione, alla ricerca e alla selezione delle informazioni giuridiche e delle sentenze, per far fronte all’eccesso di produzione legislativa e di giudicati o altre fonti utili per prendere delle decisioni; ma anche un impiego previsionale che, attraverso un’analisi di tipo comportamentale dei giudici, permetteva di prevederne le sentenze.
[43] Sul punto, A. Carleo, Calcolabilità giuridica, Il Mulino, Bologna, 2017.
[44] C. SORRENTINO, Giurimetria e Giustizia predittiva: intelligenza artificiale e Legal tech, 26 luglio 2023, https://www.diritto.it/giurimetria-giustizia-predittiva-i-a-legaltech/
[45] In effetti, il meccanismo della parola-chiave per avviare la ricerca informatica delle fonti di diritto era comune a molti altri ambienti di lavoro. I primi programmi messi in commercio, infatti, non erano specificatamente dedicati al settore giudiziario e quindi hanno avuto un’ampia diffusione commerciale. Ma è stato necessario attendere tra la fine anni ’60 e l’inizio degli anni ’70 del secolo scorso perché l’informatica non venisse più applicata “anche” al diritto, bensì entrasse in maniera più puntuale “nel” diritto.
[46] Il termine è stato coniato dal professor Losano, docente di Filosofia del Diritto e Informatica Giuridica presso l’Università degli Studi di Torino. In contributi quali M. G. LOSANO, Giuscibernetica, in R. TREVES (a cura di), Nuovi sviluppi della sociologia del diritto 1966-1967, 1968, Milano; o come M. G. LOSANO, Giuscibernetica. Macchine e modelli cibernetici nel diritto, 1969, Einaudi, Torino; oppure M. G. LOSANO, Corso di informatica giuridica, Vol. I, Informatica per le scienze sociali, 1985, Einaudi, Torino, pp. 40-63, l’autore ha illustrato caratteristiche e finalità della giuscibernetica distinguendo quattro diversi filoni di ricerca.
[47] A. Del Noce, Intelligenza artificiale e giustizia predittiva: apocalittici e integrati, cit.
[48] Neologismo ideato da Vittorio Frosini, che ne ha parlato in maniera approfondita in contributi quali V. FROSINI, La Giuritecnica: problemi e proposte, in Informatica e diritto, ESI, Napoli, 1975, pp. 26-35.
[49] Ivi, p. 28.
[50] V. Frosini, Cibernetica, diritto e società, Edizioni di comunità, Milano, 1973, p. 177. In questo stesso volume, a p. 183, lo studioso sottolineava già la necessità di insegnare la tecnologia giuridica nelle facoltà di giurisprudenza e prevedeva che, ben presto, nell’ordine giudiziario si sarebbe reso indispensabile costituire sezioni con specifica competenza giuritecnica, con magistrati appositamente preparati e selezionati.
[51] E. FAMELI, L’automa infortunistico: un esperimento di consulenza giuridica automatica, in Informatica e diritto, ESI, Napoli,1976, pp. 1-50. L’Istituto per la documentazione giuridica del CNR di Firenze ha sperimentato l’automa infortunistico per riuscire, in maniera semplice e intuitiva, a gestire la richiesta formale di risarcimento all’assicuratore del danneggiante per il danno patrimoniale subìto dal veicolo o per le eventuali lesioni procurate alle persone coinvolte. Collegando il sistema con tutte le banche dati in materia di sinistri stradali, si voleva poi giungere alla standardizzazione della procedura e dei criteri di liquidazione di questo tipo di danni.
[52] G. Ciacci, Vittorio Frosini e l’informatica giuridica, in Rivista Internazionale di Filosofia del Diritto, Vittorio Frosini: una coscienza giuridica aperta al futuro, n. 1-2, 2019, Giuffrè, Milano, P. 113.
[53] Così esordisce il Considerando n. 4 del Regolamento. Questo abroga esplicitamente la Direttiva 95/46/CE (regolamento generale sulla protezione dei dati) che richiedeva ai singoli Stati Membri di emanare leggi nazionali, superando così un approccio nuovo, più strutturato, alla regolamentazione digitale.
[54] F. DONATI, Intelligenza artificiale e giustizia, cit., p. 426.
[55] G. Mobilio, L’intelligenza artificiale e le regole giuridiche alla prova: il caso paradigmatico del GDPR, in federalismi.it, n. 16, 2020, Società editoriale federalismi s.r.l., Roma, pp. 277, 278.
[56] CEPEJ, Carta etica sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, Strasburgo, 2028, p. 7. Ovviamente la Commissione ricorda altresì a tutti che «il trattamento di decisioni e dati giudiziari deve avere finalità chiare, che rispettino pienamente i diritti fondamentali garantiti dalla Convenzione europea sui diritti dell’uomo (CEDU) e dalla Convenzione sulla protezione delle persone rispetto al trattamento automatizzato di dati di carattere personale, STE n. 108, come modificata dal Protocollo di emendamento STCE n. 223)».
[57]IVI, p. 10. La Commissione aggiunge altresì che «I dati derivanti da decisioni giudiziarie inseriti in un software che esegue un algoritmo di apprendimento automatico dovrebbero provenire da fonti certificate e non dovrebbero essere modificati fino a quando non sono stati effettivamente utilizzati dal meccanismo di apprendimento. L’intero processo deve pertanto essere tracciabile, al fine di garantire che non abbia avuto luogo alcuna modifica in grado di alterare il contenuto o il significato della decisione trattata. I modelli e gli algoritmi elaborati devono inoltre poter essere memorizzati ed eseguiti in ambienti sicuri, in modo da garantire l’integrità e l’intangibilità del sistema».
[58] IVI, p. 11.
[59] IVI, p. 12.
[60] Il provvedimento va inserito nel più ampio quadro di regolamentazioni europee che cercano di disciplinare la dilagante digitalizzazione in vari ambiti: si pensi al Regolamento (UE) 2022/868, sulla governance europea dei dati, entrato in vigore da settembre 2023 e meglio noto come DGA (Digital Governance Act); oppure al Regolamento (UE) 2023/2854, sull’accesso e l’uso dei dati generati da dispositivi connessi e servizi digitali, applicabile da settembre 2025 e noto come DA (Data Act); ma anche al Regolamento (UE) 2022/2065 sui servizi digitali, per gli addetti ai lavori DSA (Digital Services Act) che, da novembre 2022, vuole creare uno spazio digitale più sicuro e responsabile, proteggendo i diritti degli utenti e promuovendo la concorrenza leale; o, infine, al Regolamento (UE) 2022/1925, chiamato DMA (Digital Markets Act, 2022), che, da novembre 2022, vuole rendere i mercati del settore digitale più equi e contendibili.
[61] Di Giacomo L., AI Act: in vigore dal 2 febbraio per sistemi a rischio e formazione, 31 gennaio 2025, https://www.diritto.it/regolamento-ia-approvato-accordo-provvisorio-ue/. La valutazione non è ristretta al solo trattamento dei dati personali, ma riguarda anche le sue ricadute su dignità e integrità umane, libertà dell’individuo, uguaglianza e solidarietà, giustizia, democrazia, stato di diritto e ambiente.
[62] B. Fragasso, Pubblicato nella Gazzetta Ufficiale dell’UE il Regolamento sull’intelligenza artificiale (1689/2024),31 luglio 2024, https://www.sistemapenale.it/it/notizie/pubblicato-nella-gazzetta-ufficiale-dellue-il-regolamento-sullintelligenza-artificiale-1689-2024.
[63] Regolamento (UE) 1689/2024/UE, Allegato III, n. 8, lett. a). Trattasi, tuttavia, di presunzione relativa in quanto l’art. 6, par. 3, co. 1, prevede che: «un sistema di IA di cui all’allegato III non è considerato ad alto rischio se non presenta un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, anche nel senso di non influenzare materialmente il risultato del processo decisionale».
[64] INTURRI P., FICHERA S., COSTA A. (a cura di), La disciplina dei sistemi di intelligenza artificiale per l’amministrazione della giustizia nel Regolamento (UE) 2024/1689, in Lavoro Diritti Europa, n. 1, 2025, Edizioni Guerini, Milano, p. 5.
[65] Al momento, infatti, si registra solo l’entrata in vigore, il 2 agosto 2025, del Codice di buone pratiche europeo sui modelli di intelligenza artificiale per finalità generali (GPAI), oggetto degli artt. 53 -55 del Regolamento (UE) 1689/2024. Il codice è stato elaborato da 13 esperti indipendenti, con il contributo di oltre mille parti interessate. Contiene indicazioni sulla trasparenza, sulla protezione del diritto d’autore e sulla sicurezza contro il rischio sistemico di cui alcuni di questi modelli, qualora siano molto capaci o ampiamente utilizzati. Vi si può aderire su base volontaria, ma è stato accolto con particolare diffidenza dagli sviluppatori di modelli perché, a loro avviso, introduce una serie di incertezze giuridiche. Infatti, l’Europa, da un lato, con lo strumento del codice di buone pratiche, lascia troppi margini discrezionali ai suoi destinatari; dall’altro, richiedendo trasparenza, collide con le esigenze di riservatezza delle aziende che immettono un prodotto sul mercato cercando di conquistare una solida posizione di mercato. Sul punto, https://europeannewsroom.com/it/meta-non-firma-codice-ue-ia-troppe-incertezze-giuridiche/.
[66] Novelli C., L’Artificial Intelligence Act europeo: alcune questioni di implementazione, in Federalismi.it, n. 2, 2024, Società editoriale federalismi s.r.l., Roma, pp. 110-113.