RCD
Intelligenza artificiale nella decisione giudiziaria: nuove prospettive per il processo penale
  • Rivista Scientifica ANVUR
  • . - Liv. (ris. W - H)
ISCRIVITI (leggi qui)
Pubbl. Mer, 10 Giu 2020

Intelligenza artificiale nella decisione giudiziaria: nuove prospettive per il processo penale

Modifica pagina

autore Alessia Di Domenico



Il presente contributo si propone di evidenziare i vantaggi ma anche le notevoli criticità relative all’utilizzo di algoritmi predittivi nella valutazione giurisdizionale; a tal proposito, saranno analizzate le possibilità, allo stato attuale, di applicare sistemi di Intelligenza Artificiale nella fase decisionale del processo, individuando la necessità di una soluzione che tenga conto dei benefici di tale applicazione, ma che possa al contempo tutelare i diritti fondamentali ed il “libero convincimento” del giudice.


Abstract ENG
The article aims to highlight the advantages but also the considerable critical issues related to the use of predictive algorithms in judicial evaluation; in this regard, the possibilities of applying Artificial Intelligence systems in the decision-making phase of the process will be analyzed, identifying the need for a solution that takes into account the benefits of such application, but that can protect fundamental rights at the same time.

Sommario: 1. Introduzione. – 2. I c.d. automated decision systems. – 3. Le linee guida europee in materia di intelligenza artificiale. – 3. Algoritmi in fase decisionale: un dibattito ancora aperto. – 4. Riflessioni conclusive.

1. Introduzione

Da alcuni anni a questa parte, i sistemi di Intelligenza Artificiale (IA) sono entrati nella nostra vita di tutti i giorni, e vengono utilizzati in numerosi settori[1]. Si pensi, ad esempio, al settore medico, dei trasporti, della difesa, dell’automazione[2], ma anche a quello della difesa e della giustizia: è facile, dunque, comprendere come i sistemi di intelligenza artificiale, dotati di algoritmi idonei a svolgere compiti della mente umana, abbiano migliorato – e continuano, ogni giorno, a migliorare – il nostro benessere sociale.

Nonostante le “resistenze culturali” che possono essere poste nei confronti dell’ingresso di sistemi di IA nel settore della giustizia, appare evidente come tali sistemi si presenteranno con forza sempre maggiore all’orizzonte dei nostri processi, in quanto ormai “integrati al mercato, attesi dai nostri contemporanei, e soprattutto, risultato di una convergenza tra scienza, tecnica e giustizia”[3]. Pertanto, è ormai preferibile non negare la loro rilevanza nel contesto attuale, ma piuttosto analizzare i benefici e le criticità del loro utilizzo. In particolare, vengono ormai generalmente riconosciute tre principali modalità con cui la tecnologia delle machine learning può agevolare il lavoro degli operatori del diritto e, conseguentemente, rendere più efficiente la giustizia[4]:

  1. l’analisi di documenti e la predisposizione di atti;
  2. la previsione dell’esito di una causa (c.d. giustizia predittiva);
  3. la formulazione di giudizi.

Con riferimento alle possibili implicazioni dell’utilizzo di sistemi di IA nel processo penale, molteplici e significativi risvolti sembrano non appartenere più a un futuro lontano o inimmaginabile: di fatto, in un contesto ove la tecnologia informatica continua ad “aumentare il passo”, e potrebbe presto ridurre l’uomo a “mero spettatore” delle decisioni della macchina[5], la trattazione di tali problematiche risulta, oltre che necessaria, urgente. A tal riguardo, vengono individuati quattro fondamentali percorsi di indagine[6]: le attività di polizia predittiva, intendendo in particolare l’insieme di attività rivolte allo studio e all’applicazione di metodi statistici con l’obiettivo di “predire” chi potrà commettere un reato, o dove e quando; i c.d. algoritmi predittivi, impiegati per poter valutare la pericolosità sociale di un soggetto; il coinvolgimento di un sistema di IA nella commissione di un reato (in particolare, come possibile autore); i c.d. automated decision systems. È dunque verso quest’ultima applicazione, che il presente contributo intende individuare possibili prospettive e criticità.

2. I c.d. automated decision systems

Il fenomeno dell’intelligenza artificiale rappresenta il punto più avanzato della rivoluzione tecnologica, e la sua applicazione in contesti decisionali rappresenta forse la prospettiva più problematica e meno esplorata. Gli automated decision systems, algoritmi basati sull’IA utilizzati ai fini decisionali, trovano solo negli ultimi anni possibili applicazioni in svariati ambiti, profilandosi all’orizzonte di un processo penale che dovrà dunque essere “preparato” ad accoglierli.

Si fa riferimento, in particolare, a sistemi di IA dotati di algoritmi in grado di apprendere dall’esperienza, e di assumere decisioni in autonomia. In particolare, tali algoritmi sono capaci di elaborare dati, effettuare previsioni, e dunque fornire risposte e soluzioni. Quali sarebbero le conseguenze dell’ammissione un sistema di intelligenza artificiale di tale genere nel nostro processo, ed in particolare nella valutazione degli elementi di prova e nella decisione giurisdizionale?

Una risposta affermativa a tale possibilità, da una parte, desta senz’altro notevoli preoccupazioni, ove la strada della nostra giustizia penale si aprirebbe paurosamente all’oscura immagine di un “giudice robot”, in grado di sostituire l’essere umano. Tra le sue principali caratteristiche, emergono la rapidità, la sua non influenzabilità, il rigore e le sue decisioni “matematiche”[7], in grado di risolvere numerosi dubbi e perplessità che oggi opprimono la figura del giudice e che si rivolgono soprattutto ad un’eccessiva eterogeneità dei giudizi. Tuttavia, un giudice “privo di emozioni”, forse incapace di valutare con quella “libertà” peraltro, come vedremo, richiamata dall’art. 192 c.p.p., non è necessariamente la risposta a tutti i nostri dubbi. La possibilità di una diffusione di decisioni giudiziarie algoritmiche ha infatti richiamato l’attenzione del Consiglio d’Europa, il quale, tramite la propria Commissione per l’efficacia della giustizia, ha diffuso alcune importanti raccomandazioni circa l’utilizzo e l’impatto dell’intelligenza artificiale.

3. Le linee guida europee in materia di Intelligenza Artificiale

Il 4 dicembre 2018, la Commissione per l’efficacia della giustizia (CEPEJ) ha adottato la Carta etica europea per l’uso dell’intelligenza artificiale nei sistemi di giustizia penale e negli ambiti connessi[8], individuando alcune fondamentali linee guida nello sviluppo e nell’utilizzo degli strumenti e dei servizi di IA. In particolare, la Carta etica[9] prevede la formulazione di cinque principi: 1) il rispetto dei diritti fondamentali (assicurandosi, in particolare, il diritto di accesso a un giudice e la sua indipendenza, il diritto al contraddittorio e ad un equo processo); 2) principio di non discriminazione (proprio al fine di evitare il rischio attuale di automatizzare ingiustizie e discriminazioni); 3) principio di qualità e sicurezza (il quale prevede che gli algoritmi siano tracciabili e memorizzabili); 4) principio di trasparenza, imparzialità e correttezza; 5) principio di garanzia dell’intervento e del controllo umano. Considerare quest’ultimo principio risulterà dunque fondamentale per la trattazione del tema in esame, in quanto presuppone che qualsiasi decisione posta in essere dal sistema di intelligenza artificiale non potrà da sola essere sufficiente a fondare la stessa decisione giudiziaria. Per questo motivo, l’emissione di un giudizio attraverso un sistema di IA, specialmente nel settore penale, risulta l’applicazione più problematica dei sistemi di IA alla giustizia, anche alla luce dei principi fondamentali previsti dalla Carta Europea. Di fatto, l’eccessiva automazione del giudizio potrebbe mettere a dura prova l’attendibilità dello stesso in termini di trasparenza e correttezza, ma soprattutto la stessa indipendenza e libertà del giudice.

Nonostante i doverosi limiti posti all’utilizzo di sistemi di IA nella giustizia, e la necessità di criteri volti ad assicurare che tali sistemi garantiscano il rispetto dei diritti fondamentali e la tutela dei dati personali, in Europa continua a diffondersi una sempre maggiore consapevolezza delle molteplici utilità dell’impiego delle nuove tecnologie informatiche a servizio della giustizia. Il 2 Febbraio 2020 la Commissione europea ha di fatto pubblicato il Libro bianco dell’IA, il quale evidenzia le grandi opportunità legate all’impiego della nuova tecnologia, e la necessità di investire in questo settore[10].

4. Algoritmi in fase decisionale: un dibattito ancora aperto

L’applicazione di sistemi di IA nel processo penale avrebbe, senza dubbio, il vantaggio di rendere più veloce la giustizia, nonché di “ridurre il numero di bias in cui fatalmente rischiano di incappare i giudici umani e al quale sarebbero sottratti i robogiudici[11]. Questi ultimi procederebbero dunque assicurando celerità ed efficienza al processo, ma soprattutto assicurerebbero una minore disomogeneità dei giudizi[12].

Ma un sistema di intelligenza artificiale sarebbe davvero in grado di decidere un processo?

Per rispondere a tale domanda, sarà necessario procedere prima ad alcune importanti precisazioni.

Occorre ricordare, in particolare, che il momento valutativo delle prove, nel nostro processo penale, è governato dall’art. 192 c.p.p., il quale precisa che “il giudice valuta la prova dando conto nella motivazione dei risultati acquisiti e dei criteri adottati”. Se da una parte si dovranno riscontrare le difficoltà, per un giudice-robot, di poter giudicare se un teste abbia detto o meno la verità, d’altra parte appare ancora più difficile stabilire se determinati indizi siano da considerarsi “gravi, precisi e concordanti”, come lo stesso art. 192, comma 2, c.p.p. prescrive.

Non sarebbe, tuttavia, la prima volta che viene proposto l’utilizzo di modelli matematici nella valutazione delle prove. Si pensi, ad esempio, al noto modello logico bayesiano, che rappresenta, a parere di buona parte della comunità scientifica forense, il modello adatto per ragionare e fare inferenza in situazioni di incertezza, che caratterizzano sia le scienze forensi che quelle giuridiche.

In un contesto decisionale, il calcolo delle probabilità è in grado di offrire un contributo importante, ponendo luce non solo su come sia possibile misurare il grado di incertezza, ma anche combinando la misurazione di più eventi incerti, basandosi su linee di ragionamento preciso e logico senza incorrere in trappole dell’intuizione. Per quanto questo genere di teorie, trasposte in ambito giudiziario, non abbiano ancora ingenerato i risultati sperati, esse mantengono tutt’oggi potenzialità innegabili in termini di razionalizzazione del giudizio[13]. Soprattutto fuori dall’Italia, e in particolare negli Stati Uniti e nel Regno Unito, il dibattito sull’applicazione degli algoritmi nel processo penale ha raggiunto una fase avanzata, ove non si discute più sul loro possibile utilizzo, ma sul come garantire un loro utilizzo rispettoso dei diritti fondamentali. Si evidenzia, dunque, come l’inesorabile sviluppo della “matematica del processo” sembra offrire realmente al sistema giudiziario un compendio di algoritmi predittivi sempre più sofisticati, in grado di supportare il giudicante nel perseguimento di una maggiore prevedibilità delle decisioni.

Tuttavia, il punto più problematico di tale possibile applicazione nel nostro sistema rimane la valutazione delle prove al di là di ogni ragionevole dubbio (art. 533 c.p.p.). Di fatto, i sistemi di IA vengono programmati per formulare risposte certe, prive di alcun dubbio, e rimangono dunque incapaci di applicare la regola di giudizio di cui all’art. 533 c.p.p., dal momento che le uniche risposte possibili saranno di natura binaria o statistica. È proprio con riferimento a questo fondamentale limite, che si radicano i numerosi atteggiamenti di rigetto aprioristico nei confronti dell’utilizzo di algoritmi nel processo, data l’impossibilità di fissare una soglia quantitativa al convincimento del giudice, che finirebbe dunque per essere svilito e compresso.

Se da una parte il “fattore umano” non può essere totalmente surrogato da una macchina, d’altra parte si potrebbe rilevare che proprio la componente umana nel momento del giudizio rende quest’ultimo fallibile, e dunque imprevedibile. Ecco allora che l’applicazione di sistemi di IA nel giudizio sembrano poter soddisfare, con maggiore precisione, quelle “ragioni di stabilità” del processo, per cui diventa necessario assicurare l’uguaglianza dei cittadini di fronte alla legge e la possibilità di consentire a ciascuno di orientare i propri comportamenti anche in relazione alle conseguenze che ne possono derivare: in altre parole, tali sistemi sembrerebbero in grado di garantire la stessa “prevedibilità” del diritto[14]. Tale garanzia, tuttavia, si contrappone alla paura di un eccessivo peso dei precedenti giudiziari, che condizionerebbero con “rigore matematico” i successivi giudizi aventi ad oggetto le medesime questioni fattuali o giuridiche; si deve riconoscere, inoltre, una profonda diffidenza verso la totale eliminazione di una componente “emotiva” all’interno dello stesso processo, in un contesto dove il ruolo del giudice è anche quello di “temperare e dare razionalità all’astratta durezza della legge”[15].

5. Riflessioni conclusive

L’autonoma valutazione del giudice, cui compete in via esclusiva l’interpretazione del diritto applicabile e la valutazione della peculiarità della fattispecie oggetto del giudizio, è senz’altro un valore irrinunciabile del nostro ordinamento giuridico. Sotto questo profilo, dunque, la totale sostituzione del giudice con sistemi automatici di giustizia predittiva non appare oggi certamente possibile[16]. Tuttavia, la Carta etica europea del 2018 ammette l’uso, sotto il controllo umano, dell’intelligenza artificiale e dei sistemi di giustizia penale. Ciò significa che ad un computer potrebbe essere demandata, se non la decisione finale sulla colpevolezza o meno di un imputato o la quantificazione dell’eventuale pena da irrogare, la soluzione di specifiche questioni costituenti presupposto di tale decisione. Ad esempio, in processi di natura tecnica, potrebbe fornire la risposta al quesito se il risultato di una determinata prova scientifica (dattiloscopica, basilistica, sul DNA, ingegneristica, medico-legale, ecc.) sia o meno corretto[17].

A fronte dunque dell’impossibilità della “macchina” di sostituirsi al giudice, ma tenendo conto al tempo stesso dei numerosi benefici dell’applicazione dell’intelligenza artificiale nel processo, un possibile bilanciamento appare l’introduzione di un sistema di IA nel processo quale ausiliario del giudice. Utilizzando dunque un’efficace metafora, il sistema di IA diventerebbe “pastore del giudice[18], offrendo una risposta alla domanda che gli verrà posta, ma lasciando la decisione finale al giudice. Il responso dell’algoritmo non sarebbe dunque vincolante, ma rimarrebbe solo un utile supporto informativo; in questo modo verrebbe così garantito il libero convincimento dello stesso giudice, rimanendo quest’ultimo libero di soppesare le particolarità del caso concreto, e decidere di conseguenza.

Questa strada, allo stato attuale, sembrerebbe l’unica percorribile; una strada non priva di criticità, se si considera il rischio che la stessa indipendenza e imparzialità del giudice potrebbero essere “travolte dall’algoritmo”. Per questo motivo, percorrendo tale inedita via, il giudice dovrà essere in grado, ove necessario, di disattendere i risultati della “macchina”, che resteranno dunque sempre oggetto di specifica valutazione in riferimento alle singole circostanze del caso concreto, in nome di quella probabilità logica o alta credibilità razionale[19] che da tempo governa la valutazione di strumenti probatori tecnico-scientifici nel nostro processo penale.


Note e riferimenti bibliografici

[1] F. Donati, Intelligenza artificiale e giustizia, in “Associazione Italiana dei Costituzionalisti, 2020, disponibile qui: https://www.rivistaaic.it/images/rivista/pdf/1_2020_Donati.pdf.

[2] R. Casano, Giustizia e intelligenza artificiale, in “Salvis Juribus”, disponibile qui: http://www.salvisjuribus.it/giustizia-e-intelligenza-artificiale/.

[3] A. Natale, Una giustizia (im)prevedibile?, in “Questione Giustizia”, 2018, disponibile qui: http://questionegiustizia.it/rivista/2018/4/introduzione-una-giustizia-imprevedibile-_572.php#_ftn50.

[4] A. Trasversi, Intelligenza artificiale e giustizia, verso un giudice robot?, in “Altalex”, disponibile qui: https://www.altalex.com/documents/news/2019/03/19/intelligenza-artificiale-e-giustizia-giudice-robot.

[5] C. Tremolada, L’esercizio della giurisdizione al cospetto dell’intelligenza artificiale. L’utilizzo di algoritmi predittivi in sede giudiziaria, in “Il Sole 24 Ore”, disponibile qui: https://www.diritto24.ilsole24ore.com/art/avvocatoAffari/mercatiImpresa/2019-10-30/l-esercizio-giurisdizione-cospetto-intelligenza-artificiale-utilizzo-algoritmi-predittivi-sede-giudiziaria-094459.php.

[6] Cfr. F. Basile, Intelligenza artificiale e diritto penale: quattro possibili percorsi di indagine, in “Diritto penale e uomo”, 2019, che per la prima volta individua specificatamente quattro linee di indagine, analizzandone possibili risvolti e scenari futuri. Il contributo è disponibile qui: https://archiviodpc.dirittopenaleuomo.org/upload/3089-basile2019.pdf.

[7] C. Castelli, Chi ha paura del robot giudice? Se l’intelligenza artificiale entra nella giustizia, in “Agenda Digitale”, 2020, disponibile qui: https://www.agendadigitale.eu/documenti/giustizia-digitale/chi-ha-paura-del-robot-giudice-se-lintelligenza-artificiale-entra-nella-giustizia/.

[8] Per maggiori approfondimenti circa i cinque principi individuati dalla CEPEJ, si consulti il seguente documento: https://rm.coe.int/carta-etica-europea-sull-utilizzo-dell-intelligenza-artificiale-nei-si/1680993348.

[9] La Carta Etica è destinata in particolare agli attori pubblici e privati incaricati di creare e lanciare strumenti e servizi di intelligenza artificiale relativi al trattamento di decisioni e dati giudiziari (apprendimento automatico o qualsiasi altro metodo derivante dalla scienza dei dati).

[10] F. Donati, op. cit.

[11] M. Tegmark, Vita 3.0. Essere umani nell’era dell’intelligenza artificiale, 2018, Milano, Cortina Raffaello, pp. 143 ss.

[12] A. Trasversi, Ci sarà un giudice robot?, cit.

[13] C. Costanzi, La matematica del processo: oltre le colonne d’Ercole della giustizia penale, in “Questione Giustizia”, 2018, disponibile qui: http://www.questionegiustizia.it/rivista/2018/4/la-matematica-del-processo-oltre-le-colonne-d-ercole-della-giustizia-penale_590.php.

[14] Ibidem.

[15] C. Castelli, op. cit.

[16] F. Donati, op. cit.

[17] A. Trasversi, op. cit.

[18] G. Riccio, Ragionando su intelligenza artificiale e processo penale, in “Archivio Penale”, 2019, disponibile qui: http://www.archiviopenale.it/File/DownloadArticolo?codice=ec8503fc-df47-4c00-bdad-28b70ffd50f7&idarticolo=21741.

[19] Il concetto di “probabilità logica”, elaborato per la prima dalla nota sentenza Franzese, viene valorizzato come canone fondamentale dell’epistemologia giudiziaria. In particolare il giudizio di probabilità statistica precede cronologicamente quello di probabilità logica. Con il giudizio di probabilità statistica, di fatto, ci si chiede in quale percentuale la condotta doverosa evita l'evento; con il giudizio di probabilità logica, invece, si considerano le peculiarità del caso concreto, per accertare, oltre ogni ragionevole dubbio, se il caso di specie rientra nella percentuale salvifica. La probabilità statistica si presenta così come un giudizio quantitativo, per la quantità appunto espressa in termini percentuali, mentre la probabilità logica si presenta come un giudizio qualitativo, espresso appunto sulla qualità dei dati del caso concreto, che lo spingono nella percentuale salvifica o lo allontanano. 

Occorre quindi un giudizio che venga effettuato in concreto, alla luce di tutte le risultanze processuali e delle peculiarità del caso singolo. Il procedimento logico da applicare non è di tipo deduttivo ma inferenziale-induttivo.