RCD


Attendere prego, caricamento pagina...
Intelligenza artificiale e processo penale
  • Rivista Scientifica ANVUR
  • . - Liv.
ISCRIVITI (leggi qui)
Pubbl. Mer, 9 Giu 2021
Sottoposto a PEER REVIEW

Intelligenza artificiale e processo penale

Modifica pagina

Valentina Valenti
Praticante AvvocatoUniversità degli Studi della Calabria



Scopo del presente lavoro è cercare di comprendere l’incidenza dell’intelligenza artificiale nel processo penale. Dinanzi ad una tecnologia altamente sviluppata è necessario chiedersi quanto questa possa essere d’ausilio nella ricerca della verità processuale. Rispondere a quesiti di tal fatta, però, impone ulteriori riflessioni: il corretto impiego della strumentazione de qua come mezzo di ricerca della prova nella fase investigativa, sia nell’assunzione del provvedimento decisorio. Quanto è alto il rischio di violare taluni diritti fondamentali?


Abstract ENG
The purpose of this work is to try to understand the impact of artificial intelligence in the criminal trial. Faced with highly developed technology, it is necessary to ask how much this can help in the search for procedural truth. Answering such questions, however, requires further reflections: the correct use of the instrumentation in question as a means of seeking evidence in the investigative phase, and in taking the decision-making measure

Sommario: 1. Diritto penale e intelligenza artificiale; 2. Un doveroso sguardo oltreoceano, la giustizia statunitense: il caso Loomis vs Wisconsin State e il caso Alexa; 3. L’applicazione dell’Intelligenza Artificiale nel sistema giudiziario italiano. Aspetti problematici; 4. Conclusioni.

1. Diritto penale e intelligenza artificiale

Le maggiori complessità, nello sviluppo della tematica in esame, si rinvengono preliminarmente in una definizione tendenzialmente accettata di intelligenza artificiale.

Come è stato evidenziato[1], allo stato attuale, non esiste una nozione che sia stata ampiamente condivisa poiché manca, di base, una definizione di “intelligenza”.

Intuitivamente la locuzione rimanda al mondo della robotica, della informatica e, in generale, a tutte quelle scienze[2] capaci di interfacciarsi con l’essere umano.

Abbracciando una definizione più generalizzata, si può affermare come essa sia una disciplina che studia come riprodurre i processi mentali più complessi mediante l'uso di un computer. Tale approccio si sviluppa secondo due percorsi complementari: da un lato l'intelligenza artificiale cerca di avvicinare il funzionamento dei computer alle capacità dell'intelligenza umana, dall'altro usa le simulazioni informatiche per fare ipotesi sui meccanismi utilizzati dalla mente umana[3].

Posto che è indubbio come si tratti di un argomento che può essere analizzato sotto diversi punti di vista, ognuna delle locuzioni ivi riportate non è dotata di una sorta di “ufficialità”.

Per colmare tale lacuna sarebbe allora utile far riferimento alla Carta Etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, adottata a Strasburgo dalla Commissione Europea per l’Efficienza della Giustizia.

Secondo la Carta, per intelligenza artificiale deve intendersi «l’insieme di metodi scientifici, teorie e tecniche finalizzate a riprodurre mediante le macchine le capacità cognitive degli esseri umani. Gli attuali sviluppi mirano a far svolgere alle macchine compiti complessi precedentemente svolti da esseri umani»[4].

Nell’Appendice, tuttavia, non si è mancato di evidenziare come l’espressione “intelligenza artificiale” sia stata criticata dagli esperti, i quali distinguono tra intelligenze artificiali “forti” – capaci di contestualizzare problemi specializzati di varia natura in maniera completamente autonoma –  e intelligenze artificiali “deboli” o “moderate”, contraddistinte da alte prestazioni nel loro ambito di addestramento.

L’importanza e la stretta interdipendenza tra le nuove tecnologie e le scienze sociali è stata attenzionata anche dal Parlamento Europeo con la risoluzione del 20 gennaio 2021 n.  P9_TA(2021)0009 dal titolo Intelligenza artificiale: questioni relative all'interpretazione e applicazione del diritto internazionale.

Il Parlamento, nei suoi consideranda, ha sostanzialmente evidenziato due aspetti: in primis,  il rapido sviluppo della robotica, delle tecnologie e della I.A. (intelligenza artificiale), le quali influenzano  – con impatto diretto – tutti gli aspetti della società; in secondo luogo, ha posto l’attenzione sulla necessità e sul dovere inderogabile che lo sviluppo di tali tecnologie avvenga nel rispetto della dignità umana e dei diritti umani, come sancito dalla Carta dei diritti fondamentali dell'Unione europea.

Prendendo le mosse dalla necessità che sia necessario disporre di un quadro giuridico europeo comune, con definizioni armonizzate e principi etici comuni, anche per l'utilizzo dell'intelligenza artificiale a fini militari, il Parlamento ha chiesto, quindi, alla Commissione europea di adottare le seguente definizione di I.A.: “un sistema basato su software o integrato in dispositivi hardware che mostra un comportamento che simula l'intelligenza, tra l'altro raccogliendo e trattando dati, analizzando e interpretando il proprio ambiente e intraprendendo azioni, con un certo grado di autonomia, per raggiungere obiettivi specifici”.

Il raggiungimento degli obiettivi varia, ovviamente, in base al tipo di impiego dell’intelligenza artificiale: dalla sicurezza, alla difesa, alla giustizia.

Proprio su tale ultimo aspetto, oggetto di trattazione, l’organo della democrazia europea ha  paventato il rischio che l’impiego di sistemi di IA nei processi decisionali delle pubbliche autorità possa condurre a decisioni di parte che comportino conseguenze negative per i cittadini. Da qui la necessità, pertanto, che siano soggette a criteri rigorosi per controllarne la sicurezza, la trasparenza, la rendicontabilità, la non discriminazione e la responsabilità sociale e ambientale.

Ha esortato gli Stati membri a valutare i rischi connessi alle decisioni basate sull'IA relativamente all'esercizio dell'autorità statale e a prevedere garanzie quali una vigilanza umana significativa, requisiti di trasparenza e la possibilità di contestare tali decisioni. Non si  è mancato di evidenziare come possa essere necessario introdurre ulteriori garanzie, come la supervisione di un professionista qualificato e l'elaborazione di norme rigorose in materia di deontologia professionale.

È doveroso segnalare come la Commissione Europea vorrebbe adottare un regolamento per rinnovare e armonizzare le regole europee sull'intelligenza artificiale. L'obiettivo, prioritario nell'agenda dell'esecutivo Von Der Leyen, è quello di contrastare gli utilizzi della tecnologia che possano risultare lesivi per «i diritti fondamentali e la sicurezza» dei cittadini Ue. Fra le applicazioni che dovrebbero essere vietate ci sono quelle capaci di «manipolare le persone attraverso tecniche subliminali al di là della loro coscienza» o che sfruttano le vulnerabilità di gruppi particolarmente fragili, come i bambini o le persone con disabilità[5].

Emerge chiaramente come l’impiego dell’intelligenza artificiale sia un tema, oggi, assolutamente centrale per la molteplicità ed eterogeneità degli interessi e valori coinvolti i quali impongono un doveroso bilanciamento con i diritti fondamentali della persona. Tale aspetto emerge ancor di più se il ragionamento de qua lo si trasla sul comparto giustizia.

Ciò perché il procedimento penale, infatti, è un meccanismo di ricostruzione della verità – processuale.

L’intelligenza artificiale, al pari, cerca proprio di apportare un contributo in ricostruzioni di tal fatta.

Una parte della dottrina[6] ha fatto notare come le nuove tecnologie abbiano generato un nuovo mondo che contiene e impone alcuni interrogativi profondi ed inediti, i quali investono i campi e le categorie più qualificanti della civiltà sociale e giuridica.

È doveroso chiedersi, allora, fin dove possa spingersi la tecnologia nell’accertamento della verità processuale e in che modalità il giudice debba tenerne conto.

2. Un doveroso sguardo oltreoceano, la giustizia statunitense:  il caso Loomis vs Wisconsin State e il caso Alexa

Per quanto discussa e tormentata sia l’applicazione dell’intelligenza artificiale al processo penale, le prime applicazioni concrete si sono registrate negli Stati Uniti d’America, con l’ormai famosa causa Eric Loomis vs Wisconsin State del 2016, registrata al ruolo n. No. 16-6387.

Nel caso ivi riportato l’imputato nel 2013 venne accusato di non essersi fermato ad un posto di blocco della polizia, in quanto egli era alla guida di un’automobile precedentemente impiegata per la commissione di un furto.

All’esito del processo l’imputato Loomis venne condannato dal giudice il quale tenne conto, in sede di commisurazione della pena, sia il casellario penale dell’imputato, sia di un altro – quanto singolare – parametro: il giudizio reso da Compas, acronimo di Correctional offender management profiling for alternative sanctions, un algoritmo di valutazione del rischio sviluppato dalla Equivant[7], impresa americana specializzata nello sviluppo di software di supporto alla giustizia.

L’algoritmo de qua venne impiegato per accertare il futuro pericolo di recidivanza dell’imputato.

All’esito di questionario composto da sole 137 domande Compass emise il proprio “verdetto”: Loomis venne  catalogato come un individuo ad alta probabilità di commettere reati della stessa indole e il giudice del tribunale della Contea di  La Crosse condannò l’imputato alla pena di anni sei di reclusione.

Aspetto ancor più importante, però, attiene al funzionamento dell’algoritmo, in quanto coperto da brevetto e, dunque, è impossibile assistervi durante la sua applicazione nei casi concreti.  Difatti, la difesa dell’imputato non fu messa nelle condizioni di poter vigilare sul corretto impiego dell’algoritmo. Sulla scorta di tale circostanza, Loomis propose appello presso la Corte del Wisconsin State denunciando la violazione del diritto di ricevere un equo processo. 

All’esito del giudizio di secondo grado, il collegio si espresse a sfavore dell’imputato, confermando la condanna a sei anni di reclusione in quanto, anche in assenza del giudizio di Compass, l’Autorità giudiziaria avrebbe valutato in egual modo il giudizio prognostico di recidivanza del condannato.

Purtuttavia, un monito:

«The United States is not aware of any federal court of appeals or state court of last resort, other than the Wisconsin Supreme Court, that has confronted the federal due process issues that petitioner raises here. In addition, the Sentencing Commission has not yet issued any recommendation about the proper role of risk-assessment tools in the federal system. 79 Fed. Reg. at 49,379. With more time, lower courts and government agencies may develop a fuller picture of the legal and factual implications of employing evidence-based practices at sentencing»[8] e ancora «Given the highly limited purpose for which petitioner’s risk assessment was considered and petitioner’s ability to counter the factual information on which the assessment relied, the Wisconsin Supreme Court correctly declined to find a due process violation. But that is not to say that the use of actuarial risk assessments at sentencing will always be constitutionally sound. Some uses of an undisclosed risk-assessment algorithm might raise due process concerns—if, for example, a defendant is denied access to the factual inputs about his criminal and personal history, or if his risk scores form part of a sentencing “matrix” or establish a “presumptive” term of imprisonment. See Pet. App. D53-D54 (distinguishing the use of COMPAS at sentencing from its use in bond determinations and other settings). As this Court has often recognized, “due process is flexible and calls for such procedural protections as the particular situation demands”».[9]

Seppure la Corte Suprema dello stato del Wisconsin non abbia rinvenuto nel caso di specie nessuna violazione del diritto ad un giusto processo ha al contempo affermato come, nella generalità dei casi, l’impiego dell’algoritmo Compass non sia immune da censure o vizi di incostituzionalità. Il collegio statunitense, difatti, si è spinto fino ad affermare come potrebbero venire in auge possibili violazioni del principio  del giusto processo qualora l’imputato non sia messo nelle condizioni di visionare la sua storia criminale o, qualora, il risultato raggiungo sia espressione di una condanna presuntiva o inserito nell’ambito di una tabella di condanna.

In situazione di tal fatta, si è affermato, che il principio del fair trial è modulabile e, come tale, esso deve essere valutato caso per caso secondo la particolarità della casistica che viene in auge (“due process is flexible and calls for such procedural protections as the particular situation demands”).

In altri termini il risk assessment, ossia la c.d. valutazione del rischio, non gode di un generale automatismo applicativo: è onere del giudicante valutare se nel caso concreto vi siano possibili profili di illiceità applicativa e se tali violazioni abbiano leso il diritto dell’imputato a ricevere un giusto processo.

Orbene, tale prima dimostrazione dell’impiego tecnologico nel sistema giudiziario ha ben alimentato i dibattiti in seno alla dottrina americana.

In prima battuta bisogna affermare come oltreoceano le più importanti categorie di avvocati e giudici – si pensi, ad esempio, alla National Bar Association o alla Conference of Chief Justice – guardano con benevolenza all’utilizzo di algoritmi nel sistema giudiziario.

La giustizia predittiva, poiché di questo trattasi, è ampiamente diffusa nell’ordinamento americano. 

Seppur talune criticità emergono in relazione agli algoritmi che vengono impiegati. Ciò perché non vi è un solo algoritmo, collaudato e che risponda a determinati standard di sicurezza imposti dal Governo, ma ve ne sono diversi e dunque ognuno gode di un proprio funzionamento.

L’eterogeneità degli strumenti può portare a giudizi totalmente differenti.

Un problema delicatissimo e di primaria importanza, soprattutto in una Nazione come gli USA in cui vi è una buona componente afro-americana, attiene alla modulazione delle domande e ai funzionamenti di valutazione: sesso, razza, età, precedenti penali.

Infatti, dibattiti di tal fatta si sono registrati con l’impiego del software Compas.

Per come si è detto, esso consta di un questionario di 137 domande afferenti a cinque macro-aree: criminal involvement, relationship/lifestyle, family and social exclusion[10] .

Ora, alcuni studiosi americani[11] hanno posto sotto la lente d’ingrandimento il funzionamento di Compass mediante uno studio pubblicato sulla rivista Science Advances. I risultati ai quali sono pervenuti non sarebbero del tutto confortanti. Infatti, dai risultati emergerebbe come l’algoritmo soffra dei pregiudizi razziali allo stesso modo dell’essere umano. In realtà, per quanto deplorevole, non si ravvede nessuna novità poiché è vero che l’algoritmo funziona mediante una componente scientifica ma non bisogna dimenticare che le domande inserite, quali aspetti privilegiare o le circostanza da prendere in considerazione – giusto per fare un esempio – sono dei dati di input che vengono forniti al software dall’essere umano. Ancor più, l’analisi dei casi avrebbe messo in luce come il giudizio umano sarebbe molto più accurato fino al 67% dei casi rispetto alla valutazione del software.

Va detto come, nella prassi, gli stati federali facciano ampio ricorso ai risk assessement tools non solo nelle aule di giustizia. Da molto tempo, infatti, gli organi di polizia americani usufruiscono degli strumenti de quibus per la prevenzione del crimine, soprattutto nelle periferie delle città ove la commissione di reati è in alta percentuale.

Orbene, se uno strumento di tal fatta lo si offre al servizio della giustizia dovrebbero esservi quantomeno dei criteri qualitativi molto più stringenti al fine di evitare forti diseguaglianze in base alla componente razziali, etica o di religione.

Sarebbe giocoforza ritenere che, al fine di salvaguardare i diritti fondamentali di un individuo che ogni nazione democratica deve salvaguardare, lo sviluppo dei software di giustizia predittiva venga promosso dal Governo centrale, tenendo conto di una molteplicità di variabili e circostanze che possano assicurarne la duttilità processuale, al fine di scongiurarne applicazioni artefatte, manomissione o con diversi sistemi di valutazione degli output.

Ma l’intelligenza artificiale si presta a svariati fini e al raggiungimento di diversi obiettivi. Nei tribunali americani i software non vengono utilizzati solo per coadiuvare il giudice nella decision: in alcuni casi vengono chiamati a “testimoniare”[12], sebbene si tratterebbe di testimonianza digitale.

In particolare, nel 2019 nello stato della Florida il Dipartimento di Polizia,  nello svolgimento delle indagini per un caso di omicidio familiare (gli indizi di reità erano a carico del marito della vittima, già condannato negli anni precedenti) ha chiesto al giudice di emettere un’ordinanza nei confronti di Amazon Echo affinché quest’ultima rilasciasse le registrazioni del software Alexa, l’assistente personale intelligente  sviluppata da Amazon.

Nel caso in esame la prova documentale di Alexa sarebbe stata determinante in quanto unica “testimone” presente in casa la sera dell’omicidio. Il software, infatti, sarebbe in grado di ascoltare e registrare i suoi anche qualora fosse spento e avrebbe potuto fornire importanti elementi per la conclusione delle indagini non solo in chiave negativa per l’imputato ma anche a favore qualora i dati dello smart device, a riscontro, avrebbe confermato le dichiarazioni dell’indagato.

Oltretutto, si dovrebbero altresì considerare le importanti ripercussioni in tema di privacy, diritto molto sentito in America, anche in ragione del fatto che esistono associazioni che si battono al fine di assicurarne la tutela.  

L’impiego degli smart device conferma ancora una volta come il mondo sia in continua e rapida evoluzione e come anche il processo, piano piano, stia inglobando sempre l’innovazione tecnologica per il raggiungimento dei fini di giustizia.

Il punto è vedere fin dove si possa arrivare senza violare i diritti dell’individuo.

3. L’applicazione dell’Intelligenza Artificiale nel sistema giudiziario italiano. Aspetti problematici

L’uso dell’intelligenza artificiale come strumento di supporto al lavoro degli operatori del diritto e dei tribunali è ancora un fenomeno embrionale in Europa, seppur in Francia ha già da tempo suscitato l’attenzione degli addetti ai lavori.

Il confronto in tema di giustizia predittiva: argomento dibattuto e delicato poiché è necessario rispondere a nuovi quesiti, che attengono all’accessibilità degli algoritmi, al contraddittorio, all’istruttoria, alla formazione della prova, all’indipendenza del giudice ed alla sua capacità di tener conto dei precedenti senza perdere l’orizzonte del cambiamento. Questi problemi riguardano l’esercizio della giurisdizione, e quindi i diversi tipi di processo che l’ordinamento conosce; tuttavia assumono un valore preminente nel processo penale, proprio perché esso riguarda la sanzione estrema, che mette in discussione la libertà personale e perché in esso la questione della costruzione della prova, della prova scientifica, del rapporto tra uomo e macchina assumono il volto di una sfida che mette in discussione la persona umana e, con essa, la dimensione quotidiana della democrazia.

A rigor del vero, non si può sottacere come l’ingresso della tecnologia digitale nel processo penale rappresenti ormai un dato di fatto. Negli ultimi anni e già in numerose occasioni, la giurisprudenza di merito e quella di legittimità si sono espresse sulle indagini effettuate grazie ad alcune tipologie di c.d. “captatori informatici”[13], quali navigatori satellitari o programmi di clonazione degli hard disk.

La problematica inerente all’utilizzo di tali virus, o spyware[14], è questione attuale. Il ricorso a tali strumenti informatici, dal carattere di spiccata invadenza, pone infatti un serio e preoccupante interrogativo circa la legittimità del loro utilizzo rispetto alla sfera di riservatezza del singolo: quest’ultima, infatti, considerata espressione diretta di un nucleo di diritti fondamentali tutelati tanto a livello costituzionale da una doppia riserva, di legge e di giurisdizione, quanto a livello sovranazionale, ha rappresentato un’importante compressione a seguito dell’impiego dei trojans per intercettazioni di comunicazioni tra presenti, in quanto inizialmente, il loro utilizzo non era coperto da nessuna norma di legge che ne legittimasse l’ impiego.

Fin qui, però, per quanto gli Ermellini ne avessero statuito l’applicabilità anche in assenza delle opportune garanzie ci si è fermati ad una fase ante-processo: l’ambito delle indagini preliminari.

Ad oggi, invece, il discorso per quanto abbia un denominatore comune – ossia la tecnologia a supporto del sistema giudiziario – si sposta su piano differente poiché non si tratterebbe più di usufruire dei più avanzati sistemi informatici per intercettare gli indagati di cui agli artt. 51 comma  3- bis e quater c.p.p. ( oggi, invero, estesa anche ad altre categorie di reati) ma traslarne l’utilizzo della fase dibattimentale e, in particolare, nel momento decisorio.

Per la concezione e la tradizione giuridica italiana sarebbe difficile ammettere una giustizia predittiva così come viene intesa in America, né tantomeno sarebbe facile guardare con benevolenza al fatto che un software possa giudicare l’imputato.

La giustizia predittiva, ossia la possibilità di interpretare la legge secondo modelli matematici e prevedere l’esito di procedimenti e provvedimenti, secondo autorevole dottrina[15] troverebbe conferma applicativa, per quel che concerne l’ambito penale, nell’art. 65 O.P. che demanda alla Suprema Corte di Cassazione il compito di controllo e applicazione uniforme della legge.

Al contempo, però, si è notato come non vi sarebbe una giusta corrispondenza al dettato costituzionale e in particolar modo con l’art. 101, c. 2, Cost. in virtù del quale i giudici sono soggetti soltanto alla legge.

Orbene, già in prima battuta potrebbe affermarsi come in assenza della doppia garanzia di riserva di legge e di giurisdizione non potrebbe farsi uso dell’ intelligenza artificiale per l’emissione del provvedimento giudiziario.

E qui si va verso un primo nodo problematico: il rapporto con il sistema penale.

Il principale interrogativo, per come si è già anticipato, concerne i rapporti con i diritti fondamentali: ossia la compatibilità tra strumenti dell’intelligenza artificiale e la direzione “personalizzante” della giurisdizione voluta dalla Costituzione[16].

Dovrebbe chiedersi se e in che modalità l’algoritmo possa tenerne conto di tutti gli elementi e le circostanze previste dagli artt. 132 e 133 c.p. in sede di commisurazione della pena e, ancora, in tema di valutazione della pericolosità sociale del reo.

Si pensi, altresì, al giudizio prognostico in tema di emanazione di una ordinanza di custodia cautelare in carcere o alla convalida di una misura precautelare.

Anche in casi di tal fatta, in cui si è ben lontani dall’aver raggiunto un giudizio in ordine alla responsabilità penale dell’imputato, il giudice deve porre in essere una valutazione circa gli indizi di colpevolezza a  carico dell’indagato e le esigenze cautelari che devono essere soddisfatte.

Anche a voler ammettere l’applicazione di una giustizia predittiva, stile modello americano,  sarebbe necessario capire in che misura l’Autorità Giudiziaria debba tenere conto del risultato prodotto dal software.

A personale avviso della scrivente, qualora in un futuro si arrivasse ad ammettere i modelli de qua, sarebbe necessario che identificare ab origine dei limiti all’utilizzo di queste machine learnig in campo giudiziario: rilegare gli output ad ulteriore elemento di valutazione di cui può disporre il giudice in fase di deliberazione piuttosto che assegnare loro una sorta di predominanza probatoria.

Oltretutto, da uno sguardo attento al codice di procedura penale non può non concordarsi con autorevole dottrina[17] quando questa affermava come il Legislatore processuale abbia sempre voluto tener fuori la scienza dai giudizi predittivi per un senso di poca fiducia che lo Stato nutre nei confronti della scienza psicologica e criminologica.

Certo, oggi come oggi, può sembrare un po’ anacronistica poiché la società si evolve e di questa evoluzione non può tenerne conto anche la giustizia, seppur con delle precisazioni: un conto è valutare in un’ottica diversa determinati comportamenti, considerati più (o meno) meritevoli di repressione in relazione al diverso sentire sociale, un conto è spingersi ad ammettere che un algoritmo possa svolgere funzioni giudicanti.

Altro nodo problematico, assai importante, attiene al corretto funzionamento del software

Affinché questi possa funzionare deve poter elaborare dei dati, fare delle previsioni, analizzare i comportamenti dell’indagato/imputato, valutare la sua carriera criminale e, in base al quesito posto, produrre come output il risultato, ottenuto in un’ottica di alta probabilità in tema di recidivanza, pericolo di reiterazione del reato o, più in generale, di responsabilità penale.

Chi garantirebbe il corretto funzionamento dell’algoritmo? Quale importanza,  e in che misura,  avrebbe il comportamento processuale tenuto dal reo? Il fattore culturale, che sta piano piano acquisendo piccoli spazi nel settore penale, avrebbe una sua autonoma rilevanza?

Come verrebbe calcolato il rischio di inquinamento probatorio?

Sarebbe difficile rispondere aprioristicamente a domande di questo tipo, poiché la legislazione penale e processuale interna è altamente complessa e sono molteplici i fattori da prendere in considerazione. Per tacere della categoria associativa in cui i stretti rapporti interazionali renderebbero assai difficile un giudizio predittivo basato su semplici calcoli matematici.

Ma, anche a voler soprassedere a queste problematiche, le regole processuali e il garantismo penale imporrebbero due aspetti: in primis, l’uniformità dell’algoritmo giudiziario, il quale dovrebbe uno per tutti i distretti giudiziari  – sviluppato dal Ministero della Giustizia, ad esempio –  per garantire il rispetto dei canoni di imparzialità e non discriminazione; in secondo luogo dovrebbe essere garantita la trasparenza del processo valutativo e il conseguente riconoscimento del potere di impugnazione riconosciuto alle parti processuali. 

Su quest’ultimo aspetto, se problemi particolari non si avrebbero con la proposizione del gravame maggiori difficoltà si avrebbero con la proposizione del ricorso per Cassazione, a meno che la valutazione del software non la ricondurrebbe nell’art. 606, c. 1, lett. b) c.p.p. in tema di inosservanza o erronea applicazione della legge penale o di altre norme giuridiche, di cui si deve tener conto nell'applicazione della legge penale. In tale caso, però, un coordinamento legislativo sarebbe doveroso.

Ciò detto, prevedere decisioni automatizzate, o suggerite automaticamente non è cosa semplice, dal momento che l’argomentazione giuridica, come è stato ripetuto molte volte, consiste in un esercizio di persuasione, che rifugge da applicazioni automatiche delle fattispecie penali, non essendo realmente possibile tener conto della complessità dell’elemento oggettivo e di quello soggettivo[18].

4. Conclusioni

Nessuno discute l’importanza e l’utilità che l’intelligenza artificiale e le nuove tecnologie possono apportare al sistema giudiziario.

Ampi contributi hanno apportato le nuove tecnologie nella fase delle indagini preliminari mediante l’impiego di virus, droni, spyware  e tutte le più sofisticate tecnologie in tema di mezzi di ricerca della prova.  

Eppure, si consideri che anche le intercettazioni, quando queste entrano nel processo ed assurgono ad elemento probatorio, subiscono un particolare iter. Il personale di polizia giudiziaria  è chiamato a deporre, in dibattimento, per riferire il contenuto o il tenore letterale delle intercettazioni[19]. L’assunzione della deposizione del teste in dibattimento, riferisce il contenuto delle conversazioni captate ad un giudice terzo ed imparziale, alla contestuale presenza del difensore e del pubblico ministero; eventualmente, su sollecitazione delle parti, è sempre consentito all’organo giudicante l’ascolto in camera di consiglio dei supporti analogici o digitali recanti le registrazioni, debitamente acquisite e l’utilizzo, ai fini della decisione, dei risultati dell’ascolto stesso. È previsto, altresì, che il giudice nomini un perito, il quale nell’espletare l’incarico giudiziale possa formalmente attestare la congruità tra le captazioni fono-registrate e la congruità di quanto trascritto.

Emblema del fatto che per quanto ci si trovi dinanzi alle più avanzate forme tecnologiche il controllo umano è un’attività irrinunciabile.

Ancor di più quando le smart machine dovrebbero sostituire il giudice. Per quanto siano in grado di effettuare calcoli, previsioni, porre in essere valutazioni in tema di alta probabilità non potranno mai sostituire il giudizio umano in cui il giudice è chiamato a valutare gli accidentalia delicti, la presenza o l’assenza di precedenti penali e gli stati d’animo, i quali in recenti episodi di cronaca giudiziaria, dinanzi a fatti oltremodo cruenti, hanno portato anche ad una sentenza di assoluzione[20].

Valutazioni di tal fatta, frutto di un mero calcolo matematico, non potrebbero mai garantire il pieno rispetto e l’attuazione della giustizia perché l’imputato non si identifica solo ed esclusivamente con il fatto commesso, a prescindere dalla maggiore o minore gravità di questi e le componenti psicologiche si dubita possano trovare pieno riconoscimento in formule algoritmiche e/o matematiche.

Giudicare consiste in un esercizio di persuasione, che rifugge da applicazioni automatiche delle fattispecie penali, non essendo realmente possibile tener conto della complessità dell’elemento   oggettivo e di quello soggettivo[21].


Note e riferimenti bibliografici

[1] UBERTIS G., Intelligenza artificiale, giustizia penale, controllo umano significativo, in Sistema Penale, 2020, p. 2.  

[2] Si pensi alla biorobotica ad esempio: una nuova area scientifico-tecnologica che fonde robotica e bioingegneria, in particolare, è la scienza e tecnologia della progettazione e della realizzazione di sistemi robotici di ispirazione biologica e di applicazione biomedica.

[3] Treccani, (voce) Intelligenza Artificiale, in Enciclopedia online.

[5]Si v. Il Sole 24 Ore, Stretta della Ue sull’intelligenza artificiale, verso il divieto del riconoscimento facciale, 21 aprile 2021.

[6] D’ALOIA A., Intelligenza artificiale e diritto: Come regolare un mondo nuovo, Franco Angeli, 2021, p. 1

[8]  V. sent. E. Loomis vs Wisconsin State, par. 3, p. 22

[9] Ibidem, par.1, p. 18.

[10] MITJA G., Quando la giustizia penale incontra l’intelligenza artificiale: luci e ombre del risk assessment tools tra Stati Uniti ed Europa, in Dir. Pen. Cont., 2019, p. 5

[11] DRESSEL J. – FARID H., The accuracy, fairness, and limits of predicting recidivism, in Science Advances, 2018,  advances.sciencemag.org 

[12]Sebbene Alexa sia il caso più noto, vi sono altri situazioni in cui si è fatto (o si è cercato di fare) ricorso all’intelligenza artificiale. Nel 2015, in Arkansas  James Bates è stato accusato dell’omicidio di primo grado di Victor Collins trovato nella sua vasca idromassaggio. La polizia ha sequestrato Echo abilitato ad Alexa dalla scena del crimine come prova. Un altro caso è stato un doppio omicidio a Farmington, in cui due donne, Christine Sullivan e Jenna Pellegrini sono state accoltellate da Timothy Verrill nel 2017: Il giudice del New Hampshire ha ordinato ad Amazon di fornire registrazioni dal dispositivo. Per approfondimenti s. v. Agenda Digitale su https://www.agendadigitale.eu/

[13] Si fa riferimento a Cass., SS.UU., 1° luglio 2016 n. 26889 c.d. sentenza Scurato.

[14] Software scaricato, spesso in maniera inconsapevole, durante la navigazione in Internet o l'installazione di un software gratuito, programmato per registrare e trasmettere a terzi dati personali e informazioni sull'attività online di un utente.

[15] RICCIO G., Ragionando su intelligenza artificiale e processo penale, in Arch. Pen., 2019, n. 3, p. 2.

[16] Ibidem.

[17]MITJA G., op. cit., p. 20. L’autore si riallaccia al pensiero del Maestro Franco Cordero il quale, a suo tempo, affermava come i soi-disants macchinisti dell’animo non mettano piede nel processo penale.

[18] RICCIO G., op. cit., p. 14.

[19]VISONE G., Le intercettazioni tra perizia trascrittiva e prova testimoniale, in Riv. Proc. Pen. e Giust., 2018, n. 5, su http://www.processopenaleegiustizia.it/

[20] Si fa riferimento alla sentenza della Corte di Appello di Bologna in tema di delirio di gelosia.

[21] Ibidem.

 
Bibliografia

D’ALOIA A., Intelligenza artificiale e diritto: Come regolare un mondo nuovo, Franco Angeli, 2021, p. 1

DRESSEL J. – FARID H., The accuracy, fairness, and limits of predicting recidivism, in Science Advances, 2018,  advances.sciencemag.org

MITJA G., Quando la giustizia penale incontra l’intelligenza artificiale: luci e ombre del risk assessment tools tra Stati Uniti ed Europa, in Dir. Pen. Cont., 2019, p. 5

RICCIO G., Ragionando su intelligenza artificiale e processo penale, in Arch. Pen., 2019, n. 3, p. 2.

UBERTIS G., Intelligenza artificiale, giustizia penale, controllo umano significativo, in Sistema Penale, 2020, p. 2.  

VISONE G., Le intercettazioni tra perizia trascrittiva e prova testimoniale, in Riv. Proc. Pen. e Giust.,2018, n. 5