Pubbl. Mar, 5 Mag 2026
Le conversazioni con ChatGPT non costituiscono prove in giudizio
Modifica pagina
Sofia Giancone

Il Tribunale di Ferrara in data 20.02.2026 si è espresso sulla inammissibilità di un ricorso ex art. 696 c.p.c. in cui parte ricorrente allegava, quale prova documentale, una conversazione con un sistema di intelligenza artificiale (”ChatGPT”), sostenendo che questo costituisse unicamente un supporto alla tesi difensiva. Tuttavia, il Tribunale rilevava come la documentazione allegata non fosse valutabile a titolo di prova in giudizio e fosse piuttosto ” tamquam non esset”.
ENG
Conversations with ChatGPT do not constitute evidence in Court
On February 20 2026, the Court of Ferrara ruled on the inadmissibility of an appeal pursuant to Article 696 of the Italian Code of Civil Procedure, in which the appellant submitted, as documentary evidence, a conversation with an artificial intelligence system (“ChatGPT”), arguing that this was merely supporting evidence for the defense´s case. However, the Court noted that the attached documentation was not admissible like evidence in the process, and that was instead ”tamquam non esset”.Sommario: 1. Orientamenti in merito all'utilizzo dell'AI in giudizio. Premessa. 2. La pronuncia del Tribunale di Ferrara: documentazione “tamquam non esset”. 3. Conclusioni.
La pronuncia del Tribunale di Ferrara[1] conferma e rafforza l’orientamento giurisprudenziale già esistente, tendenzialmente contrario all’utilizzo di sistemi di AI se correlati all’attività della giustizia e all'allegazione documentale riferita a risultanze dell'AI, nella considerazione della inidoneità degli stessi ad assurgere a prove in giudizio.
L’orientamento citato si fonda sull'assunto che le risultanze dell’AI non siano da considerarsi quali prove in giudizio soprattutto con riguardo ai riferimenti giurisprudenziali citati da detti sistemi, poichè esposte al fenomeno delle c.d. allucinazioni di intelligenza artificiale[2], che si verifica laddove l’AI giunge a conclusioni inesistenti presentandole come veritiere, nonostante più tentativi di domanda da parte dell’utilizzatore[3].
La posizione è risultata ancora più marcata laddove i Giudici, in precedenti giudizi che di seguito verranno citati, hanno pronunciato condanne ai sensi dell’art. 96 c.p.c. a carico delle parti, evidenziando l’uso improprio di sistemi di IA nell’ambito della gestione dei procedimenti[4], fonte di responsabilità aggravata del difensore, ribadendo l’importanza della verifica umana degli output generati da sistemi di AI generativa.
1. Orientamenti in merito all’utilizzo dell’AI in giudizio. Premessa
La giurisprudenza tendenzialmente contraria all’utilizzo delle rilevazioni AI in ambito difensivo, ha portato a pronunce giurisdizionali sfavorevoli che hanno evidenziato la “scarsa qualità degli scritti difensivi e la totale mancanza di pertinenza o rilevanza degli argomenti utilizzati”[5].
Tuttavia, a temperamento di tale orientamento, si rileva che l’uso di sistemi di AI a supporto dell’operato difensivo non è in realtà una condotta censurabile in quanto tale o in senso assoluto. Non esiste alcun automatismo al riguardo. Del resto, l’art. 13, 1 comma, della L. n. 132/2025 - legge di recepimento dell’AI Act - legittima espressamente l’utilizzo di sistemi di AI nell’esercizio delle professioni intellettuali.
Al riguardo, vi è chi in dottrina[6] ha riconosciuto l’efficienza di detti sistemi a titolo di ausilio e supporto, e non può del resto negarsi che nel nostro ordinamento giuridico viga il principio di libertà dei mezzi di prova (artt. 115 e 116 c.p.c.), in virtù del quale Il giudice deve porre a base della decisione le prove proposte dalle parti (principio di disponibilità), con il temperamento del proprio "prudente apprezzamento" valutandole liberamente, salvo i casi di "prova legale".
A conferma dell’assenza di automatismi, vi sono stati casi di rigetti di ricorsi giurisdizionali dichiaratamente redatti con ausilio dei sistemi di AI con condanna alle spese di lite, e senza ricorrere alla condanna di cui all’art. 96, 3 comma, c.p.c.[7], evidenziando come l’utilizzo dell’AI non determini di per sé la condanna per responsabilità aggravata del difensore.
Operata tale precisazione, ciò non toglie che l’utilizzo dell’IA debba mirare al solo esercizio di attività strumentali e di supporto all’attività professionale, con prevalenza del lavoro intellettuale da parte del professionista[8].
La Corte di Cassazione, anche nell’ambito di diversi giudizi[9], ha evidenziato il rischio che l'uso dell'IA porti a decisioni basate su argomenti presi aliunde (da fonti esterne e non controllate), svuotando il dovere di valutazione umana del giudice. In tal modo, si è confermata la bontà di un orientamento mite e tendenzialmente attento all’impatto dell’IA nel contesto giurisdizionale.
Ed infatti, detto strumento deve costituire un mero ausilio per il professionista e non la sostituzione dello stesso, e quest’ultimo rimane l’unico responsabile di quanto contenuto all’interno dell’atto difensivo[10]. La rilevanza del ragionamento giuridico e la raccomandazione per cui occorre tenere conto che l’intelligenza artificiale “integrata” in un sistema decisionale per sua natura umano esprime una capacità persuasiva difficilmente governabile (e che rischia di generare un’eterodeterminazione della decisione[11]).
Ad ulteriore specifica, la recente giurisprudenza[12] conferma che l’affidabilità delle produzioni costituite da interrogazioni a sistemi di intelligenza artificiale e documenti correlati “non può essere presunta in assenza di prova concreta circa l’ampiezza e la qualità delle conoscenze disponibili, la capacità di evitare errori (c.d. “allucinazioni”) e la validità delle risposte fornite”.
Da ciò si evince che l’orientamento giurisprudenziale consolidato[13] e più recente adotti un atteggiamento attento e orientato ad una valutazione scrupolosa dei riferimenti all’AI introdotti nei processi, considerando necessariamente e sempre la natura delle citazioni inserite negli atti difensivi.
Sempre in virtù di tale orientamento, rileva poi il comportamento tenuto dalla parte – valutabile dal giudice durante il giudizio - ed in particolare il comportamento manifestato a seguito della eventuale contestazione sollevata dalla controparte circa la meritevolezza e veridicità delle risultanze prodotte[14] dall’altra. In altri termini, occorre verificare giudizialmente la condotta processuale della parte alla quale l’altra rivolge contestazioni circa la produzione di c.d. allucinazioni di AI in giudizio a titolo di prove.
In tale quadro, il giudice è chiamato a dare evidenza dell’esistenza di l’anomalie nei richiami giurisprudenziali svolti dai difensori, e l’effettivo riscontro di esse. Le anomalie possono in taluni casi, come quello in esame, spiegarsi soltanto ipotizzando un ricorso all’intelligenza artificiale nella redazione degli atti, senza che il difensore abbia preventivamente verificato la correttezza e l’attendibilità dei risultati. In tal caso, il Giudice, una volta condotto tale accertamento, ha condannato[15] nello specifico la parte al pagamento di una somma in favore della controparte ai sensi dell’art. 96, comma 3, c.p.c. e di un’ulteriore somma di pari importo in favore della Cassa delle ammende, ai sensi del comma 4 della medesima disposizione.
Da un punto di vista dottrinale, gli studiosi[16] tendono a classificare gli scritti o documenti prodotti da sistemi di IA prevalentemente in tre categorie:
- documenti informatici: ai sensi degli artt. 20 e 21 del Codice dell’Amministrazione Digitale (CAD), uno scritto generato da IA e sottoscritto con firma elettronica ha validità legale, ed è liberamente valutabile dal giudice;
- prove atipiche: quando l'IA viene usata per analizzare fatti o produrre elaborati complessi, la dottrina tende a inquadrarla come "nuova prova scientifica" ex art. 189 c.p.p. o come prova atipica nel processo civile;
- indizi (presunzioni semplici): gli scritti non firmati o privi di garanzie di integrità sono spesso degradati a meri elementi indiziari, la cui forza persuasiva dipende dalla coerenza e raffronto con altre prove prodotte.
La dottrina odierna[17] pone poi l'accento su alcuni principi da osservare in tema di prova e sistemi intelligenti: la trasparenza e la spiegabilità, in virtù del quale per avere pieno valore probatorio in giudizio, l'algoritmo che ha generato lo scritto deve essere "leggibile" e "verificabile". La dottrina rifiuta il concetto di "black box"[18], ovvero i possibili errori, o “allucinazioni”, la riproposizione di discriminazioni (bias) incorporate nei dati su cui è stato addestrato l’algoritmo[19]. Al riguardo, le parti del giudizio devono poter contestare la struttura di quanto generato dall'IA e la logica sottesa.
Si pone altresì l’accento sul divieto di automatismi decisionali. Al riguardo, la Corte Costituzionale, sebbene in contesti prevalentemente amministrativistici, e la dottrina[20], ribadiscono che l'IA non può sostituire la valutazione del magistrato. Uno scritto IA può assistere certamente la ricerca dei fatti, ma il giudice deve poter sempre motivare autonomamente le ragioni della propria decisione.
La dottrina citata giunge a sostenere che se lo scritto generato da AI è un semplice documento, si ritiene applicabile l'art. 234 c.p.p. ovvero l'art. 2712 c.c.; se è invece l'esito di un'elaborazione complessa, ricade nell'art. 189 c.p.p. come prova non disciplinata dalla legge. Inoltre, come sopra anticipato, il valore probatorio è nullo o ridotto se la "scatola nera" (l'algoritmo) non è ostensibile e verificabile dalle parti.
Da un punto di vista sanzionatorio, completa il quadro l'art. 612-quater c.p. (introdotto dalla L. 132/2025), il quale punisce la diffusione illecita di contenuti falsificati con AI, limitando l'uso di scritti o media manipolati che possano trarre in inganno sull'autenticità.
Ritenere le risultanze dell’IA idonee a formare piena prova giudiziale equivarrebbe a sostenere che il ragionamento privo di supporto umano sia in grado di effettuare delle valutazioni superiori in grado di valutare il caso concreto e, più nello specifico, l’attitudine a tenere conto delle peculiarità di esso e, quindi la capacità dell’algoritmo di compiere tutta quella serie di valutazioni che connotano il “sillogismo giudiziale”[21].
Appare decisivo, quindi, l’orientamento ormai consolidato per cui, pur vigendo nel nostro ordinamento giuridico il principio di libertà dei mezzi di prova (artt. 115 e 116 c.p.c.) – e non escludendo a priori la valutabilità delle risultanze intelligenti - l’IA non può vincolare il giudice, ma solo offrire allo stesso un ausilio o supporto motivazionale che deve essere filtrato dal ragionamento umano, e senza che ciò lo privi della propria discrezionalità decisionale[22].
2. La pronuncia del Tribunale di Ferrara: documentazione “tamquam non esset”
Nel caso qui analizzato, il Tribunale ha non solo confermato ma rafforzato l’orientamento già esistente, che pone grande attenzione sull’uso dell’AI nel processo.
Parte ricorrente insisteva per l’accoglimento delle proprie istanze sostenendo che la giurisprudenza citata nel documento allegato in sede difensiva (una conversazione con “ChatGPT”) fosse valutabile e di “mero supporto” alle deduzioni difensive espletate. Il Tribunale rilevava come all’interno del quadro delineato, la produzione documentale delle conversazioni con ChatGPT non avesse alcuna rilevanza probatoria.
Veniva evidenziato poi come nel ricorso non vi fosse traccia dell’indicazione né dello scopo della produzione nè della valenza probatoria che si intendesse attribuire alla stessa, così di fatto rendendo non intelligibile la sua concreta utilità nel procedimento azionato. Inoltre, veniva rilevato che i riferimenti giurisprudenziali citati non fossero pertinenti con il caso concreto e del tutto inconferenti nonostante la sollecitazione da parte del giudice nei confronti di parte ricorrente di prendere posizione sul punto.
Il documento allegato veniva poi considerato parziale e, quindi, ipoteticamente fuorviante, mancando il quesito della richiesta formulata all’IA (“prompt”). Inoltre, veniva rilevato come la giurisprudenza citata nel documento non fosse inerente al caso analizzato.
Il fulcro della motivazione si concentra sull’inidoneità dell’uso dei sistemi di AI per “costituire” materiale probatorio da produrre in sede di giudizio, ma il Tribunale effettuava poi una riflessione ulteriore.
Si aggiunge che gli stessi non siano proprio considerabili come documenti, intesi in senso processual-civilistico, e piuttosto come tamquam non esset, neppure qualificabili come prova atipica, essendo privi di qualsivoglia utilità data la mancanza del quesito proposto al Chatbot, ma anche della doverosa verifica ex post dei riferimenti approntati da ChatGPT.
Il Tribunale proseguiva nella propria disamina[23] evidenziando come sia necessario adottare un approccio attento e cauto allo strumento dell’IA, anche alla luce delle previsioni del regolamento UE n. 2024/1689, c.d. AI Act[24], il quale prevede la necessità che vi sia una valutazione umana delle risultanze di IA[25] senza ritenerle veritiere in senso assoluto.
La supervisione umana (“human oversight”)[26] e l’approccio responsabile all’intelligenza artificiale sono stati consacrati quali principi di rilevanza sovranazionale, suscettibili di trovare diretta applicazione nel nostro ordinamento in virtù del combinato disposto degli artt. 11 e 117 Cost.
L’ordinamento italiano ha recepito i nuovi obblighi e principi contenuti nell’AI Act con la L. n. 132/2025 che, come visto, ha integrato le normative già vigenti (il “GDPR” quale pilastro), permettendo l’utilizzo di sistemi di AI nell’ambito dell’esercizio delle professioni intellettuali, ma definendone le modalità e i limiti di cui all’AI Act che vanno necessariamente rispettati.
Con riguardo alla qualificazione di detti sistemi come “ad alto rischio”, l’importanza di un approccio umano-centrico risulta centrale, per cui “il processo decisionale finale deve rimanere un’attività a guida umana”[27] e non realizzato mediante l’unico strumento intelligente, togliendo così valore all’operato umano. E ciò attraverso la previsione, in particolare, di un sistema di “interfaccia uomo-macchina adeguati durante il periodo in cui sono utilizzati”[28].
Con riguardo a ciò, i Chatbot restano strumenti al servizio delle persone che intendano utilizzarli, come rilevato dal Tribunale, e rispondono agli input forniti da queste, non assurgendo a sostituti dei professionisti o del lavoro ed elaborazione intellettuale, e senza alcuna pretesa possibile di attendibilità o fondatezza del risultato ottenuto.
3. Conclusioni
In conclusione, il Tribunale di Ferrara ha fondato la propria pronuncia sui seguenti aspetti centrali.
Il documento allegato da parte ricorrente, ovvero la conversazione con ChatGPT, è stato innanzitutto considerato parziale ed incompleto, mancando l’indicazione del quesito (“prompt”) rivolto al sistema di IA, rendendo così impossibile valutarne il contesto, la logicità e l’utilità ai fini del giudizio.
Inoltre, i precedenti citati dal Chatbot sono risultati del tutto inconferenti rispetto alla materia del contendere, giungendo a far riferimento così al pericoloso fenomeno delle c.d. allucinazioni dell’IA, già oggetto di analisi da parte della giurisprudenza, ossia la propensione della stessa a generare risultati inesistenti presentandoli invece come veritieri, anche a seguito di ulteriori domande e richieste di conferma al sistema a seguito della ricezione della prima risposta.
Da ultimo, è stata rilevata l’inidoneità di detti documenti ad assurgere a prove in giudizio, nonché la mancanza di una doverosa, e non solo opportuna, verifica da parte del difensore sulla veridicità ed attendibilità dei riferimenti forniti dal Chatbot; comportamento che può, come già accaduto, comportare la condanna per responsabilità aggravata ai sensi dell’art. 96 c.p.c.
Tale orientamento potrà mutare solo laddove in un futuro le intelligenze artificiali raggiungano livelli di sviluppo più avanzati in ambito giuridico. Ad oggi, conclude il Tribunale, non è ammissibile che le loro risposte assurgano a prova – nemmeno atipica - di un fumus di fondatezza della pretesa azionata in giudizio.
[1]Trib. Ferrara, Sez. Civile, 04.03.2026, ud. 20.02.2026 ord. Rg. n. 2107 - https://www.ambientediritto.it/giurisprudenza/tribunale-ordinario-di-ferrara-sez-civile-4-marzo-2026-ordinanza-n-r-g-2107/
[2] Trib. Firenze, Sez. Imprese, ord. Rg. n. 11053/2024 pubblicata in data 14.03.2025 - https://www.ambientediritto.it/giurisprudenza/tribunale-ordinario-di-firenze-sez-imprese-14-03-2025-ordinanza-rg-11053-2024/
[3] Sempre il Tribunale di Firenze si è occupato di un caso in cui è stato stabilito che l’intelligenza artificiale (“AI”) possa giungere ad inventare risultati e confermarli come veri anche dopo una seconda interrogazione da parte dell’utilizzatore – sul punto, anche Trib. Firenze, ord. Rg. n. 11053/2024 del 14.03.2025
[4] Tar Lazio, sent. n. 4546 del 03.03.2025; Trib. Latina, sent. nn. 1034 e 1035 del 24.09.2025; 1036, 1037, 1072 del 25.09.2025
[5] Trib. Torino, sent. n. 21120 del 16.09.2025, in cui venne chiarito l’uso improprio di sistemi di intelligenza artificiale “dalla gestione del procedimento ma soprattutto dalla scarsa qualità degli scritti difensivi e dalla totale mancanza di pertinenza rilevanza degli argomenti utilizzati”.
[6] Tra i vari, A. Allegria, F. Federici, La prova digitale nel processo civile, Maggioli, 2026; F. Savino, Riflessioni sul rapporto tra intelligenza artificiale e giustizia predittiva, nel Diritto Processuale Civile, 2025; C. Castelli, Efficienza, qualità, tecnologia, in C. Castelli, D. Piana, Giusto processo e intelligenza artificiale, Sant’Arcangelo di Romagna, 2019;
[7] Sul punto, Trib. Roma, sent. del 25.9.2025, III Sezione Lavoro, https://www.lanuovaproceduracivile.com/wp-content/uploads/2025/10/IA-ROMA.pdf
[8] Art. 13, comma 1, dell’AI Act - L. 23 settembre 2025 n. 132 espressamente prevede che: “L'utilizzo di sistemi di intelligenza artificiale nelle professioni intellettuali è finalizzato al solo esercizio delle attività strumentali e di supporto all’attività professionale e con prevalenza del lavoro intellettuale oggetto della prestazione d'opera”.
[9] Cass. Pen., sent. 34481/2025. In tale caso, i Giudici hanno chiarito che non vi sia dubbio “che l’uso di strumenti informatici agevola, sul piano pratico, la redazione dei provvedimenti giudiziari ma al contempo aumenta il rischio (oggi esponenzialmente incrementato dall’irrompere sulla scena della intelligenza artificiale) che il giudice attinga “aliunde” gli argomenti del suo decidere, abdicando al dovere di apportare il suo ineliminabile ed insostituibile momento valutativo e facendo venir meno l’in sé del suo essere terzo ed imparziale”.
[10] L. Viola, Riflessioni sull’onere di comunicazione di utilizzo della IA da parte dell’Avvocato ex L. 132/2025, in La Nuova Procedura Civile, 1, 2025, 02.10.2025
[11] V. Mastroiacovo, Giocare con altri dadi. Giustizia e predittività dell’algoritmo, Giappichelli, 2024
[12] Corte di appello di Torino, materia di impresa, sent. del 19.03.2026 – successiva alla pronuncia del Tribunale di Ferrara qui in esame e di cui ne conferma l’impostazione - https://www.lanuovaproceduracivile.com/wp-content/uploads/2026/03/ia-corte-appello-torin.pdf
[13] TAR Lombardia sent. n. 3348 21.10.2025; Trib. Verona, sent. n. 315 del 16.02.2026; Trib. Siracusa, sent. n. 33 del 20.2.2026
[14] Da ultimo, Trib. Mantova, sent. 165/2026 del 24 marzo 2026. In tale occasione, il Tribunale ha accertato l’estraneità dei riferimenti scaturiti dall’AI e introdotti in giudizio, poiché riferiti alle cd. allucinazioni dell’AI già note, su giuricivile.it. In tale occasione, è stato espressamente chiarito che l’uso dell’intelligenza artificiale nella redazione degli atti difensivi non esonera il difensore dal controllo delle fonti, della pertinenza dei precedenti richiamati e della correttezza delle massime citate. Difatti, il Tribunale rilevava proprio il mancato controllo circa la pertinenza dei precedenti e delle massime richiamate dal difensore, a seguito del controllo analitico del Tribunale, svolto su ciascuna di esse.
[15] Idem.
[16] G. Ubertis, Perizia, prova scientifica e intelligenza artificiale nel processo penale, in Sistema Penale, 2024; G. Barone, Giustizia predittiva e certezza del diritto, Pisa, 2024; G. Canzio, L. Lupa’ria (a cura di), Prova scientifica e processo penale. Aggiornata all'AI Act e ai risvolti dell'Intelligenza Artificiale, CEDAM, 2024/2025; M. Caterini, La giustizia artificiale replicante, in Diritto di Difesa, 2025; G. Di Paolo, L. Pressacco (a cura di), Intelligenza artificiale e processo penale. Indagini, prove, giudizio, 2022; A. Ruffolo (a cura di), XXVI lezioni di diritto dell'intelligenza artificiale, Torino, 2021; G. Ubertis, Intelligenza artificiale, giustizia penale, controllo umano significativo, in Diritto Penale e Uomo, 2020
[17] V. nota 9. Ad ulteriore approfondimento, N. Lipari, Il diritto del nuovo millennio tra giurisdizionalizzazione ed algoritmo, in Accademia, 2024; M. Daniele, La prova digitale, in Riv. dir. proc. 2009-2011
[18] In tal senso, Consiglio di Stato, Sez. VI, sent. n. 881/2020; Consiglio di Stato, Sez. III, sent. nn. 2270/2019 e n. 8472/2019; Consiglio di Stato, 2016, sent. n.12026/2016; Cass. Pen., Sez. III, n. 34481/2025; Sez. III, n. 25455/2025; in dottrina amministrativa, in cui viene data rilevanza al principio “antropocentrico”, S. Foà, Intelligenza artificiale e cultura della trasparenza amministrativa. Dalle “scatole nere” alla “casa di vetro”?, in Diritto amministrativo: rivista trimestrale, 2023, fascicolo a. 2023 31 n. 3; J. Ponce Solé, Il regolamento dell’unione europea sull’intelligenza artificiale, la discrezionalità amministrativa e la riserva di umanità, in Riv. trim. dir. pubbl., 2024; G. Gallone, Riserva di umanità e funzioni amministrative. Indagine sui limiti dell’automazione decisionale tra procedimento e processo, Padova, 2023
[19] Risultanze anche della Sent. Cass. Pen. n. 34481/2025
[20] M. Sciacca, M. Biasi, “AI, Diritto e giustizia”, Hoepli, 2026; M. Sciacca, Algocrazia e sistema democratico: alla ricerca di una mite soluzione antropocentrica. Appunti sulla cd. giustizia predittiva, 2021-2023
[21] A. Bonafine, L’intelligenza artificiale applicata al ragionamento probatorio nel processo civile. È davvero possibile e/o auspicabile?, in R. Giordano, A. Panzarola, A. Police, S. Preziosi, M. Proto (a cura di), Il diritto nell’era digitale. Persona, Mercato, Amministrazione, Giustizia, Milano, 2022
[22] Anche F. Fratini, Intelligenza artificiale e consulenza tecnica nel processo civile, p. 1208, in Actualidad Juridica Iberoamericana, n. 20, 2024, secondo il quale la prospettiva corretta “non è certo quella di una determinazione del consulente direttamente da parte della macchina, bensì quella di un sistema che… aiuti il giudice – senza tuttavia privarlo della propria discrezionalità – nella propria scelta, evidenziando i profili maggiormente rispondenti alle necessità poste dal caso di specie, eventualmente presenti anche fuori il distretto in cui ha sede il tribunale, e che garantisca by default la trasparenza ed il rispetto del principio di turnazione degli incarichi”.
[23] Anche Trib. Prato, decreto del 11.10.2025 - https://www.lanuovaproceduracivile.com/wp-content/uploads/2025/10/ia-prato-1.pdf
[24] L'AI Act (Regolamento UE 2024/1689) interviene per codificare i principi già espressi dalla giurisprudenza amministrativa del Consiglio di Stato, inserendo i sistemi di IA usati nell'amministrazione della giustizia tra quelli ad "alto rischio" (Allegato III). Al riguardo, prevede obblighi di: a) trasparenza e spiegabilità (Art. 13), per cui i sistemi devono essere progettati per consentire agli utilizzatori di comprendere come l'algoritmo sia arrivato a un determinato output. Questo risponde direttamente al principio di conoscibilità della sentenza 2270/2019; b) Sorveglianza Umana (Art. 14), pr cui l'IA non può essere lasciata agire in autonomia; c) Qualità dei Dati (Art. 10), per cui i dati utilizzati debbano essere pertinenti, rappresentativi e privi di bias che potrebbero portare a decisioni ingiuste o scorrette; d) Documentazione Tecnica (Art. 11), per cui ogni sistema deve essere accompagnato da una documentazione che ne permetta il controllo.
[26] M. Morgese, L’intelligenza artificiale nella giustizia civile tra esigenze di accelerazione e principio antropocentrico, Judicium, 2025; A. Punzi, La decisione giudiziaria nell’AI Act, in Giurisprudenza italiana, 2025.
[27] Artt. 13-15-22 del GPDR e considerando 61 AI Act – rilevante nel contesto della gestione dei rischi per i sistemi di intelligenza artificiale ad alto rischio, con particolare riguardo alla documentazione tecnica necessaria e alla tracciabilità dei dati e delle risultanze.
[28] Art. 14, comma 1, dell’AI Act.