RCD


Attendere prego, caricamento pagina...
Colpa medica e intelligenza artificiale in sanità: responsabilità penale e nuovi confini della decisione clinica
ISCRIVITI (leggi qui)
Pubbl. Gio, 16 Apr 2026
Sottoposto a PEER REVIEW

Colpa medica e intelligenza artificiale in sanità: responsabilità penale e nuovi confini della decisione clinica

Modifica pagina

Giuseppe Ventrici
StudenteUniversità degli Studi di Catanzaro Magna Græcia



L’impiego crescente di sistemi di intelligenza artificiale in ambito sanitario solleva questioni inedite sul piano della responsabilità penale del medico. In particolare, l’utilizzo di strumenti algoritmici di supporto decisionale impone una rilettura della nozione di colpa medica e della posizione di garanzia dell’esercente la professione sanitaria, alla luce dell’evoluzione normativa introdotta dalla legge Balduzzi e, soprattutto, dalla legge Gelli-Bianco. Il contributo analizza i profili di imputazione soggettiva della responsabilità penale nell’era della medicina digitale, soffermandosi sui limiti della spiegabilità degli algoritmi, sulla distribuzione della responsabilità tra medico, struttura sanitaria e produttore del software, nonché sulle più recenti indicazioni giurisprudenziali


ENG

Medical Malpractice and Artificial Intelligence in Healthcare: Criminal Liability and the New Frontiers of Clinical Decision-Making

The growing use of artificial intelligence in healthcare raises new questions about physicians criminal liability. Algorithmic decision-support tools require rethinking medical negligence and the duty of care within the framework of the Balduzzi and Gelli-Bianco laws. This paper analyzes the subjective elements of liability in digital medicine, focusing on limits of algorithmic explainability, the allocation of responsibility among physicians, healthcare institutions, and software developers, and recent case law. It adopts a constitutional perspective, emphasizing the need to balance patient health protection with physicians’ professional autonomy.

Sommario: 1. Premessa: intelligenza artificiale e crisi dei modelli tradizionali di responsabilità medica; 2. La colpa medica tra Balduzzi e Gelli-Bianco; 3. L’intelligenza artificiale come supporto decisionale e la posizione di garanzia del medico; 4. Scenari applicativi e casi clinico-giuridici; 5. La responsabilità distribuita: medico, struttura sanitaria e produttore del software; 6. L’algoritmo opaco e il problema della spiegabilità; 7. Profili giurisprudenziali recenti: continuità e adattamento delle categorie penalistiche; 8. Valutazione penalistica: colpa, prevedibilità ed evitabilità nell’era dell’intelligenza artificiale; 8.1. La regola cautelare; 8.2. La prevedibilità dell’evento; 8.3. L’evitabilità dell’evento; 9. Impatto pratico: criteri operativi per l’accertamento della responsabilità; 10. Conclusioni.

1. Premessa: intelligenza artificiale e crisi dei modelli tradizionali di responsabilità medica

L’ingresso sistematico dell’intelligenza artificiale nei processi decisionali in ambito sanitario rappresenta una delle trasformazioni più significative della medicina contemporanea, incidendo profondamente sui tradizionali paradigmi della responsabilità professionale del medico[1].

Dalla diagnostica per immagini alla stratificazione del rischio clinico, dalla pianificazione terapeutica al triage digitale, i sistemi algoritmici assumono un ruolo sempre più rilevante nei processi decisionali che riguardano la salute e la vita dei pazienti. Tale evoluzione tecnologica mette in tensione modelli di responsabilità costruiti su processi decisionali esclusivamente umani e su parametri di diligenza ancorati alla perizia individuale[2].

Quando l’atto medico si colloca all’interno di un procedimento mediato da strumenti algoritmici, la valutazione della colpa non può limitarsi a una verifica astratta della correttezza della condotta, ma deve estendersi all’analisi del ruolo concreto svolto dall’intelligenza artificiale, dei margini di controllo effettivamente esercitabili e dei limiti cognitivi derivanti dall’opacità tecnologica. La questione assume immediata rilevanza costituzionale.

L’art. 32 Cost. tutela la salute quale diritto fondamentale dell’individuo e interesse della collettività[3], imponendo un elevato livello di protezione anche nell’utilizzo di strumenti tecnologici avanzati. Parallelamente, la responsabilità penale del medico deve conformarsi ai principi di legalità, colpevolezza e proporzionalità, evitando che l’innovazione si traduca in un’indebita espansione dell’area del penalmente rilevante[4]. In tale prospettiva, l’intelligenza artificiale non può essere considerata né un mero strumento neutro, né un soggetto autonomo di imputazione. Essa si configura piuttosto come un fattore sistemico idoneo a ridefinire il contenuto della posizione di garanzia del sanitario, imponendo una rilettura della colpa in chiave multilivello e garantista[5].

2. La colpa medica tra Balduzzi e Gelli-Bianco

La disciplina della responsabilità penale dell’esercente la professione sanitaria ha conosciuto, nell’ultimo decennio, una profonda evoluzione normativa, finalizzata a razionalizzare l’area della colpa medica e a contenere il fenomeno della medicina difensiva[6].

Con la legge 8 novembre 2012, n. 189 (c.d. legge Balduzzi), il legislatore ha introdotto un primo tentativo di delimitazione della responsabilità penale, attribuendo rilievo al rispetto delle linee guida e delle buone pratiche clinico-assistenziali quali parametri di valutazione della diligenza professionale[7]. Tale intervento, tuttavia, presentava significative incertezze applicative, in particolare con riferimento alla distinzione tra colpa lieve e colpa grave, affidata in larga misura all’interpretazione giurisprudenziale[8].

La successiva legge 8 marzo 2017, n. 24 (c.d. legge Gelli-Bianco) ha ulteriormente affinato il quadro normativo, prevedendo l’esclusione della responsabilità penale in caso di imperizia quando il sanitario si sia attenuto a linee guida adeguate al caso concreto, salvo le ipotesi di colpa grave[9]. La riforma si inserisce in una prospettiva dichiaratamente garantista, volta a circoscrivere l’intervento penale alle sole condotte effettivamente rimproverabili[10].

Tuttavia, l’impianto della riforma è stato concepito in un contesto in cui il processo decisionale restava prevalentemente umano.

L’introduzione sistematica dell’intelligenza artificiale incrina tale presupposto, ponendo interrogativi inediti sulla nozione di imperizia, sulla prevedibilità dell’evento e sulla misura della diligenza esigibile dal sanitario[11].

In particolare, l’interazione con sistemi algoritmici complessi rende problematica l’individuazione della regola cautelare violata e la valutazione della concreta evitabilità dell’evento. Ne discende che le categorie elaborate nel contesto predigitale devono essere rilette alla luce del mutato scenario tecnologico, evitando sia derive punitivistiche, sia vuoti di tutela. La colpa medica, nell’era dell’intelligenza artificiale, si configura così come una categoria dinamica, il cui contenuto deve essere ricostruito in relazione al grado di controllo effettivamente esercitabile sul rischio tecnologico[12].

3. L’intelligenza artificiale come supporto decisionale e la posizione di garanzia del medico

Nell’attuale stato dell’arte, i sistemi di intelligenza artificiale impiegati in ambito sanitario operano prevalentemente come strumenti di supporto al processo decisionale clinico, fornendo raccomandazioni, segnalazioni di rischio e suggerimenti diagnostico-terapeutici, senza sostituire formalmente il medico nella titolarità della decisione finale[13]. Ne deriva che la posizione di garanzia nei confronti del paziente permane in capo al sanitario, quale soggetto investito del dovere di protezione del bene salute.

La permanenza della centralità del medico costituisce il punto di partenza per l’analisi della responsabilità penale nell’era digitale. L’output algoritmico non esonera il sanitario dall’obbligo di valutazione critica, ma ne ridefinisce il contenuto, estendendo il dovere di diligenza alla capacità di comprendere, nei limiti del possibile, l’affidabilità dello strumento utilizzato, di contestualizzarne i risultati e di discostarsene quando il quadro clinico lo richieda[14]. In tale prospettiva, la colpa medica non può essere automaticamente affermata né in caso di adesione acritica alle indicazioni dell’intelligenza artificiale, né in caso di loro sistematico rifiuto. Ciò che rileva è la ragionevolezza della decisione adottata alla luce delle conoscenze disponibili, delle linee guida, delle caratteristiche del paziente e delle informazioni fornite dal sistema algoritmico[15].

La posizione di garanzia del medico assume, pertanto, una dimensione “tecnologicamente mediata”, nella quale il controllo del rischio non si esaurisce nell’atto clinico in senso stretto, ma si estende alla gestione delle informazioni digitali e alla valutazione della loro attendibilità[16]. In questo contesto, emerge una nuova forma di competenza professionale, che integra il sapere clinico con una conoscenza minima dei limiti e delle potenzialità degli strumenti algoritmici.

4. Scenari applicativi e casi clinico-giuridici

L’impatto dell’intelligenza artificiale sulla responsabilità penale del medico emerge con particolare evidenza nell’analisi di casi clinici concreti, nei quali l’algoritmo interviene come fattore rilevante nel processo decisionale. È sul terreno applicativo che si misura la tenuta delle categorie tradizionali della colpa e della posizione di garanzia[17].

Un primo ambito emblematico è rappresentato dalla diagnostica per immagini. In radiologia, sistemi di intelligenza artificiale sono oggi in grado di individuare lesioni sospette con livelli di accuratezza talora superiori a quelli umani[18]. Si pensi al caso in cui un algoritmo segnali la possibile presenza di una neoplasia polmonare in fase iniziale, raccomandando ulteriori accertamenti. Qualora il medico ignori tale indicazione senza una motivazione clinica plausibile, determinando un ritardo diagnostico con esiti dannosi, la valutazione della colpa dovrà tener conto della ragionevolezza della scelta compiuta.

In tale scenario, l’errore non deriva dall’utilizzo dell’intelligenza artificiale in sé, ma dall’omessa integrazione critica dell’informazione algoritmica nel giudizio clinico complessivo[19]. La responsabilità penale può configurarsi qualora il sanitario abbia disatteso un segnale attendibile senza adeguata giustificazione, violando il dovere di diligenza esigibile. Analoghe considerazioni valgono per la dermatologia digitale, ove algoritmi di riconoscimento delle immagini cutanee sono impiegati per l’identificazione precoce dei melanomi[20]. In tali casi, l’eventuale dissenso rispetto all’output algoritmico deve essere adeguatamente motivato sulla base di dati clinici concreti, al fine di escludere profili di colpa.

Particolarmente delicato è, infine, il contesto del triage digitale nei pronto soccorso. I sistemi di classificazione algoritmica del rischio incidono direttamente sui tempi di intervento e, quindi, sulle possibilità di sopravvivenza del paziente[21]. In presenza di segnalazioni attendibili di elevato rischio, una sottovalutazione ingiustificata da parte del medico può tradursi in un evento evitabile penalmente rilevante.

Tali esempi dimostrano come l’intelligenza artificiale non sostituisca il giudizio umano, ma ne divenga parte integrante. La colpa medica si colloca nello spazio che separa l’affidamento acritico dalla valutazione consapevole, richiedendo al sanitario una competenza non solo clinica, ma anche tecnologica[22].

5. La responsabilità distribuita: medico, struttura sanitaria e produttore del software

L’utilizzo dell’intelligenza artificiale in ambito sanitario rende progressivamente inadeguata una concezione monolitica della responsabilità penale, incentrata esclusivamente sulla figura del medico. Il rischio tecnologico si inserisce, infatti, all’interno di una catena decisionale complessa, che coinvolge una pluralità di soggetti, ciascuno titolare di specifici doveri di prevenzione e controllo[23].

Il medico conserva un ruolo centrale, in quanto titolare della posizione di garanzia nei confronti del paziente. Egli è chiamato a esercitare un controllo critico sull’output algoritmico, a comprenderne i limiti e a inserirlo nel contesto clinico concreto. Tuttavia, tale controllo presuppone condizioni organizzative e formative che non dipendono esclusivamente dal singolo professionista[24].

La struttura sanitaria assume una responsabilità di natura prevalentemente organizzativa e preventiva. Essa è tenuta a selezionare sistemi tecnologici affidabili, a garantirne l’aggiornamento e la manutenzione, nonché a predisporre adeguati programmi di formazione per il personale sanitario[25]. In presenza di gravi carenze organizzative, non può escludersi una responsabilità penale per colpa di organizzazione, in linea con l’elaborazione giurisprudenziale in materia di responsabilità degli enti.

Accanto al medico e alla struttura, si colloca il produttore del software, responsabile della progettazione, validazione e sicurezza del sistema algoritmico. Difetti di progettazione, errori sistematici o carenze nei meccanismi di aggiornamento possono incidere direttamente sulla sicurezza del paziente. Sebbene la responsabilità del produttore sia tradizionalmente inquadrata in ambito civilistico, non è esclusa una rilevanza penale in presenza di condotte gravemente negligenti o dolose[26].

Si delinea, in tal modo, un modello di responsabilità multilivello, nel quale il rimprovero penale deve essere commisurato al potere effettivo di controllo esercitabile da ciascun soggetto. Una diversa impostazione, fondata sull’automatica imputazione al medico di ogni evento dannoso, rischierebbe di produrre effetti distorsivi, incentivando forme rinnovate di medicina difensiva e ostacolando l’innovazione tecnologica[27].

6. L’algoritmo opaco e il problema della spiegabilitá

Uno dei profili maggiormente problematici nell’impiego dell’intelligenza artificiale in ambito sanitario è rappresentato dall’opacità algoritmica. Molti sistemi basati su tecniche di machine learning e deep learning operano come vere e proprie “scatole nere”, il cui funzionamento interno risulta difficilmente interpretabile anche per gli esperti del settore[28].

Tale opacità incide direttamente sulla valutazione della colpa medica. Qualora il medico non sia in grado di comprendere le ragioni che hanno condotto l’algoritmo a formulare una determinata raccomandazione, il suo margine di controllo risulta significativamente ridotto. In tali condizioni, imputare al sanitario una responsabilità penale per l’adesione a un output errato rischia di porsi in contrasto con il principio di colpevolezza[29].

La questione della spiegabilità assume, pertanto, una valenza eminentemente giuridica. Affinché il medico possa esercitare un controllo consapevole, i sistemi di intelligenza artificiale devono essere progettati secondo criteri di trasparenza, auditabilità e tracciabilità[30]. La possibilità di ricostruire ex post il processo decisionale dell’algoritmo costituisce un requisito essenziale non solo per la sicurezza del paziente, ma anche per la corretta attribuzione della responsabilità. In tale prospettiva, rilevano le indicazioni provenienti dal diritto dell’Unione Europea, in particolare dal Regolamento sull’intelligenza artificiale (AI Act), che valorizza i principi di trasparenza, gestione del rischio e supervisione umana nei sistemi ad alto rischio, tra cui rientrano quelli utilizzati in ambito sanitario[31].

In una prospettiva costituzionalmente orientata, la mancanza di spiegabilità non può tradursi in un aggravamento della responsabilità del medico. Al contrario, essa impone una restrizione dell’area del penalmente rilevante, limitata ai soli casi in cui il sanitario abbia effettivamente avuto la possibilità di comprendere e gestire il rischio tecnologico[32].

7. Profili giurisprudenziali recenti: continuità e adattamento delle categorie penalistiche

La giurisprudenza di legittimità, pur non avendo ancora affrontato in modo sistematico casi paradigmatici di responsabilità penale derivante dall’uso di sistemi di intelligenza artificiale in ambito clinico, ha progressivamente elaborato principi suscettibili di applicazione anche in contesti tecnologicamente avanzati[33].

In particolare, le pronunce della Corte di Cassazione n. 24384 del 2020 e n. 28187 del 2022 ribadiscono la centralità della posizione di garanzia del medico, intesa come obbligo di protezione del bene salute fondato sul controllo effettivo del rischio. La responsabilità penale non può essere fondata su automatismi presuntivi, ma richiede la verifica concreta della violazione di una regola cautelare e della possibilità, per il sanitario, di evitare l’evento dannoso[34]. Tali principi assumono rilievo decisivo nel contesto dell’intelligenza artificiale. L’uso di strumenti tecnologici complessi non elimina la responsabilità del medico, ma ne ridefinisce il contenuto: il controllo si estende all’intero processo decisionale, inclusa la gestione delle informazioni algoritmiche[35].

La giurisprudenza insiste, inoltre, sulla necessità di una valutazione ex ante della condotta, escludendo giudizi retrospettivi fondati sull’esito sfavorevole dell’intervento. Questo orientamento appare particolarmente rilevante nei casi in cui l’intelligenza artificiale fornisca raccomandazioni probabilistiche, caratterizzate da un margine fisiologico di errore[36].

8. Valutazione penalistica: colpa, prevedibilità ed evitabilità nell’era dell’intelligenza artificiale

Dal punto di vista penalistico, l’intelligenza artificiale impone una rilettura delle categorie tradizionali della colpa, senza tuttavia determinarne uno stravolgimento strutturale[37]. Le coordinate fondamentali del rimprovero colposo restano ancorate alla violazione di una regola cautelare, alla prevedibilità dell’evento e alla sua concreta evitabilità.

8.1. La regola cautelare

Nell’era dell’intelligenza artificiale, la regola cautelare non può coincidere né con l’obbligo di adesione automatica all’output algoritmico, né con un generico dovere di diffidenza. Essa deve essere ricostruita alla luce delle linee guida cliniche, dei protocolli di utilizzo del sistema, del livello di affidabilità scientifica dell’algoritmo e delle condizioni concrete del paziente[38].

8.2. La prevedibilità dell’evento

La prevedibilità dell’evento lesivo deve essere valutata in relazione alle conoscenze disponibili al momento della decisione. Se l’errore dell’intelligenza artificiale rientra in un margine di imprevedibilità tecnica non dominabile dal medico, l’evento non può essere ascritto a titolo di colpa[39].

8.3. L’evitabilità dell’evento

Il criterio dell’evitabilità rappresenta il vero banco di prova dell’imputazione colposa. Occorre verificare se, in concreto, il sanitario avrebbe potuto comprendere l’errore, discostarsi ragionevolmente dall’indicazione dell’algoritmo e adottare una condotta alternativa lecita ed efficace[40].

9. Impatto pratico: criteri operativi per l’accertamento della responsabilità

L’elaborazione teorica fin qui svolta impone un mutamento del metodo di accertamento della responsabilità penale, più che delle categorie dogmatiche di riferimento[41]. In particolare, l’analisi giudiziale dovrebbe articolarsi secondo alcuni passaggi fondamentali:

a) qualificazione del ruolo svolto dall’intelligenza artificiale nel processo decisionale;
b) valutazione del grado di affidabilità del sistema;
c) accertamento della formazione del medico;
d) verifica del margine di controllo concreto;
e) analisi del comportamento alternativo lecito.

Tale approccio consente di evitare sia derive punitivistiche, sia vuoti di tutela, mantenendo il diritto penale entro la sua funzione di extrema ratio[42].

10. Conclusioni

L’introduzione dell’intelligenza artificiale in ambito sanitario non determina una crisi irreversibile delle categorie penalistiche tradizionali, ma ne richiede un’applicazione più rigorosa e consapevole[43]. Il medico resta il perno del sistema di responsabilità, ma la sua posizione di garanzia deve essere interpretata alla luce del controllo effettivo del rischio tecnologico. Una responsabilità penale coerente con i principi costituzionali non può fondarsi su automatismi né sulla mera verificazione dell’evento dannoso. Essa deve ancorarsi alla violazione di regole cautelari esigibili, alla prevedibilità dell’evento e alla concreta evitabilità del danno[44].

Sul piano pratico, ciò impone un rafforzamento della formazione tecnologica dei sanitari, una chiara governance dell’uso dell’intelligenza artificiale da parte delle strutture sanitarie e sistemi algoritmici progettati secondo criteri di trasparenza e controllabilità. Solo in questo quadro l’innovazione può integrarsi nel sistema sanitario senza compromettere né la tutela della salute dei pazienti, né le garanzie fondamentali del diritto penale.


Note e riferimenti bibliografici

[1] Cfr. T.F.X. Januàrio, Intelligenza artificiale e diritto penale della medicina, 2024, 45 ss.

[2] F. Basile – P.F. Poli, La responsabilità per colpa medica a cinque anni dalla legge Gelli-Bianco, Milano, 2022, 23 ss.

[3] Art. 32 Cost.; Corte cost., 26 giugno 2002, n. 282

[4] L. Ferrajoli, Diritto e ragione, Roma-Bari, 2009, 589 ss.

[5] V. anche M. Donini, Responsabilità e rischio tecnologico, in Riv. It. Dir. proc. Pen., 2021, 1123 ss.

[6] Cfr. G. Fiandaca – E. Musco, Diritto penale. Parte generale, Bologna, ult. ed., 712 ss.

[7] L. 8 novembre 2012, n.189, art. 3.

[8] Cass., sez. IV, 11 marzo 2014, n. 16237

[9] L. 8 marzo 2017, n. 24, art. 6.

[10] F. Viganò, La responsabilità medica dopo la legge Gelli-Bianco, in Dir. Pen. Cont., 2017, 1 ss.

[11] F. Centonze, Colpa e tecnologie complesse, in Riv. It. Dir. Proc. Pen., 2020, 845 ss.

[12] A. Cadoppi, Responsabilità penale e rischio tecnologico, Torino, 2019, 156 ss.

[13] Cfr. G. Comandè – G. Sartor, Responsabilità e intelligenza artificiale, Torino, 2020, 97 ss.

[14] M. Gambardella, Colpa medica e nuove tecnologie, in Cass. Pen., 2021, 3245 ss.

[15] Cass., sez. IV, 21 giugno 2018, n.37794.

[16] A. Di Martino, Posizione di garanzia e tecnologie sanitarie, in Dir. Pen. Proc., 2022, 114 ss.

[17] Cfr. F. Palazzo, Corso di diritto Penale, Torino, ult. ed., 412 ss.

[18] E. Topol, Deep Medicine, New York, 2019, 67 ss.

[19] M. Ronco, Colpa e affidamento tecnologico, in Riv. It. Dir. Proc. Pen., 2021, 901 ss.

[20] A. Esteva et al., Dermatologist-level classification of skin cancer, in Nature, 2017, 542, 115 ss.

[21] WHO, Digital Trage Systems in Emergency Care, 2021.

[22] S. Seminara, Responsabilità professionale e innovazione, in Resp. Civ. prev., 2022, 233 ss.

[23] Cfr. G. Marinucci – E. Dolcini, Manuale di Diritto Penale, Milano, ult. ed., 389 ss.

[24] A. Gargani, Colpa professionale e organizzazione sanitaria, in Riv. It. Dir. Proc. Pen., 2019, 1045 ss.

[25] Cass., sez. IV, 9 marzo 2017, n. 8770.

[26] A. Vallini, Responsabilità penale del produttore di software medico, in Dir. Pen. Cont., 2022, 57 ss.

[27] M. Pelissero, Rischio tecnologico e imputazione penale, Torino, 2021, 142 ss.

[28] C. Burrell, How the Machine “Thinks”, in Big Data & Society, 2016.

[29] L.Ferrajoli, Diritto e ragione, cit., 601 ss.

[30] S. Wachter – B. Mittelstad, A right to Explanation, in Int. Data Privacy Law, 2017, 76 ss.

[31] Regolamento UE 2024/1684 AI ACT, artt. 9,13,14.

[32] F. Viganò, Colpa e prevedibilità nell’era algoritmica, in Sistema Penale, 2024

[33] Cfr. M Gallo, Tecnologia e responsabilità penale, in Cass. Pen., 2021, 2871 ss.

[34] Cass., sez. IV, 16 luglio 2020, n. 24384; Cass., sez. IV, 12 luglio 2022, n. 28187.

[35] A. Pagliaro, Rischio consentito e nuove tecnologie, Milano, 2020, 94 ss.

[36] Cass., sez. IV, 7 maggio 2019, n. 21221.

[37] G. Fiandaca – E. Musco, Diritto Penale, cit., 720 ss.

[38] F. Palazzo, Colpa penale e regole cautelari, Torino, 2018, 133 ss.

[39] M. Donini, Imputazione oggettiva e rischio tecnologico, in Riv. It. Dir. Proc. Pen., 2022, 501 ss.

[40] Cass., sez. IV, 14 febbraio 2018, n. 8243.

[41] Cfr. L. Cornacchia, Metodo e Responsabilità penale, Bologna, 2020, 211 ss.

[42] L.Ferrajoli, Diritto e ragione, cit., 615 ss.

[43] A. Cadoppi, Rischio e Responsabilità, cit. 2021 ss.

[44] F. Viganò, Colpevolezza e Tecnologia, in Sistema Penale, 2024

Bibliografia

BASILE F., POLI P.F., La responsabilità per colpa medica, Milano, 2022.
CADOPPI A., Responsabilità penale e rischio tecnologico, Torino, 2019.
COMANDÉ G., SARTOR G., Responsabilità e IA, Torino, 2020.
FERRAJOLI L., Diritto e ragione, Roma-Bari, 2009.
JANUÀRIO T.F.X., Intelligenza artificiale e diritto penale, 2024.
PALAZZO F., Colpa penale, Torino, 2018.

Giurisprudenza

Cass., sez. IV, 16 luglio 2020, n. 24384.
Cass., sez. IV, 12 luglio 2022, n. 28187.
Cass., sez. IV, 14 febbraio 2018, n. 8243.

Normativa

L. 8 novembre 2012, n. 189.
L. 8 marzo 2017, n. 24.
Reg. (UE) 2024/1684 (AI Act).

Sitografia

Commissione europea, Artificial Intelligence Act, 2024.
WHO, Digital Health Guidelines, 2021.