• . - Liv.
ISCRIVITI (leggi qui)
Pubbl. Gio, 6 Lug 2023

La responsabilità civile derivante dall´utilizzo dell´intelligenza artificiale

Modifica pagina

Francesco Conte



L´Intelligenza Artificiale (IA) ha rivoluzionato numerosi settori, offrendo promettenti opportunità di innovazione. Tuttavia, con questo rapido sviluppo emergono anche questioni legate alla responsabilità civile. È fondamentale comprendere e affrontare adeguatamente le implicazioni legali dell´IA al fine di garantire una società giusta e sicura. In questo articolo, esploreremo le prospettive regolatorie nell'Unione Europea riguardanti la responsabilità civile nell'ambito dell'IA.


ENG

Civil liability arising from the use of artificial intelligence

Artificial intelligence (AI) has revolutionised numerous sectors and offers promising opportunities for innovation. However, this rapid development also raises issues concerning civil liability. It is crucial to thoroughly understand and effectively address the legal implications of AI in order to ensure a fair and secure society. In this article, we will delve into the regulatory perspectives within the European Union regarding civil liability in the realm of AI.

Sommario: 1. Introduzione. – 2. Inquadramento giuridico dell’Intelligenza Artificiale (AI). – 3. La proposta di regolamento dell’Unione Europea. – 3.1 La Direttiva sulla responsabilità da prodotto difettoso. – 3.2 La Direttiva AI Liability Directive.

1. Introduzione

L'evoluzione rapida e esponenziale delle tecnologie digitali emergenti, che comprendono sia sistemi automatizzati che semi-automatizzati (c.d. machine learning e deep learning)[1] , ha notevolmente ampliato le possibilità tecnologiche e applicative “dell’intelligenza artificiale”[2], ponendo “nuovi interrogativi”[3] riguardo alla responsabilità civile e del risarcimento dei danni in caso di incidenti.

Tali tecnologie possono generare infatti una vasta gamma di scenari dannosi che differiscono significativamente da quelli tradizionalmente affrontati dal punto di vista giuridico. Questa situazione si verifica quando i danni sono causati da robot che svolgono attività che potrebbero essere eseguite da esseri umani o da intelligenze artificiali dotate di capacità di autoapprendimento. In quest'ultimo caso, le scelte vengono prese senza l'intervento umano e si basano sull'elaborazione di algoritmi, risultando da un processo di adattamento o capacità decisionali autonome.

In tal senso, in caso di danni o pregiudizi subiti da parte dell'utilizzatore del dispositivo intelligente o da terze parti, la mancanza di un soggetto legalmente responsabile designato, potrebbe comportare l'assenza di una figura incaricata di rispondere per i danni causati. L'utilizzo degli algoritmi può inoltre mettere a rischio le libertà e i diritti fondamentali dell'individuo, compresi aspetti cruciali come la sicurezza personale, la salute, la privacy e la protezione dei dati personali, l'integrità, la dignità e l'autodeterminazione.[4]

Questa situazione ha sollevato “un dibattito dottrinale relativo all'estensione della « soggettività » agli agenti elettronici capaci di elaborare decisioni algoritmiche autonome”[5] e, correlativamente, ha comportato la necessità di valutare se le normative esistenti sulla responsabilità siano adeguate o se sia necessario introdurre nuovi principi e regole volte a determinare chi sia responsabile per le azioni e le omissioni dannose attribuibili all'Intelligenza Artificiale, quando le cause non possono essere attribuite a un soggetto umano specifico.

Un primo aspetto complesso da considerare riguarda la sfida di applicare la disciplina vigente in materia di responsabilità civile all'intelligenza artificiale. La normativa esistente è stata concepita per regolare le conseguenze delle azioni umane, che coinvolgono soggetti capaci di autonomia decisionale e di prendere decisioni in modo indipendente. L'intelligenza artificiale, al contrario, è un oggetto, seppur sofisticato, che funziona tramite l'elaborazione di grandi quantità di dati forniti esternamente. In altre parole, il ruolo dell'essere umano rimane fondamentale. Pertanto, attribuire una responsabilità legale all'intelligenza artificiale per i danni causati diventa problematico, rendendo necessario esplorare alternative con le loro conseguenti sfide e adattamenti.

Alla luce di tali considerazioni, l'impetuosa espansione delle applicazioni dell'Intelligenza Artificiale pone interrogativi sulla possibilità di riconoscere ai robot la qualità di soggetti di diritto e sulla necessità potenziale di creare una nuova categoria giuridica: la personalità elettronica, con le sue caratteristiche specifiche e implicazioni peculiari; inoltre le macchine intelligenti, pur dotate di capacità decisionali e comportamentali autonome, non possono essere ricondotte a una singola definizione che le comprenda tutte indiscriminatamente ma, al contrario, devono essere presi in considerazione diversi aspetti, come la natura del robot, l'ambiente in cui agisce e il tipo di controllo esercitato dall'uomo su di esso.

Un primo sforzo per fornire risposte a livello europeo si riscontra nel percorso volto all'approvazione di un Regolamento riguardante la responsabilità civile dell'Intelligenza Artificiale. Tale percorso prende avvio dalla proposta formulata nella Risoluzione del Parlamento europeo datata 20 ottobre 2020, che offre raccomandazioni alla Commissione in merito a un quadro di responsabilità civile per l'Intelligenza Artificiale.

Prima di intraprendere questo percorso è opportuno delineare il quadro giuridico di riferimento e la nozione giuridica di intelligenza artificiale.

2. Inquadramento giuridico dell’Intelligenza Artificiale (AI)

Sebbene si siano susseguite molteplici definizioni[6] nel corso degli ultimi anni, solo di recente il legislatore europeo ha sentito il bisogno di inquadrare giuridicamente questo complesso (e variegato) fenomeno. Il primo passo è stato compiuto attraverso la direttiva n° 85/374/CE del Consiglio del 25 luglio 1985, recepita nel Codice del Consumo italiano (specificamente negli articoli 114-127 del Titolo II, Parte IV). Successivamente, il 31 maggio del 2016, la Commissione JURI del Parlamento europeo, a seguito dell’audizione di numerosi esperti di alto livello nel campo dell’automazione e della digitalizzazione, ha presentato un primo "progetto di relazione" che poneva al centro dell'attenzione il riconoscimento della responsabilità civile riguardo ai danni causati dai dispositivi automatizzati (ricomprendendo con tale termine anche l'Intelligenza Artificiale). Il Progetto di Relazione ha avuto un seguito “nel Febbraio 2017”[7], mediante una serie di raccomandazioni fornite dal Parlamento alla Commissione Europea riguardo le norme civili in materia di “robotica”[8], con l’obiettivo di elaborare una disciplina armonizzata e renderla uniforme in tutti gli Stati Membri, per affrontare le sfide e le questioni etiche correlate all'automazione e all'Intelligenza Artificiale, promuovendo al contempo lo sviluppo sostenibile e l'adozione responsabile di queste innovazioni tecnologiche.

Nell’attuale contesto normativo la direttiva n° 85/374/CE assume un ruolo di fondamentale importanza, poiché disciplina il risarcimento dei danni provocati da difetti di fabbricazione di un prodotto. Essa, infatti, stabilisce un regime di responsabilità oggettiva, indipendente dalla colpa, a condizione che il danneggiato sia in grado di dimostrare: la presenza del difetto nel prodotto, l'effettivo danno subito e l'esistenza di un nesso causale tra il difetto e il danno. Viceversa, il produttore, ai sensi dell’articolo 7 di tale direttiva, può escludere la propria responsabilità se dimostra che il difetto non era presente al momento della messa in circolazione (oppure è sorto successivamente), non ha fabbricato il prodotto a scopo economico, il difetto è dovuto a regole obbligatorie delle autorità pubbliche, era impossibile rilevarlo con le conoscenze scientifiche e tecniche dell'epoca (c.d. rischio di sviluppo), o è causato dal design o dalle istruzioni del produttore nel caso di una parte componente.

Attraverso gli indirizzi forniti dal gruppo di esperti di alto livello, è stato promosso un concetto di Intelligenza Artificiale affidabile, basato su tre fondamentali componenti: legalità, eticità e robustezza. Questi principi costituiscono un fondamento solido per affrontare le sfide e le implicazioni della diffusione dell'IA nella società. Il perseguimento di un utilizzo responsabile e affidabile dell'IA richiede un impegno congiunto da parte degli attori coinvolti per garantire un equilibrio tra innovazione tecnologica, rispetto delle norme giuridiche ed etiche, e tutela dei diritti e del benessere delle persone.[9]

L'impegno delle istituzioni dell'Unione Europea, in linea con quanto espresso nella Risoluzione del 2017, ha portato così alla creazione di diversi strumenti giuridici. Tra questi si annoverano la Comunicazione "L'Intelligenza Artificiale per l'Europa"[10], il Piano coordinato sull'Intelligenza Artificiale[11], la Comunicazione "Creare fiducia nell'Intelligenza Artificiale antropocentrica", e il Libro bianco sull'Intelligenza Artificiale, volti a definire il concetto dell’IA come «un insieme di tecnologie che combina dati, algoritmi e potenza di calcolo in grado di cambiare radicalmente le nostre conoscenze e le loro applicazioni». Parallelamente a tali documenti, sono stati prodotti numerosi studi e linee guida che hanno influenzato la redazione di molteplici atti legislativi già adottati o in fase di adozione.

È importante evidenziare come, nonostante l’obiettivo di questa normativa sia quello di fornire una protezione adeguata ai consumatori e di stabilire una chiara responsabilità per i produttori all'interno del contesto europeo di riferimento[12], sorgono preoccupazioni rilevanti riguardo l’interdipendenza tra nesso di causa e la gestione delle nuove sfide presentate dall'intelligenza artificiale nonché l'ottenimento del correlato risarcimento effettivo per i danni subiti, spesso di considerevole entità. [13]

Le questioni legali sollevate includono la responsabilità civile per i danni causati dagli algoritmi, la protezione della privacy e dei dati personali, la discriminazione algoritmica e la sicurezza cibernetica, solo per citarne alcuni esempi.

In ambito nazionale, sono emersi problemi simili che hanno richiesto un'attenta valutazione dell'adeguatezza delle norme codicistiche tradizionali per affrontare in modo efficace le questioni sollevate dalla diffusione sempre più ampia dell'intelligenza artificiale. Questa diffusione ha portato all'emergere di nuovi scenari e ha presentato sfide legali connesse che richiedono una riflessione approfondita.[14]

Riassumendo, l'interazione complessa tra molteplici attori coinvolti, l'evoluzione autonoma delle tecnologie e la difficoltà delle legislazioni nel tenere il passo con tali progressi, contribuiscono a generare una significativa dose di incertezza che induce le imprese a manifestare una certa riluttanza nell'adottare l'intelligenza artificiale. 

Di conseguenza, la necessità di affrontare queste (nuove) sfide legali ha stimolato dibattiti accesi e ha portato i legislatori a considerare l'adozione di nuove norme e regolamenti specifici: a) per affrontare in modo adeguato la responsabilità derivante dall'uso di dispositivi basati sull'intelligenza artificiale; b) per bilanciare l'innovazione tecnologica con la protezione dei diritti fondamentali, il mantenimento della certezza giuridica e la promozione di un ambiente favorevole all'innovazione.

3. La proposta di regolamento dell’Unione Europea

Nel contesto delle difficoltà riscontrate, le istituzioni europee hanno avanzato ulteriori proposte legislative con l’obiettivo di adeguare le norme sulla responsabilità civile alle mutevoli dinamiche dell'era digitale, dell'economia circolare, e dell'impatto sempre più significativo della sostenibilità ambientale. Tra le diverse iniziative adottate, è importante evidenziare due importanti pubblicazioni avvenute il 28 settembre 2022.

In primo luogo, è stata resa pubblica la proposta di direttiva AI Liability Directive, che si concentra sulla responsabilità associata all'utilizzo dei sistemi di intelligenza artificiale.[15] In parallelo a questa proposta, è stata presentata un'altra iniziativa significativa: una proposta di modifica completa della Direttiva 85/374/CEE sulla responsabilità per prodotti difettosi, finalizzata alla sua completa sostituzione.[16]

Tali iniziative, tenendo conto anche della precedente proposta di regolamentazione sull'intelligenza artificiale, mirano a facilitare il risarcimento dei danni subiti da coloro che sono stati vittime dei sistemi di intelligenza artificiale, e «gettano le basi per la necessaria certezza giuridica atta a stimolare gli investimenti e l’innovazione nel campo dell’IA e a stabilire, al contempo, un complesso armonizzato di norme che, assicuri un risarcimento derivante da qualsiasi tipo di danno, e salvaguardi i diritti fondamentali (e la sicurezza) degli individui».[17]

3.1 La Direttiva sulla responsabilità da prodotto difettoso

La proposta di revisione della direttiva sulla responsabilità “per prodotti difettosi”[18] affronta le sfide legate all'applicazione della legge ai nuovi prodotti digitali. In sostanza, la proposta mira a garantire che i danni causati da prodotti come robot, droni e sistemi domestici intelligenti resi insicuri da aggiornamenti software, intelligenza artificiale o servizi digitali siano risarcibili. La responsabilità oggettiva sarebbe attribuita agli operatori economici quando un prodotto difettoso provoca danni a persone, danni materiali o perdita di dati. La proposta cerca di “equilibrare i diritti dei consumatori e degli operatori economici”[19], semplificando le procedure di richiesta di risarcimento per i consumatori e imponendo agli operatori economici di divulgare prove pertinenti per stabilire la relazione di causa-effetto tra il prodotto difettoso e il danno subito. Inoltre, la proposta prevede la possibilità per i consumatori di rivolgersi all'importatore o al rappresentante del produttore per prodotti importati da paesi terzi, al fine di evitare disparità di trattamento tra produttori europei ed extraeuropei.

3.2 La Direttiva AI Liability Directive

La proposta di Direttiva sull'intelligenza artificiale (AI), statuisce una nuova disciplina comune e armonizzata tra gli Stati membri dell'Unione Europea, con l’obiettivo di stabilire un approccio uniforme nei meccanismi di attribuzione delle responsabilità derivante dai danni causati dall'utilizzo di tali tecnologie.

In particolare, la Direttiva propone di introdurre un'assicurazione obbligatoria per la responsabilità civile da parte dei produttori dei beni che causano danni, al fine di prevenire situazioni di insolvenza; nonché di alleggerire l'onere della prova per i danneggiati attraverso una presunzione di colpevolezza del danneggiante produttore al verificarsi di determinate circostanze.[20] La presunzione di responsabilità differisce inoltre tra utilizzo professionale e non professionale dell'AI; in quest’ultimo caso, la presunzione di responsabilità si applica solo quando il danneggiante ha un ruolo attivo nell'influenzare o controllare le modalità di funzionamento del sistema di AI.

Invece di adottare il principio di responsabilità oggettiva del produttore, come stabilito dalla Direttiva 85/374/CEE attualmente in vigore, la proposta in esame suggerisce invece un'inversione dell'onere della prova. Ciò significa che sarebbe compito del produttore dimostrare di aver adottato tutte le precauzioni ragionevoli per evitare il danno subito dal consumatore, anziché spettare al consumatore provare la colpa o il difetto del prodotto.

Questo nuovo approccio mira a semplificare la procedura per il consumatore e a promuovere una maggiore responsabilità da parte del produttore nell'ambito dell'intelligenza artificiale.

Altri aspetti significativi della Direttiva includono il potere per gli organi giurisdizionali di ordinare la divulgazione di prove da parte dei fornitori di IA, la trasparenza degli algoritmi utilizzati, la tutela dei segreti commerciali e le misure per limitare la diffusione delle informazioni riservate.

In sintesi, la Direttiva sull'IA si propone di regolamentare la responsabilità civile derivante dall'uso dell'IA, cercando di armonizzare le legislazioni nazionali e di affrontare le sfide emergenti nel contesto delle nuove tecnologie. Riconoscendo l'importanza crescente dell'IA nella nostra vita quotidiana, la proposta dimostra l'impegno del legislatore europeo nel garantire un quadro normativo adeguato per questa realtà emergente.

4. Considerazioni conclusive

Alla luce delle argomentazioni esposte, è possibile affermare che la proposta legislativa sulla responsabilità civile per i danni derivanti dall'impiego dei sistemi di intelligenza artificiale si trova ancora in una fase embrionale. Si rilevano notevoli difficoltà interpretative che richiedono ulteriori approfondimenti e dibattiti.[21] La complessità di tale argomento, unita alla rapida evoluzione tecnologica e all'impatto sociale degli algoritmi intelligenti, richiede un'attenta valutazione degli aspetti giuridici, etici e socio-economici coinvolti. È fondamentale considerare le diverse prospettive degli attori coinvolti e garantire un equilibrio tra la promozione dell'innovazione e la tutela dei diritti e degli interessi delle persone coinvolte. Pertanto, è necessario avviare un processo di approfondimento e discussione per definire una normativa efficace ed equilibrata che affronti in modo adeguato le sfide in essere poste dai sistemi di intelligenza artificiale. Ciò suggerisce una consapevolezza crescente dell'importanza di affrontare le implicazioni legali e responsabilità derivanti correlati all’utilizzo massivo (e invasivo) delle nuove tecnologie.

 

Note e riferimenti bibliografici

[1] Cfr. S. Weidman, Deep learning. Dalle basi alle architetture avanzate con Python, Tecniche Nuove, 2020, Cap. III; R. Marmo, Algoritmi per l’intelligenza artificiale. Progettazione dell’algoritmo, dati e machine learning, neural network, deep learning, HOEPLI, 2020, Cap. VIII.

[2] E. Gabellini, La comodità nel giudicare: la decisione robotica, Rivista Trimestrale di Diritto e Procedura Civile, fasc.4, 1 Dicembre 2019, pag. 1305, secondo cui, «quando si parla di intelligenza artificiale si suole compiere una distinzione tra intelligenza artificiale forte e quella debole. La prima si basa sull'assunto che anche i calcolatori siano capaci di stati cognitivi e di pensiero e conseguentemente si propone di costruire menti artificiali; diversamente, la seconda si prefigge di realizzare sistemi artificiali capaci di svolgere compiti complessi, che simulano i processi cognitivi umani, senza riprodurli. Le decisioni robotiche rientrano nella seconda categoria». Sul tema si veda inoltre A. Albanese, La responsabilità civile per i danni da circolazione di veicoli ad elevata automazione, in Europa dir. priv., 2019, pp. 995 ss.; G. Capilli, La responsabilità per la produzione di robot, in G. Alpa (a cura di), La responsabilità del produttore, Milano, 2019, pp. 625 ss.; G. Finocchiaro, Intelligenza artificiale e responsabilità, in Contratto impr., 2020, pp. 713 ss.; M. Costanza, L'intelligenza artificiale e gli stilemi della responsabilità civile, in Giur. it., 2019, pp. 1686 ss.; M. Infantino, La responsabilità per danni algoritmici: prospettive europeo continentali, in questa Rivista 2019, pp. 1762 ss.; N.F. Frattari, Robotica e responsabilità da algoritmo. Il processo di produzione dell'intelligenza artificiale, in Contratto impr., 2020, pp. 458 ss.; G. Di Rosa, Robot e responsabilità per danni, in C. Barone (a cura di), L'algoritmo pensante, Dalla libertà dell'uomo all'autonomia dell'intelligenza artificiale, Trapani, 2020, pp. 85 ss.; U. Ruffolo, Intelligenza artificiale. Il diritto, i diritti, l'etica, Giuffrè Francis Lefebvre, Milano, 2020; G. Pasceri, Intelligenza artificiale, algoritmo e machine learning, Giuffrè Francis Lefebvre, Milano, 2021, pp. 22 ss.

[3] F. Cardarelli, Amministrazione digitale, trasparenza e principio di legalità, in Diritto dell'Informazione e dell'Informatica, 2/2015, pag. 227; M.C. Cavallaro, G. Smorto, Decisione pubblica e responsabilità dell'amministrazione nella società dell'algoritmo, in Federalismi.it, 2019; G.P. Cirillo, I soggetti giuridici digitali, in www.giustizia-amministrativa.it, 2019; S. Civitarese Matteucci, Umano troppo umano. Decisioni amministrative automatizzate e principio di legalità, in Diritto pubblico, 1/2019, Il Mulino – Riviste web, pp. 5-42; S. Crisci, Intelligenza artificiale ed etica dell'algoritmo, in Foro Amm., 10/2018, pag. 1787; F. De Leonardis, Big data, decisioni amministrative e “povertà” di risorse della pubblica amministrazione, in E. Calzolaio (a cura di), La decisione nel prisma dell'intelligenza artificiale, Cedam, 2019; M. Falcone, Big data e pubbliche amministrazioni: nuove prospettive per la funzione conoscitiva pubblica, in Riv. trim. dir. pubbl., 3/2017, pp. 601 ss.; D.U. Galetta, J.G. Corvalán, Intelligenza artificiale per una Pubblica Amministrazione 4.0? Potenzialità, rischi e sfide della rivoluzione tecnologica in atto, in federalismi.it, 2019; P. Otranto, Decisioni amministrativa e digitalizzazione della p.a., federalismi.it, 2018; F. Patroni Griffi, La decisione robotica e il giudice amministrativo, in www.giustizia-amministrativa.it, 2018; E. Picozza, Politica, diritto amministrativo and artificial intelligence, in Giur. It., 2019, pag. 1657; A. Simoncini, L'algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, in BioLaw Journal, 1/2019; A. Simoncini, Profili costituzionali della amministrazione algoritmica, in Riv. trim. dir. pubb., 4/2019, pag.1149; A. Sola, La giurisprudenza e la sfida dell'utilizzo di algoritmi nel procedimento amministrativo, in Giustamm – Riv. Dir. Amm. 2020.

[4] M. Gambini, Responsabilità civile e controlli del trattamento algoritmico, in. P. Perlingieri, S. Giova, I. Prisco (a cura di), Il trattamento algoritmico dei dati tra etica, diritto e economia, op.cit., p. 314. M

[5] C. Leanza, Intelligenza artificiale e diritto: ipotesi di responsabilità civile nel terzo millennio, in Responsabilita' Civile e Previdenza, fasc.3, 1 MARZO 2021, pag. 1011. In particolare, «mentre alcuni studiosi hanno escluso la possibilità di attribuire la qualifica di soggetto giuridico agli automi, ritenendo sufficiente una modifica delle tradizionali regole sulla responsabilità civile, mediante analogia o tramite riforme legislative, legando l'attività della macchina a quella del produttore o dell'utilizzatore, altri, al contrario, riconoscono una soggettività giuridica almeno parziale, attribuendo in via primaria le conseguenze delle azioni dannose direttamente ai dispositivi di intelligenza artificiale e solo in via indiretta e eventualmente ai soggetti sviluppatori o utilizzatori».

[6] Per un approfondimento sul tema si vedano in particolare M. Gabrielli, Dalla logica al Deep Learning: una breve riflessione sull'intelligenza artificiale, pp. 21 ss.; R. Rovatti, Il processo di apprendimento algoritmico e le applicazioni nel settore legale, pp.  31 ss. e di L. Tomassini, L'intelligenza artificiale: quali prospettive?, pp. 43 ss., in Lezioni di diritto dell'intelligenza artificiale, U. Ruffolo (a cura di), Torino, Giappichelli, 2021.

[7] Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103(INL)).

[8] L. Coppini, Robotica e intelligenza artificiale: questioni di responsabilità civile, in Politica del diritto, 2018, p. 715 ss; F. Naddeo, Intelligenza artificiale: profili di responsabilità, in Comparazione e diritto civile, 2020, pp. 1161 ss.

[9] D. Chiappini, Intelligenza Artificiale e responsabilità civile: nuovi orizzonti di regolamentazione alla luce dell’Artificial Intelligence Act dell’Unione europea, Rivista Italiana di Diritto e Informatica, 2022, pp. 6 ss.

[10] COM (2018) 237, Comunicazione della Commissione europea al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni, L'intelligenza artificiale per l'Europa, 15 aprile 2018, pag. 1.

[11] COM (2018) 795, Comunicazione della Commissione europea al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni, Piano coordinato sull'intelligenza artificiale; avviata nell'aprile 2018 in occasione della Giornata digitale, è stata firmata da tutti gli Stati membri e dalla Norvegia 6 e approvata dal Consiglio europeo nel giugno 2018.

[12] G. D’Alfonso, Intelligenza artificiale e responsabilità civile. Prospettive europee, in Revista de Estudios Jurídicos y Criminológicos, 2022, p. 169; U. Izzo, “La precauzione nella responsabilità civile”, Padova, 2004, p. 1.

[13] Sul tema U. Ruffolo, Responsabilità da produzione e gestione dell’a.i. self-learning, in P. Perlingieri, S. Giova, I. Prisco (a cura di), Rapporti civilistici e intelligenze artificiali: attività e responsabilità, op.cit., p. 233 ss.

[14] Per approfondimenti si veda M. Martorana, Responsabilità civile e intelligenza artificiale: lo stato dell’arte e le prospettive future, pubblicato in www.cfnews.it il 27 ottobre 2022; In particolare, «gli attuali articoli del Codice Civile riguardanti la responsabilità per attività pericolose, danni causati da cose in custodia e danni causati da animali (rispettivamente agli articoli 2050-2052) non sono adatti ad affrontare le problematiche legate all'uso diffuso dell'intelligenza artificiale. Questi articoli presuppongono una pericolosità intrinseca che manca nei dispositivi basati sull'intelligenza artificiale e non tengono conto delle caratteristiche di opacità e autonomia di tali dispositivi».

[15] COM(2022) 496 final, Proposta di direttiva del Parlamento Europeo e del Consiglio relativa all'adeguamento delle norme in materia di responsabilità civile extracontrattuale all'intelligenza artificial, Bruxelles, 28.9.2022.

[16] COM(2022) 495 final, Proposta di direttiva del Parlamento Europeo e del Consiglio sulla responsabilità da prodotti difettosi, Bruxelles, 28.9.2022.

[17] A. Ferrari, L. Di Giacomo, Regolamento UE sull’Intelligenza Artificiale: uno strumento articolato per gestire il rischio, pubblicato in www.altalex.it il 3 giugno 2021.

[18] In particolare, ai sensi dell'art. 6 della presente disposizione, «un prodotto è considerato difettoso quando non offre la sicurezza che il grande pubblico può legittimamente attendersi» tenuto conto di una serie di circostanze: a) la presentazione del prodotto, comprese le istruzioni per l'uso, l'installazione e la manutenzione; b) l'uso e abuso ragionevolmente prevedibili del prodotto; c) gli effetti sul prodotto dell'eventuale capacità di continuare ad imparare dopo la sua diffusione; d) gli effetti sul prodotto di altri prodotti che ci si può ragionevolmente attendere siano utilizzati insieme al prodotto; e) il momento in cui il prodotto è stato immesso sul mercato o messo in servizio oppure, qualora il fabbricante mantenga il controllo sul prodotto dopo tale momento, il momento in cui il prodotto è uscito dal controllo del fabbricante; f) i requisiti di sicurezza del prodotto, compresi i requisiti di cybersicurezza rilevanti per la sicurezza; g) qualunque intervento di un'autorità di regolamentazione o di un operatore economico di cui all'articolo 7 in relazione alla sicurezza del prodotto; h) le specifiche aspettative degli utenti finali cui è destinato il prodotto.

[19] In particolare, con l'obiettivo di garantire un equilibrio tra le esigenze delle parti coinvolte, l’articolo 8 comma 4 della proposta in esame, stabilisce che «qualora al convenuto venga ordinato di divulgare informazioni che costituiscono un segreto commerciale o un presunto segreto commerciale, gli Stati membri provvedono affinché gli organi giurisdizionali nazionali abbiano il potere di adottare, d'ufficio o su richiesta debitamente motivata di una parte, le misure specifiche necessarie per tutelarne la riservatezza».

[20]Tale presunzione di causalità si applicherebbe quando si verificano cumulativamente le seguenti condizioni: a) se il tribunale nazionale ritiene che sia eccessivamente difficile per il ricorrente provare il nesso causale; b) se il convenuto dimostra che il ricorrente dispone di prove ed esperienza sufficienti per dimostrare il nesso causale tra la colpa del convenuto e l'output prodotto dal sistema di intelligenza artificiale o il fallimento del sistema di intelligenza artificiale nel produrre un output che ha dato origine a un danno rilevante (articolo 4 (4); c) deve essere ragionevolmente probabile che, in base alle circostanze di ogni caso, la condotta negligente del convenuto abbia influenzato l'output prodotto dal sistema di intelligenza artificiale o l'incapacità del sistema di intelligenza artificiale di produrre un output che ha dato origine al danno rilevante; d) il ricorrente ha dimostrato che l'output prodotto dal sistema di intelligenza artificiale o l'incapacità del sistema di intelligenza artificiale di produrre un output ha causato il danno. Per un maggior approfondimento si veda T. Madiega, “Briefing Eu Legislation in Progress. Artificial Intelligence liability directive” febbraio 2023, pp. 6 ss.

[21] Si vedano in particolare A. Cioni, Nuovi pregi e vecchi difetti della proposta di direttiva sulla responsabilità da prodotto difettoso, con particolare riferimento all’onere della prova, in  Responsabilita' Civile e Previdenza, fasc.2, 1 Febbraio 2023, pag. 656; A. Bertolini, La responsabilità del produttore, in E. Navarretta (a cura di), Codice della Responsabilità Civile, Milano, 2021, pp. 2616-2652; E. Rajneri, L'ambigua nozione di prodotto difettoso al vaglio della corte di cassazione italiana e delle altre corti europee, in Riv. dir. civ., 2008, pp. 623 ss.; A. Fusaro, Responsabilità del produttore: la difficile prova del difetto, in Nuova giur. civ. comm., 2017, pp. 896 ss.; P. Machnikowski (ed.), European Product Liability, An Analysis of the State of the Art in the Era of New Technologies, Intersentia, Cambridge, 2016, pp. 22 ss.; C-H Taschner, Product Liability: basic problems in a comparative perspective, in D. Fairgrieve (ed.), Product Liability Comparative Perspective, CUP, Cambridge, 2005, pp. 155-166.