ISCRIVITI (leggi qui)
Pubbl. Mer, 20 Mag 2020
Sottoposto a PEER REVIEW

Automazione self-learning e responsabilità civile: note a margine di una riflessione europea

Modifica pagina

Umberto Ricciardelli



L’avvento di prodotti tecnologici sempre più smart all’interno della vita di relazione degli individui sta stimolando riflessioni condivise sulla capacità di tenuta delle classiche categorie civilistiche. In particolare, la creazione di macchine dotate di autonomia e capacità di apprendimento parrebbe minare il funzionamento dello storico istituto della responsabilità civile e, più precisamente, il funzionamento del sistema armonizzato della responsabilità da prodotto difettoso. Con il presente scritto, ci si chiede, dopo aver analizzato le recenti indicazioni offerte dalla Commissione europea, se sia davvero necessario riformare le disposizioni attualmente vigenti in materia di responsabilità ovvero se le stesse possano essere ancora ritenute idonee.


The advent of increasingly smart products within the relationship life of individuals is stimulating shared reflections on the ability of civil law to regulate such phenomenon. In particular, the creation of machines equipped with autonomy and learning ability would seem to undermine the functioning of the historical institute of civil tort law, and more precisely of the harmonized system of liability for defective products. The paper, after considering the recent indications offered by European Commission, investigate if is necessary to reform the current civil tort law or not.

Sommario: 1. Introduzione; 2. Dall'automazione all'autonomia: struttura e meccanismo di funzionamento delle macchine self-learning; 2.1. Il cervello della macchina intelligente: struttura e funzione; 2.1.1. I diversi sistemi di self-learning 3. Responsibility gap; 3.1. Un problema complesso e metagiuridico 3. 2. Una sfida europea 3.3. I risultati delle prime ricerche europee 4. Il responsibility gap nella riflessione delle istituzioni europee; 4.1 L'intervento del Parlamento europeo; 4.1.1. La diversa natura delle questioni giuridiche trattate dalla Risoluzione del 16 febbraio 2017: una contraddizione di fondo; 4.1.2. Una chiave di lettura: il paradigma della responsabilità da prodotto difettoso; 4.2. L'intervento della Commissione europea; 4.2.1. Le valutazioni sulla Direttiva 85/374 ECC in materia di responsabilità da prodotto difettoso; 4.3. Il report dell'"Expert group on liability and new techniologies - New Technologies Formation"; 4.3.1. Una premessa; 4.3.2. Le soluzioni fornite: l'inutilità della personalità elettronica; 4.3.3. Le soluzioni fornite: principi generali; 4.3.4. Le soluzioni fornite: le modifiche alla responsabilità da prodotto difettoso; 4.3.5. Le soluzioni fornite: la responsabilità per colpa del produttore e dell'operatore; 4.3.6. Le soluzioni fornite: il problema della sicurezza e dei requisiti tecnici; 4.3.7. Le soluzioni fornite: l'assicurazione ed il fondo di compensazione; 4.3.8. Le soluzioni fornite: doppio binario della responsabilità e alleggerimento dell'onere della prova; 5. Considerazioni a margine

1. Introduzione

Tradizionalmente il diritto privato è quella branca del diritto positivo che regola «le relazioni interindividuali, sia dei singoli che degli enti privati, lasciando all’iniziativa personale anche l’attuazione delle singole norme» [1]: si compone, pertanto, di un insieme di precetti che guardano all’individuo (persona fisica, persona giuridica, ente) in quanto membro di una comunità di simili, con la finalità primaria di regolare le relazioni ed i rapporti fra umani, ovvero fra umani ed organizzazioni gestite da e per gli umani, come può essere un’azienda, una società di persone o di capitali, un’associazione, un comitato e così via.  

Tuttavia, lo sviluppo tecnologico registrato nell’ultimo secolo ha modificato in modo rilevante la quantità e la qualità delle relazioni umane [2]: in particolar modo, negli ultimi decenni, lo sviluppo dei sistemi di intelligenza artificiale [3] ha permesso, sempre più, l’automazione di procedimenti complessi, innovando in modo dirompente il mondo contemporaneo.

Si è andata, così, affermando la robotica [4], una branca dell’ingegneria che, sviluppatasi nel settore industriale o comunque per operare in ambienti estremi ed inaccessibili all’uomo, parrebbe, oggi, in grado di evolversi, nel medio tempo, fino alla realizzazione di automi in grado di interagire con gli esseri umani, in autonomia rispetto al controllo dell’uomo che li ha progettati o che li adopera, ed essendo, altresì, in grado di modificare il proprio agire traendo insegnamenti dall’esperienza maturata (c.d. machine learning) [5].

Proprio in virtù di tali inedite capacità d’interazione della macchina autonoma self-learning, la dottrina giuridica ha osservato come tale innovazione tecnologica, capace di modificare in modo radicale l’economia e la società di un dato periodo storico, abbia introdotto (o sarà destinata ad introdurre) delle nuove forme di relazione, non più soltanto fra uomini, ma anche fra uomo e macchina [6], che l’ordinamento ed il diritto privato dovranno regolare.

Soprattutto, è stato osservato, che tali relazioni possono essere catalogate almeno sotto tre voci: il danneggiamento, la relazione contrattuale, l’innesto o la fusione nel corpo [7].

In particolare, con riferimento al danneggiamento, si è fatto largo fra gli studiosi il dubbio, condiviso anche dalle istituzioni europee [8], che l’attuale sistema della responsabilità civile non sia più idoneo a comporre le possibili situazioni di danno derivanti dal contatto uomo-macchina intelligente: infatti, proprio in virtù dell’autonomia e della capacità di autoapprendimento della macchina, quest’ultima parrebbe in grado di realizzare, in assenza del controllo dell’essere umano, condotte imprevedibili al tempo della sua immissione in commercio, che renderebbero inapplicabili le disposizioni attualmente esistenti.

Tale problematica, molto discussa nella dottrina internazionale, prende il nome di responsibility gap [9] ed è stata oggetto d’analisi anche della dottrina italiana che, dopo aver individuato le disposizioni astrattamente applicabili al fenomeno tecnologico in esame, ne ha valutato la capacità di tenuta giungendo ad esiti difformi [10].

Tuttavia, prima di passare in rassegna i motivi sottesi alla problematica giuridica del responsibility gap, si segnala come taluni studiosi abbiano ritenuto che, in realtà, si tratti di un non problema [11], affondando lo stesso le proprie radici nella filosofia morale della giusta imputazione della responsabilità [12], nonché nell’analisi economica degli istituti civilistici [13].

Diversamente, ad avviso di chi scrive, abbandonando tale criterio d’indagine, sarebbe difficile ritenere che l’introduzione di derivati tecnologici, sebbene autonomi e dotati di capacità d’apprendimento, possa portare ad un vuoto assoluto di tutela, con l’effetto di allocare il danno in capo alla vittima, soprattutto in ordinamenti, come quello nazionale, ove coesistono diversi regimi e sistemi di imputazione della responsabilità astrattamente idonei a disciplinare le conseguenze dell’azione di automi intelligenti.

2. Dall’automazione all’autonomia: struttura e meccanismo di funzionamento delle macchine self-learning

Prima di passare all’esame della questione giuridica anticipata in premessa, si ritiene opportuno fornire al lettore una serie di precisazioni sul fenomeno tecnologico in esame, nonché sulle modalità di funzionamento dello stesso, poiché queste si pongono a fondamento delle questioni giuridiche in esame.

Generalmente, per automazione si intende l’impiego di un insieme di mezzi e procedimenti tecnici che, agendo opportunamente su particolari congegni o dispositivi, assicurano lo svolgimento automatico di un determinato processo [14].

Con lo sviluppo delle nuove tecnologie, però, i processi automatizzati hanno acquisito complessità crescente, passando dall’automazione semplice a quella autonoma.

Con la prima forma di automazione, un soggetto può programmare una sequenza, dimodoché ad un sempre identico impulso A corrisponda un sempre identico risultato B. Per il tramite dell’automazione semplice, quindi, si permette la velocizzazione di processi, che si ripetono sempre identici nel tempo, realizzando sempre lo stesso risultato programmato. Si pensi, ad esempio, al funzionamento di un frigorifero che, impostato per operare ad una certa temperatura, in automatico attiva il processo di raffreddamento quando i sensori rilevino temperature maggiori all’interno della cella.

Con l’automazione complessa [15] (per comodità, di seguito, anche il robot, o macchina intelligente o self-learning), invece, ad un identico input A segue un risultato B, potenzialmente sempre diverso dal precedente per qualità e per modalità di realizzazione.

Si pensi, ad esempio, ad un’auto autonoma, sprovvista di conducente, programmata per coprire la tratta lavoro – casa nel minor tempo possibile: a seconda dei dati acquisiti e dell’analisi delle informazioni disponibili nel caso concreto, questa potrà percorrere un percorso come un altro, in modo imprevedibile per l’utente che se ne serve.

Dal punto di vista tecnico, l’aumento della complessità dei processi automatizzati è stato reso possibile dagli sviluppi di nuovi sistemi di intelligenza artificiale. Si tratta di software che operano emulando le capacità cognitive e connettive dell’essere umano, e che permettono, lato sensu, alla macchina di acquisire esperienze e di modificare, nel corso del suo ciclo di esercizio, le modalità di esecuzione del compito alla medesima assegnato.

In forza di tale caratteristica, il robot non è soltanto automatizzato ma è anche autonomo rispetto all’essere umano, con ciò riferendosi alla sua capacità, di intensità variabile, di svolgere i propri compiti in assenza del controllo di un essere umano [16].

A ben vedere, il fenomeno in esame, per quanto affascinante, potrebbe essere confinato nell’ambito della fantascienza e, di riflesso, del fantadiritto. Tuttavia, come espresso dalla Commissione europea, ‘‘l’intelligenza artificiale (IA) non è fantascienza” [17] e, già nel nostro tempo, e la diffusione dei robot self-learning sta già interessando un ampio numero di settori: dalle attività industriali (in cui gli automi trovano largo impiego da diversi anni), all’assistenza sanitaria e domestica, al settore energetico, al settore dei trasporti, al settore finanziario (in cui già operano strumenti in grado di contrattare autonomamente), al sistema giudiziario, al settore legale, a quello farmaceutico (ove i ricercatori stanno sviluppando involucri intelligenti, capaci di interagire con la prescrizione medica e di gestire il dosaggio e l’erogazione del farmaco) [18]. Ingente diffusione delle macchie intelligente si prevede, anche, nel settore dell’assistenza domestica, in quello dell’assistenza sanitaria, ove si possono immaginare robot capaci di guidare la persona disabile, ad esempio un non vedente [19], o che svolgono funzione di riabilitazione e recupero di persone mentalmente instabili. L’uso di macchine autonome si registra, inoltre, nel settore della mobilità e della logistica: si pensi, ad esempio, al porto della città di Amburgo, in cui lo spostamento e il deposito delle merci sono affidati a gru e camion autoguidati, all’uso di droni per il trasporto di merci da parte delle società di e-commerce, nonché allo sviluppo di veicoli driverless, tra i quali spicca Waymo (la Google driverless car) [20].

2.1. Il cervello della macchina intelligente: struttura e funzione

Come si anticipava, il tendenziale passaggio verso l’autonomia delle macchine è stato reso possibile dalla creazione di sistemi di intelligenza artificiale complessi, che riescono ad emulare le capacità cognitive e connettive dell’essere umano tra cui spicca, certamente, la capacità di elaborazione delle esperienze e di apprendimento [21].

Tali abilità vengono installate nella macchina attraverso la programmazione (e l’esecuzione informatica) di software costruiti su particolari tipologie di algoritmi, il cui funzionamento resta parzialmente oscuro anche all’essere umano che li ha programmati, essendo, pertanto, definiti sistemi black-box [22].

Gli algoritmi possono essere intesi come l’operazione primaria della fase di programmazione e di sviluppo di un software: essi permettono di formalizzare la risoluzione del problema in termini traducibili in linguaggio macchina ed elencare precisamente le operazioni che la macchina deve eseguire per realizzare il compito assegnatole. Semplificando, gli algoritmi posti alla base di sistemi di automazione operano in almeno tre fasi: ricezione dell’input di sollecitazione, analisi ed elaborazione dello stesso, ed output di risposta, da intendersi come il comportamento finale della macchina, percepibile all’esterno.

Orbene, mentre gli algoritmi installati nei software delle macchine automatiche non presentano eccessive criticità, se non quelle proprie di qualsiasi applicazione elettronica, quali il rischio di crash o di attacchi informatici, perché le tre fasi restano sempre conoscibili e monitorabili dal programmatore, la fase intermedia degli algoritmi impiegati nei sistemi di intelligenza artificiale delle macchine autonome resta ignota, con la conseguenza che l’output di risposta (il comportamento finale) diviene potenzialmente imprevedibile. Per questo motivo, come si diceva in precedenza, tali sistemi si configurano come scatole nere (black-box).

Tali aspetti, tuttavia, sono insiti soltanto in alcune tipologie di meccanismi d’autoapprendimento della macchina intelligente, che si ritiene opportuno esplicitare. 

2.1.1. I diversi sistemi di self-learning

Non tutti i sistemi di autoapprendimento utilizzati nei robot di ultima generazione sono uguali fra loro: questi differiscano non solo per il modello di algoritmo utilizzato, ma anche per le modalità con cui la macchina impara. Si suole distinguere, infatti, in sistemi di apprendimento automatico supervisionato, non supervisionato o per rinforzo [23].

Le macchine dotate del sistema di primo tipo agiscono facendo ricorso ad informazioni specifiche, codificate e preinstallate nel loro software: queste operano come esempi, esperienze da cui la macchina può ricavare indicazioni su cui fondare la propria decisione, che resta in gran parte prevedibile [24].

Le macchine dotate del sistema di secondo tipo agiscono, invece, accedendo ad informazioni che non sono codificate. Queste possono essere comprese e organizzate dall’automa attraverso un meccanismo di selezione e analisi dei dati: in questa fase, l’intelligenza artificiale utilizza i dati per creare degli esempi di problema a cui fornire soluzioni. Tramite ciò, acquista esperienza, da cui trae indicazioni per prendere la miglior decisione possibile, a seconda della situazione che le si presenta in concreto [25].

Le macchine dotate del sistema di terzo tipo, infine, operano in analogia a quelle di secondo tipo beneficiando, però, di un numero maggiore di informazioni.  Ciò è reso possibile dall’uso di una serie di attrezzature incorporate negli automi, quali sensori, telecamere, GPS, che permette loro di percepire le caratteristiche dell’ambiente esterno e di adeguare il comportamento al contesto in cui operano, beneficiando di un miglior capacità d’apprendimento [26].

Quanto ai diversi sistemi di autoapprendimento, invece, questi vengono convenzionalmente distinti in sistemi simbolici, reti neurali, algoritmi genetici e agenti autonomi. Rinviando ad autorevoli studiosi [27] per l’analisi delle differenze, in questa sede si ritiene opportuno soffermarsi sulle reti neurali.

Queste, infatti, rappresentano i “più noti ed utilizzati sistemi di machine learning[28] e, ancor più rilevante, sono alla base delle macchine autonome (e, come si sta per dire, del relativo problema del vuoto di responsabilità).

Banalizzando, tali sistemi operano per il tramite di neuroni artificiali in connessione fra loro, emulativi dei principi basilari delle operazioni neurali degli esseri viventi: i neuroni ricevono in ingresso stimoli (input) e li elaborano, con un procedimento di complessità variabile, per generare risultati (output). Gli output vengono moltiplicati per un coefficiente, c.d. peso (Il peso indica l’efficacia sinaptica della linea di ingresso e serve a quantificare l’importanza dell’input), e se la somma delle moltiplicazioni supera una certa soglia, il neurone si attiva e mette in moto la schiera di neuroni ad esso connessi.

Solitamente la rete si compone di tre strati, il primo è predisposto per la trattazione degli input in modo da permettere l’azionamento dei neuroni, il secondo (c.d. strato nascosto) è predisposto per la fase di elaborazione, mentre l’ultimo si occupa degli output, adeguandoli alle richieste del blocco successivo della rete neurale (spesso si tratta di reti inglobanti migliaia di neuroni e decine di migliaia di connessioni). Ed è proprio la presenza del secondo strato, in cui l’elaborazione dei dati raggiunge dei livelli di complessità tali da non poter essere registrati in alcun modo, che pone problemi dal punto di vista giuridico. Si ritiene, infatti, che stante l’incapacità tecnica di analizzare la fase di elaborazione dei dati, che resta oscura persino al programmatore-ideatore dell’algoritmo, il comportamento esteriore della macchina sia, di fatto, imprevedibile [29].

3. Responsibility gap

Proprio la difficoltà tecnica nel ricostruire la sequenza dei processi decisionali e di autoapprendimento eseguiti dalle macchine autonome, in virtù della particolare struttura degli algoritmi che compongo il sistema di intelligenza artificiale (reti neurali e algoritmi genetici), si pone a fondamento delle preoccupazioni espresse in dottrina circa la possibile emersione del c.d. responsibility gap che, in breve, può essere riassunto in questi termini: la capacità d’apprendimento rende l’azione del robot potenzialmente imprevedibile, con la conseguenza che, nell’ipotesi di danno, vista la difficoltà nell’ottenere informazioni sul processo decisionale sotteso alla condotta (cioè quale è stato, in concreto, l’iter decisionale che ha portato all’azione dannosa), l’attuale assetto normativo porterebbe ad imputare la responsabilità in modo moralmente ed economicamente ingiusto, rischiando di lasciare in capo alla vittima il costo dell’innovazione tecnologica [30].

Alla luce di ciò, ci si chiede, innanzitutto, se le disposizioni attualmente vigenti in materia di responsabilità siano idonee a risarcire il danno derivante dall’azione della macchina autonoma self-learning, anche quando questa sia imprevedibile, poiché difetterebbe, sul piano probatorio, perlomeno la possibilità di provare il nesso di causalità.

La questione, però, non si esaurisce nella risposta al primo quesito: individuate le norme idealmente applicabili all’ipotetico evento dannoso, ci si potrebbe domandare (come si è fatto) se la soluzione offerta dall’attuale sistema sia idonea ad imputare in modo giusto la responsabilità, nonché ad allocare in modo efficiente il costo del danno [31].

Dal punto di vista della morale sottesa al diritto, per alcuni, infatti, la circostanza che l’evento dannoso sia il frutto di un’azione autonoma ed imprevedibile della macchina impedirebbe di imputare la responsabilità, a vario titolo, in capo all’essere umano (che sia produttore, programmatore, utilizzatore della macchina), dovendosi valutare l’opportunità di inserire ipotesi di imputazione della responsabilità direttamente in capo al robot intelligente [32].

Per altro verso, invece, dal punto di vista economico, gli studiosi maggiormente interessati al rapporto fra tecnologia e diritto nell’odierna società del rischio (domani, società dell’algoritmo) hanno evidenziato come la responsabilità si traduca in un costo, e di conseguenza, la sua allocazione determini un incentivo ovvero un disincentivo rispetto alla scelta del soggetto di diritto di compiere determinate azioni. Come si vedrà, tale analisi assume rilievo dirimente nell’agenda europea sulla programmazione dello sviluppo dell’automazione complessa. La presenza di soluzioni giuridiche poco chiare, o comunque non efficienti nell’allocare il costo connesso allo sviluppo dell’imprenditoria robotica, determinerebbe, secondo tale approccio [33], un serio freno allo sviluppo del settore dell’automazione complessa.

Si comprenderà, dunque, come la questione del responsibility gap si palesi agli operatori del diritto con diverse sfaccettature, mutando la propria consistenza a seconda del punto di vista privilegiato.

3.1. Un problema complesso e metagiuridico.

La questione in esame si presenta complessa perché permeata, da una parte, da valutazioni morali ed etiche, dall’altra da esigenza di tipo economico-sociali: lungi, dunque, dall’essere la questione de qua soltanto una mera provocazione intellettuale.  

Difatti, la robotica e l’intelligenza artificiale rappresentano due fra le innovazioni tecnologiche più importanti del nostro secolo, considerate dai più [34] come esempi di disruptive technologies, poiché potenzialmente in grado di modificare, in modo radicale ed in tempi ridotti, gli attuali assetti politici, economici e sociali, soprattutto per quanto riguarda la rimodulazione del mercato del lavoro e la distribuzione del reddito [35].

Non di meno, però, lo sviluppo di tali tecnologie rappresenta un’enorme opportunità economica: stando alle risultanze del Global Trends 2030 [36], nel periodo compreso tra 2012 ed il 2030, la robotica sarà uno dei settori tecnologici con la crescita economica maggiore, destinato a raggiungere un valore compreso fra i 1,7 e 4,5 trilioni di dollari.

3.2. Una sfida europea

Proprio in virtù di tali caratteristiche, da tempo l’Unione Europea ha cercato di porre in essere una strategia comune per rispondere in modo efficiente alle sfide che l’avvento di tali tecnologie pone, con l’intenzione di evitare di essere colta impreparata nell’affrontare i cambiamenti socio-economici derivanti dall’automazione, considerato anche il grande impegno palesato dalle altre potenze mondiali: Stati Uniti, Cina, Corea del Sud, Giappone, infatti, continuano ad investire un gran numero di risorse nella ricerca tecnologica e nella costruzione di un sistema normativo adeguato ad ospitare le potenzialità delle nuove forme di automazione [37].

Da un decennio, ormai, l’Unione si è mostrata consapevole delle sfide poste dal nuovo fenomeno tecnologico che, ad avviso di molti, si pone alla base di una vera e propria rivoluzione, dando vita alla società dell’algoritmo [38].

La diffusione di automi sempre più intelligenti e capaci di operare in ambienti comuni in modo autonomo e con capacità di autoapprendimento [39] solleva, dunque, una riflessione politica ad ampio raggio che, inevitabilmente ha coinvolto anche la sfera del diritto in generale, e del diritto privato in particolare, soprattutto con riferimento alle regole in materia di responsabilità extracontrattuale.

Dal punto di vista normativo, l’Unione [40] ha, infatti, avviato diversi progetti ed iniziative di studio sul tema della robotica e dell’intelligenza artificiale: si tratta, invero, di operazioni prevalentemente di soft law, spesso valutative dei rischi e delle opportunità derivanti dall’avvento delle nuove tecnologie e della conseguente necessità/opportunità di predisporre una nuova regolamentazione comune a tutti gli Stati membri. Anche perché, non sono mancate riflessioni [41] e richieste da parte degli stakeholder/investitori del settore, interessati ad un intervento normativo innovativo, che definisca in modo chiaro l’insieme di regole e limiti applicabili all’industria robotica e che dia risposte ai quesiti e ai problemi sollevati dai medesimi, soprattutto in relazione all’attribuzione della responsabilità per i comportamenti dannosi dei robot dotati di autonomia e di autoapprendimento e, più in generale, alla scelta europea su come gestire il rischio incerto di danno connesso al loro funzionamento [42].

Di conseguenza, l’analisi giuridica del fenomeno in esame si è inserita in una più ampia strategia europea, volta a cogliere e stimolare i benefici socio/economici portati dallo stesso nonché, al contempo, ad individuare i possibili rischi di pregiudizio connessi alla sua diffusione ed i relativi strumenti di tutela, sia sotto il profilo etico che giuridico. Consapevoli della complessità della materia, le istituzioni europee hanno preferito un’analisi graduale del nuovo fenomeno tecnologico, che è stata realizzata finanziando una serie di progetti di ricerca scientifica (a cui si farà riferimento nelle pagine a seguire), e che hanno permesso di isolare una serie di questioni.

Di conseguenza, si comprenderà perché, sin dalle premesse, si è preferito esplicitare come l’analisi del tema del c.d. responsibility gap sia stata fortemente influenzata da valutazioni di correttezza etica e di opportunità economica.

In particolare, con riferimento alla valutazione sull’adeguatezza dello storico istituto della responsabilità civile, in primis, ci si è chiesti se fosse giusto (eticamente corretto) imputare ad un essere umano [43] la responsabilità per condotte dannose imprevedibili di una macchina autonoma; in secondo luogo, ci si è chiesti se le regole sull’imputazione della responsabilità permettessero, ex ante, una chiara determinazione del costo (prospettico) derivante dall’immissione nel commercio di prodotti tecnologici e se, tale allocazione fosse efficiente ovvero inidonea ad evitare il raffreddamento degli investimenti nel nuovo settore della robotica (c.d. chilling effect of tort law) [44].

3.3. I risultati delle prime ricerche europee

Come detto, l’Unione europea, per il tramite della Commissione, ha avviato una serie di progetti di studio volti essenzialmente a comprendere le implicazioni etiche e giuridiche sottese alla regolamentazione del settore della robotica: il percorso di studio intrapreso è stato caratterizzato da un approccio bottom-up (o anche metodo induttivo), affidato a esperti dei più diversi campi del sapere e articolato in interventi di diverso genere [45].

Non ritenendo opportuno soffermarsi oltremodo sull’analisi di tali studi [46], si ritiene, però, necessario segnalare come le varie risultanze abbiano congiuntamente espresso l’idea che lo sviluppo del mercato delle nuove tecnologiche robotiche passi in gran parte per la chiarezza del sistema normativo di riferimento.

Per quanto qui rileva, poi, è stato osservato che le regole sulla responsabilità civile rappresentano uno strumento ambivalente in grado, al contempo, di garantire la sicurezza e di disincentivare l’innovazione tecnologica. In particolare, l’attenzione si è focalizzata sulla disciplina della responsabilità da prodotto, adottata dal legislatore europeo con la finalità espressa di contemperare equamente gli interessi dei consumatori, dei produttori e della concorrenza [47].

Assunte tali informazioni, l’Unione europea ha iniziato un percorso di rivalutazione e (probabile) revisione delle disposizioni interne, con particolare riferimento alla Direttiva 85/374 ECC, nonché alla Direttiva 2006/42/CE relativa alla sicurezza delle macchine, che ad oggi, parrebbe inquadrabile come norma settoriale di riferimento nell’ambito della produzione e messa in commercio di prodotti automatizzati [48].

4. Il Responsibility gap nella riflessione delle istituzioni europee

Ricapitolando, si è cercato di esplicitare come Il fenomeno dell’automazione self-learning parrebbe destinato a determinare modifiche economico-sociali tali da sollecitare l’intervento del potere politico, chiamato a prendere decisioni di stampo etico-giuridico, al fine di bilanciare l’esigenza di sviluppo di applicazioni robotiche dotate di intelligenza artificiale (anche perché idonei ad apportare utilità sociale), con la necessità di preservare la dignità, l’autonomia e l’autodeterminazione degli individui, nel pieno rispetto dei principi fondativi dell’ordinamento d’appartenenza.

4.1. L’intervento del Parlamento europeo

Proprio nei termini predetti, nel febbraio 2017 il Parlamento europeo ha ricostruito la questione, offrendo un’analisi complessiva degli aspetti caratterizzanti il fenomeno in esame [49], e riservando gran parte della disamina relativa alle implicazioni giuridiche alla capacità di tenuta della responsabilità civile: nello specifico, si segnala come, in un’ottica di bilanciamento tra esigenze di sicurezza, responsabilità e innovazione [50], il Parlamento abbia sottolineato il grado di interferenza fra una corretta e chiara imputazione della responsabilità giuridica per fatto del robot autonomo e lo sviluppo del relativo settore economico [51].

Ad avviso dell’Assemblea europea, invero, data la crescente capacità del robot di operare nel mondo esterno indipendentemente dal controllo o dall’influenza dell’essere umano (c.d. autonomia) [52], nonché della inversa proporzionalità tra autonomia del robot e qualificazione dello stesso come strumento (res) [53] nelle mani dell’essere umano (operatore), l’attuale sistema della responsabilità civile non sarebbe in grado (o comunque lo sarebbe ma a costo troppo alto) di “determinare [con anticipo e in modo certo] qual è il soggetto cui incombe la responsabilità del risarcimento, né di esigere da tale soggetto la riparazione dei danni causati” dall’azione dell’automa intelligente [54], perché l’imprevedibilità della condotta renderebbe impossibile la ricostruzione del nesso di causalità e, di conseguenza, l’individuazione del soggetto a cui imputare le conseguenze dannose dell’automazione [54].

Alla luce di questi assunti, quindi, nel febbraio del 2017 il Parlamento europeo ha sostenuto la necessità di un intervento riformatore, promuovendo l’elaborazione di nuove categorie e nuove regole nell’ambito della responsabilità civile, individuando una serie di possibili modalità d’intervento e ravvisando l’“eventuale necessità di creare una nuova categoria, con caratteristiche specifiche e implicazioni proprie[55], nell’intento di realizzare un giudizio di rimproverabilità eticamente giusto e, soprattutto, economicamente efficiente.

Alla luce di tali considerazioni, l’Assemblea europea ha auspicato l’introduzione di norme nuove ed efficaci, che siano corrispondenti alle innovazioni e agli sviluppi tecnologici in itinere, invitando la Commissione europea a proporre “definizioni europee comuni di sistemi ciberfisici, di sistemi autonomi, di robot autonomi intelligenti e delle loro sottocategorie, prendendo in considerazione le seguenti caratteristiche di un robot intelligente: l’autonomia […] l’autoapprendimento dell’esperienza, almeno un supporto fisico minore, l’adattamento del proprio comportamento e delle proprie azioni all’ambiente, l’assenza di vita in termini biologici” [56].

Con specifico riferimento alla questione del responsibility gap, poi, con l’atto in esame si è suggerito di adottare “uno strumento legislativo che non limiti il tipo o l’entità dei danni che possono essere risarciti né limiti le forme di risarcimento che possono essere offerte alla parte lesa[57], indicando alternativamente l’approccio della responsabilità oggettiva e della gestione dei rischi quali metodi di valutazione per risolvere la questione [58].

Ma vi è di più: in quella sede il Parlamento europeo non si è limitato soltanto a prendere atto dell’esistenza del vuoto di responsabilità invitando, all’uopo, la Commissione europea a prendere l’iniziativa, ma ha fornito anche una rosa di possibili soluzioni giuridiche [59], tra cui l’istituzione di un regime assicurativo obbligatorio almeno per categorie specifiche di automi (col fine di tutelare i soggetti colpiti dalle azioni potenzialmente dannose di questi); la costituzione di un fondo di garanzia per il risarcimento delle vittime, anche per le azioni di robot assicurati (in ipotesi simile all’odierno Fondo di garanzia vittime della strada); la predisposizione di un registro specifico dell’Unione, che permetta di identificare i robot esistenti secondo un numero di immatricolazione, finanche, nel lungo periodo, la possibilità di attribuire la personalità elettronica ai robot più avanzati.

4.1.1. La diversa natura delle questioni giuridiche trattate dalla Risoluzione del 16 febbraio 2017: una contraddizione di fondo

Con la Risoluzione del febbraio 2017, il Parlamento europeo ha, difatti, ufficializzato l’esistenza del responsibility gap, esplicitando, però, la necessità di intervenire in una vasta area del diritto, ove le regole sulla responsabilità civile ricoprono un ruolo parziale e complementare.

Si osserva, infatti, come nel calderone delle riflessioni proposte, assieme a quelle concernenti la responsabilità civile (Considerando Z – AI – Punti 49 – 59), ne siano state esplicitate altre, aventi ad oggetto il problema etico (Punti 10-14); il problema della regolamentazione amministrativa e di istituzione dell’Agenzia Europea per la robotica e l’intelligenza artificiale (Punti 15-17); i problemi di diritto industriale e di diritto della privacy (Punti 18 e 21); i problemi sulla legislazione pubblicistica della produzione in generale (la normazione, sicurezza, protezione) (22-23), nonché di quella relativa ai singoli settori di applicazione dei nuovi robot (24-40).

Ad abundatiam, poi, si osserva come tali ampie considerazioni siano state formulate col fine ultimo di stimolare la predisposizione di una normativa efficiente, coerente e trasparente, idonea a regolare in modo prevedibile e sufficientemente chiaro, non solo la responsabilità degli operatori economici che agiscono nel settore di riferimento, ma anche (e forse soprattutto) la produzione e la messa in commercio dei prodotti robotici intelligenti (Considerando S).

A riprova di ciò, infatti, il Parlamento europeo ha sostenuto l’esigenza di predisporre una normativa che renda partecipi, fin dal principio, i vari soggetti coinvolti nello sviluppo e nella commercializzazione delle applicazioni robotiche intelligenti anche sugli aspetti che integrano la sicurezza e l’etica  (Considerando M), che sia idonea a preservare la dignità, l’autonomia, l’autodeterminazione (Considerando O) e la privacy degli individui (Considerando N) e che assicuri la non discriminazione, il giusto processo, la trasparenza e la comprensibilità dei processi decisionali delle macchine (Considerando H).

Si comprenderà, dunque, come l’ambito d’applicazione dell’atto di indirizzo sia stato ben più ampio rispetto a quanto la rubrica “norme di diritto civile sulla robotica” potrebbe lasciar credere: ad avviso di chi scrive, quindi, prendendo la risoluzione le mosse dai progetti di ricerca intrapresi nell’ultimo decennio dall’Unione europea, sarebbe stato più opportuno parlare di riforma complessiva ed organica dei vari settori dell’ordinamento, tra cui figura anche (ma non soltanto) quello del diritto civile in generale e della responsabilità civile in particolare.

Giustamente, quindi, i primi commentatori della Risoluzione de qua hanno individuato almeno due diverse tipologie di questioni giuridiche emergenti dalla diffusione della robotica e dell’intelligenza artificiale, che si presentano all’attenzione del potere politico e degli operatori giuridici, e che sono distinguibili in “issues of permittance or prohibition; e le “questions of liability and responsibility[60].

Nelle prime si ricomprendono tutte le questioni afferenti all’opportunità politica di creare un sistema di regole chiare, che disciplini la produzione, la messa in commercio e l’utilizzo di prodotti tecnologici complessi, e che risponda all’esigenza di garantire e bilanciare le necessità di sviluppo economico del settore della robotica e dell’intelligenza artificiale (in modo eticamente sostenibile), di benessere sociale, di sicurezza del cittadino europeo. Si tratta, quindi, di aspetti tipicamente regolati dalla disciplina pubblicistica, molte volte caratterizzata dall’alto contenuto specialistico, che dovrebbe introdurre non solo nuovi standard tecnici, nuovi divieti, nuove procedure di monitoraggio, nuove procedure di revisione dell’adeguatezza degli artefatti robotici, nuove procedure di certificazione della conformità, ma che fissi anche obblighi atti a garantire la trasparenza del processo decisorio della macchina intelligente avanzata o, in assenza di tale possibilità, preveda procedure di test e prove tanto lunghe da scongiurare ragionevolmente la produzione di pericoli.

Nella seconda categoria, invece, si ricomprendono tematiche di taglio eminentemente civilistico, cui appartengono le riflessioni sulla giustizia e l’efficienza dell’imputazione della responsabilità da illecito.

Con la Risoluzione del 16 febbraio 2017, quindi, il Parlamento europeo ha fornito non solo raccomandazioni concernenti norme di diritto civile sulla robotica ma un vero e proprio manifesto della strategia normativa europea da adottare per sfruttare al meglio le potenzialità di questi nuovi derivati tecnologici.

La scelta di attribuire rilievo formale alle sole norme civili, però, ad avviso di chi scrive, apre ad un enorme equivoco di fondo: si rischia di considerare la capacità di tenuta delle regole di responsabilità attribuendo loro compiti che, invece, sarebbero propri di altre branche del diritto o che, comunque, non sarebbero condivisi dagli ordinamenti civilistici continentali [61].

4.1.2. Una chiave di lettura: il paradigma della responsabilità da prodotto difettoso

Ad avviso di chi scrive, tuttavia, tale contraddizione potrebbe essere composta guardando, in modo paradigmatico, alla disciplina della responsabilità da prodotto difettoso, rappresentante un vero e proprio sottosistema della responsabilità civile, adottato nella metà degli anni ’80 dall’allora Comunità economica europea con la finalità di garantire un equo contemperamento degli interessi dei consumatori, dei produttori e della concorrenza [62].

Diversamente dalle disposizioni in materia di responsabilità civile extracontrattuale presenti nei sistemi civilistici degli Stati membri [63], infatti, tale disciplina è nata e si è evoluta in virtù di considerazioni d’opportunità economica: la presenza di diversi regimi di responsabilità ostacolava, infatti, la costruzione di un mercato unico europeo e diveniva elemento imprescindibile di esecuzione della strategia economica europea [64].

Come detto, sin dal tempo di adozione, la responsabilità da prodotto difettoso è stata orientata alla composizione fra l’esigenza di sviluppo economico e tecnologico e la tutela degli operatori, siano essi imprenditori, utenti, consumatori o semplici terzi che entrano in contatto con il prodotto.

È, pertanto, connaturata nella disciplina della responsabilità da prodotto difettoso la finalità di comporre istanze economiche confliggenti, riducendo la distinzione (più o meno netta all’interno degli ordinamenti domestici) fra disposizioni di diritto civile e disposizioni di diritto pubblico: a tal proposito, si ricorda, il giudizio di difettosità si calibra sul criterio della legittima aspettativa di sicurezza [65], i cui riferimenti principali (ma non esclusivi) sono offerti dalla c.d. disciplina pubblicistica della produzione [66].

Pertanto, parrebbe realistico ritenere che il problema di un eventuale responsibility gap, soprattutto sotto il profilo economico, riferisca prevalentemente alla disciplina della responsabilità da prodotto difettoso che, per sua stessa natura e finalità, rappresenta un ingranaggio del sistema europeo a tutela del consumo e della concorrenza, fortemente connesso alla presenza ed al funzionamento di adeguate norme di matrice pubblicistica.

In particolare, poi, si segnala come diverse problematiche connesse alle caratteristiche tecniche delle macchine autonome self-learning siano, in realtà, già da tempo discusse nella dottrina (e nella giurisprudenza della Corte di giustizia) che, a più riprese hanno indagato il tema dei nuovi rischi connessi all’impresa tecnologica, sollevando varie istanze di revisione della disciplina in esame perché apparsa, nel tempo, inadeguata a realizzare l’equo contemperamento degli interessi sottesi all’industria tecnologica, soprattutto con riferimento alle ipotesi di prodotti dannosi ma conformi alla normativa in materia di sicurezza [67].

4.2. L’intervento della Commissione europea

A poco più di tre mesi dalla Risoluzione del febbraio 2017, la Commissione europea recepiva le indicazioni del Parlamento [68], prendendo tempo rispetto all’adozione di nuove regole di diritto civile sostanziale che, se necessarie, sarebbero state adottate soltanto dopo aver concluso le iniziative (di ricerca) già intraprese dalla Commissione, tra cui figurava l’attività di valutazione dello stato di salute della Direttiva 85/374 ECC in materia di responsabilità da prodotto difettoso (con cui la Commissione ha inteso verificare se tale Direttiva fosse ancora idonea a comporre le situazioni dannose connesse all’uso dei nuovi prodotti tecnologici (software, cloud computing, internet of things, advanced robots, automated and autonomous systes) e della Direttiva 2006/42/CE relativa alla sicurezza delle macchine che, come detto, è inquadrabile come norma settoriale di riferimento nell’ambito della produzione e messa in commercio di prodotti automatizzati.

4.2.1. Le valutazioni sulla Direttiva 85\374 ECC in materia di responsabilità da prodotto difettoso

Con riferimento alla capacità di tenuta della responsabilità da prodotto difettoso oggi vigente, con relazione del 7.5.2018 [69], la Commissione europea ha relazionato sull’idoneità della Direttiva a raggiungere efficacemente gli obiettivi per i quali era stata pensata, nonché sull’idoneità della sua disciplina ad offrire valore aggiunto alle imprese e ai danneggiati.

Nell’ambito dell’analisi, poi, la Commissione ha indagato la capacità del “sistema della responsabilità da prodotto difettoso” a rispondere alle sfide connesse alla messa in commercio di dispositivi sempre più autonomi, anche sotto il profilo della cyber sicurezza, con occhio sempre attento ai chilling effects che la normativa in esame potrebbe avere sullo sviluppo economico/tecnologico dei Paesi membri e sulla realizzazione di un’economia circolare [70].

In quella sede, ricostruite le finalità dell’atto normativo de quo nell’esigenza di un equo contemperamento fra la tutela del consumatore o terzo danneggiato e quella delle imprese interessate a investire e ricercare in prodotti innovativi, potenzialmente idonei a migliore la qualità della vita delle persone, la Commissione ha sommariamente analizzato lo stato di salute dell’antica Direttiva, concludendo che l’industria appare complessivamente soddisfatta dell’attuale sistema attributivo della responsabilità da prodotto difettoso mentre maggiore insoddisfazione si riscontra fra le associazioni dei consumatori, a causa delle difficoltà nel provare il difetto del prodotto e il nesso di causalità fra difetto e danno; nella scarsa possibilità di accedere alle informazioni tecniche concernenti il prodotto utilizzato; negli alti costi della giustizia; negli stretti limiti temporali per l’azione [71].

Complessivamente, quindi, col documento del 7.5.2018, nel ricordare che la Direttiva non può essere considerata singolarmente, essendo parte di un quadro giuridico europeo che si prefigge l’obiettivo di assicurare il funzionamento del mercato unico, di promuovere l’innovazione e la crescita mediante norme tecnologicamente neutre, nonché di tutelare il benessere e la sicurezza dei consumatori, la Commissione ha ritenuto la Direttiva 85/374 ECC ancora efficiente rispetto all’obiettivo dichiarato di offrire un quadro giuridico stabile per il mercato unico e per l’armonizzazione della protezione dei consumatori rispetto alla tipologia di prodotti tecnologici attualmente esistenti [72], rinviando l’analisi approfondita delle singole questioni emergenti fra il rapporto fra nuove tecnologie ed il sottosistema della responsabilità armonizzata.

In quella sede, infatti, la Commissione ha preferito nominare un gruppo di esperti, assegnando loro il compito di selezionare e analizzare nel dettaglio le eventuali inefficienze o zone d’ombra dell’unico ramo armonizzato della responsabilità civile a livello europeo [73], prevedendo che lo stesso operasse con due compagini e finalità distinte: la prima, formata da rappresentanti degli Stati membri, di diversi settori industriali, di associazioni di consumatori, della società civile e del mondo accademico, col compito di assistere la Commissione nell’interpretare, nell’applicare e possibilmente nell’aggiornare la Direttiva, anche alla luce degli sviluppi della giurisprudenza dell’Ue e di quella dei singoli Stati membri, nonché delle implicazioni delle tecnologie nuove ed emergenti e di qualsiasi altro sviluppo sul fronte della responsabilità per danno da prodotto difettoso.

La seconda, invece, composta esclusivamente da professionisti ed esperti accademici indipendenti, a cui è affidato il compito di valutare se il regime di responsabilità nel suo complesso risulti idoneo ad agevolare l’adozione di nuove tecnologie promuovendo la stabilità degli investimenti e la fiducia dei consumatori.

4.3. Il report dell’ “Expert group on liability and new technologies – New Technologies Formation

Il 27 novembre 2019, il Gruppo di esperti nominato dalla Commissione, nella formazione Nuove tecnologie (la seconda), ha pubblicato una prima risposta al quesito circa l’adeguatezza dell’attuale sistema della responsabilità rispetto alla facilitazione nello sviluppo di nuove tecnologie e alla garanzia della stabilità degli investimenti e della fiducia degli utilizzatori [74].

In quella sede, innanzitutto, gli studiosi hanno segnalato come le nuove tecnologie abbiano il potenziale per trasformare la nostra società e l’economia in meglio ma che, tuttavia, il loro sviluppo e la loro diffusione debbano proseguire di pari passo con misure cautelative idonee a ridurre il rischio di danneggiamento che le stesse potrebbero causare.

In particolare, hanno evidenziato come la disciplina sulla responsabilità oggettiva ed i rimedi assicurativi possano rappresentare gli strumenti privilegiati per la tutela prima facie della vittima di danno derivante dall’interazione con le nuove tecnologie, per lo meno quelle impiegate fra il pubblico e che presentino un conclamato rischio di utilizzo [75].

Ciò posto, sebbene il sistema della responsabilità in forza degli Stati membri parrebbe poter, con alcuni accorgimenti interpretativi, fungere da protezione minima di base per le eventuali vittime di danno connesso all’azione della macchina intelligente, gli esperti hanno esplicitato come, date le specifiche caratteristiche di queste tecnologie e delle loro modalità applicative (tra cui: la complessità, la capacità di adattamento, la scarsa prevedibilità delle loro azioni, i problemi di cyber-sicurezza) l’iter per la compensazione del danno ingiusto sofferto dalla vittima potrebbe essere più difficile rispetto ad una situazione equivalente determinata dall’azione umana, anche mediante utilizzo di tecnologie convenzionali (è il c.d. principio dell’equivalenza funzionale fra uomo e macchina, su cui si tornerà nel prosieguo).

In definitiva, gli studiosi hanno ritenuto che, rebus sic stantibus, nelle nuove relazioni uomo-macchina intelligente sussisterebbe il rischio di una inidonea allocazione della responsabilità, in quanto le regole attributive della stessa parrebbero insicure o (per lo meno) inefficienti. Pertanto, è stato suggerito di apportare degli aggiusti e delle modifiche all’attuale sistema di responsabilità, sia con riferimento alla disciplina armonizzata della responsabilità da prodotto difettoso, sia con riguardo alle regole nazionali in materia di illecito extracontrattuale [76].

4.3.1. Una premessa

Col parere in discussione, il Gruppo di esperti ha fissato 34 principi, rispondendo, in gran parte, a questioni emerse negli anni fra gli studiosi del rapporto fra tecnologia e responsabilità: del resto, già si è anticipato come tale gruppo si componga, in gran parte, di accademici provenienti dai diversi Stati, da tempo impegnati nell’analisi delle questioni indagate.  Ai fini della presente analisi, quindi,  il documento presentato dagli esperti parrebbe rappresentare, in prospettiva de iure condito, una sorta di mappa concettuale delle carenze, di volta in volta individuate, nella disciplina attuale della responsabilità da fatto illecito in relazione al rischio tecnologico nonché, in prospettiva de iure condendo, un’autorevole prognosi del contenuto di una possibile azione legislativa dell’Unione europea che, verosimilmente, non potrà che partire dal rinnovamento del sistema della responsabilità da prodotto difettoso.

In aggiunta, prima di passare ad una panoramica essenziale delle riflessioni contenute nel documento in esame, pare opportuno fornire una precisazione sulle considerazioni sottese alle indagini sull’esistenza del c.d. responsibility gap, soprattutto quando queste siano propedeutiche ad un’attività di riforma del sistema della responsabilità.

In linea generale (come anticipato e come si dirà meglio nel prosieguo), le norme attualmente esistenti in materia di responsabilità parrebbero, in realtà, idonee a disciplinare le nuove relazioni uomo – macchina. Ciò che, invece, sembrerebbe mancare nell’attuale sistema di responsabilità (extracontrattuale) è la capacità dello stesso di offrire soluzioni moralmente giuste e, soprattutto, economicamente efficienti nell’attribuzione della responsabilità.

Di ciò ha dato atto lo stesso gruppo di esperti, laddove ha ritenuto che le regole attualmente in vigore siano idonee ad offrire soluzione ai rischi creati dalle nuove tecnologie, ma che, tuttavia, i risultati conseguenti alla loro applicazione non sarebbero appropriati dal punto di vista dell’efficienza e della corretta allocazione delle perdite, nonché della coerenza della risposta e dell’effettivo accesso alla giustizia [77].

 In forza di tale assunto, gli esperti hanno, quindi, ritenuto debba procedersi ad una revisione dell’attuale sistema della responsabilità (extracontrattuale), rammentando, però, che la diversità delle tecnologie digitali emergenti e dei relativi rischi che conseguono al loro utilizzo, impedirebbe, comunque, di giungere ad una soluzione unitaria [78].

4.3.2. Le soluzioni fornite: l’inutilità della personalità elettronica

Tornando al merito delle indicazioni formulate dal gruppo di esperti, innanzitutto, preme segnalare come gli studiosi, in risposta a quanto indicato nella Risoluzione europarlamentare del febbraio 2017, abbiano escluso l’opportunità di dotare le macchine autonome di una qualche forma di personalità elettronica, perché (giustamente) ritenuta non necessaria ai fini della risoluzione del problema d’imputazione della responsabilità [79].

Del resto, si è già avuto modo di riferire che l’opportunità di dotare la macchina di una propria personalità origini, prevalentemente, da valutazioni di tipo etico (che, ad avviso di taluni, impedirebbero di imputare ad un essere umano (produttore, proprietario, utilizzatore, terzo) la condotta imprevedibile di una macchina autonoma [80].

Orbene, tale soluzione era già stata ampiamente criticata ed osteggiata in dottrina poiché, per varie ragioni [81], l’attribuzione di una soggettività in capo al robot, sebbene dotato di autonomia, capacità cognitiva e autoapprendimento, sarebbe stata ultronea rispetto alla finalità perseguita, inopportuna e quanto mai pericolosa, rischiando di generare una falla all’interno dell’ordinamento: Indipendentemente dalla forma, dall’apparenza, dalle capacità di autonomia e di autoapprendimento, anche la più sofisticata tra le macchine resta ontologicamente una res, un prodotto dell’ingegno umano e in quanto tale l’ordinamento giuridico, in chiave antropocentrica e filantropa, dovrebbe regolarla [82].

4.3.3. Le soluzioni fornite: principi generali

In secondo luogo, gli esperti hanno sostenuto la coesistenza di più forme d’imputazione della responsabilità [83], ritenendo più efficiente utilizzare forme di responsabilità oggettiva (strict liability), in combinato con strumenti assicurativi, soltanto laddove l’utilizzo delle tecnologie autonome avvenga in ambienti pubblici, ove è ragionevole ritenere che le stesse possano realizzare azioni dannose rilevanti: è il caso, ad esempio, di auto\mezzi di trasporto a guida autonoma [84].

Hanno esplicitato, poi, come la responsabilità oggettiva (in ottica di conformità a principi di giusta ed efficiente allocazione della responsabilità) vada imputata al soggetto che ha la gestione (rectius il controllo) del rischio derivante dall’immissione in commercio della tecnologia e che beneficia dell’operazione (produttore della macchina, gestore del sistema di IA, operatore, utilizzatore, utente) [85].

Allo stesso tempo, con riferimento all’imputazione della responsabilità per colpa, è stato chiarito come la stessa possa correttamente operare, in sinergia con la responsabilità oggettiva, a condizione che vengano fissati dei criteri normativi di riferimento per valutare la diligenza dei singoli esseri umani coinvolti nella gestione delle macchine autonome (produttore della macchina, gestore del sistema di IA, operatore, utilizzatore, utente) [86].

Infine, con riferimento alla responsabilità vicaria, gli studiosi non solo hanno ritenuto la stessa applicabile all’azione della macchina autonoma ogniqualvolta questa venga utilizzata in alternativa al lavoro dell’essere umano (used in a way functionally equivalent to the employment of human auxiliaries), ma hanno anche specificato i parametri su cui dovrebbe essere calibrata tale tipologia di responsabilità: almeno fino a quando l’attività della macchina presenti un grado di affidabilità simile a quello di un essere umano, il riferimento andrà individuato nei parametri di responsabilità previsti per gli ausiliari umani; diversamente, quando le capacità della macchina sovrasteranno quelle dell’equivalente umano, le responsabilità dell’operatore umano andranno indagate guardando alle altre tecnologie equipollenti, nonché avendo considerazione della diligenza adottata dallo stesso nel caso concreto [87].

4.3.4. Le soluzioni fornite: le modifiche alla responsabilità da prodotto difettoso.

Entrando più nel dettaglio, con riferimento al microsistema della responsabilità da prodotto difettoso, il team di esperti ha riconosciuto come la responsabilità oggettiva insita nello stesso possa certamente giocare un ruolo principale fra le possibili soluzioni per la vittima del danno.

Tuttavia, in continuità con quanto anticipato nelle precedenti pagine, anche gli studiosi hanno individuato all’interno della disciplina oggi vigente una serie di zone d’ombra, non giustificabili rispetto al principio dell’equivalenza funzionale, da intendersi come la necessità che alla vittima del danno conseguente all’interazione con la macchina vengano garantite le stesse tutele del caso in cui il medesimo danno fosse derivato dalla condotta di un essere umano o dall’uso di tecnologie convenzionali.

Più nel dettaglio, fra i vari aspetti da considerare in un’ottica di riforma, gli esperti hanno sostenuto la revisione della definizione di prodotto e di danno, ed hanno sostenuto l’opportunità di riconsiderare la fase di emersione del danno, cui si collega la necessità di modificare, almeno in determinati casi, la clausola di esclusione della responsabilità per rischio da sviluppo ex l. e dell’art. 118 [88], nonché di alleggerire l’onere della prova che resterebbe, comunque, in capo alla vittima del danno.

Con riferimento al primo aspetto, infatti, consapevoli della sempre più intensa promiscuità fra beni materiali e beni immateriali all’interno di una macchina intelligente, gli esperti hanno proposto di adottare una definizione più ampia, che sia idonea anche ad inglobare nel novero dei prodotti i beni digitali anche se immateriali [89].

Quanto all’opportunità di limitare l’operatività dell’esclusione di responsabilità del produttore, è stata, invece, sottolineata la tendenza europea ad estendere la responsabilità del professionista, che si trovi ad operare nel settore delle nuove tecnologie, anche alle fasi successive alla vendita (gli esperti riferiscono alle Direttive (EU) 2019/770 e 2019/771) ovvero, nel caso che qui interessa, al tempo di produzione, almeno quando le caratteristiche stesse del prodotto lo facciano sembrare opportuno e ragionevole.

Nello specifico, con riferimento all’automazione intelligente, si è ritenuto che l’imprevedibilità della macchina debba portare ad un’estensione della responsabilità del produttore tutte le volte in cui il difetto del prodotto digitale si palesi successivamente alla sua immissione in commercio, sempre che fosse ragionevole prevedere uno sviluppo imprevisto a seguito dell’interazione con l’ambiente [90].

Sotto il profilo probatorio (argomento su cui si tornerà nel prosieguo), invece, gli esperti hanno sottolineato l’opportunità di introdurre delle forme di alleggerimento dell’onere posto in capo alla vittima del danno, che siano proporzionate alla difficoltà materiale della vittima di ottenere le informazioni necessarie da produrre in giudizio, nonché della reale esistenza di un’asimmetria informativa fra danneggiato e produttore della macchina [91].

4.3.5. Le soluzioni fornite: la responsabilità per colpa del produttore e dell’operatore

Nel prevedere integrazioni e modifiche all’attuale microsistema della responsabilità da prodotto difettoso, gli studiosi incaricati dalla Commissione hanno segnalato, poi, l’opportunità di aggiungere anche un’ipotesi di responsabilità per colpa del produttore [92].

In particolare, in virtù delle caratteristiche di oscurità e imprevedibilità insite nelle nuove forme di automazione, il produttore dovrebbe ritenersi obbligato al rispetto di specifici obblighi di diligenza (duties of care), da rispettarsi non solo nella fase di ideazione e produzione della macchina, ma anche in quella successiva all’immissione del prodotto in commercio. Hanno sostenuto, infatti, che l’imprenditore debba monitorare il funzionamento della stessa, in un’ottica che, ad avviso di chi scrive, parrebbe recepire le istanze dottrinali, italiane e non, di applicazione del principio di precauzione anche nelle regole di responsabilità civile [93]. Si riferisce alla propensione dottrinale a considerare, nella responsabilità da prodotto difettoso, il principio di precauzione non solo come “presupposto legittimante l’azione di autorizzazione regolamentare preventiva, ma anche come criterio ermeneutico sistematico nella prospettiva della responsabilità civile”, con particolare attenzione alle conseguenze che tale criterio comporta sotto il profilo della prova della causalità [94].

In realtà, gli studiosi porrebbero tali obblighi di diligenza in capo non solo all’imprenditore, ma anche all’operatore della macchina, inteso generalmente come colui che la utilizza assumendosene rischi e benefici, tra cui gli esperti fanno, però, rientrare anche il produttore, specificandone alcuni obblighi ulteriori quale, appunto, quello di monitoraggio della macchina successivo alla sua immissione nel mercato [95].

Alla luce di tali considerazioni, non solo il produttore, ma anche il singolo operatore che si serva della macchina dovrà agire in modo diligente, avendo cura di scegliere i compiti e le modalità più giusti per far operare la macchina, nonché di monitorare e di manutenere la stessa. Sul fronte dell’allocazione della responsabilità colposa, parrebbe, dunque, che gli studiosi abbiano proposto di utilizzare, per l’allocazione della medesima, l’antico principio del cuis commoda eius et incommoda, almeno nelle ipotesi in cui non ci sia possibilità oggettiva di controllo.

Allo stesso tempo, però, gli esperti hanno posto (correttamente) l’attenzione sulla difficoltà insita nello stabilire i predetti standard di diligenza, riconoscendo come gli stessi potrebbero essere alternativamente determinati, ex ante, dalla legge (o da altre autorità normativamente competenti), ovvero ex post dal giudice [96]. Tale difficoltà è stata utilizzata per “giustificare” l’esigenza di un alleggerimento dell’onere probatorio, anche con riferimento agli elementi della colpevolezza dell’illecito civile [97].

Ad avviso di chi scrive, però, la predeterminazione legislativa dei criteri di diligenza sarebbe comunque un’opzione da preferirsi, non tanto perché agevolatrice dell’onere probatorio posto in capo alla vittima del danno, ma soprattutto perché permetterebbe agli operatori (sia utenti che produttori delle macchine intelligenti) di conoscere con anticipo le regole e le responsabilità connesse all’uso o alla produzione di una macchina autonoma self-learning. In questi termini, la predeterminazione di parametri di riferimento della condotta si porrebbe come uno strumento effettivo di deterrenza dall’illecito nonché di prevenzione del danno [98].

4.3.6. Le soluzioni fornite: il problema della sicurezza e dei requisiti tecnici

Sebbene il campo d’indagine fosse limitato alle disposizioni in materia di responsabilità civile extracontrattuale, il gruppo di studiosi ha sapientemente introdotto nella disamina anche il problema della sicurezza e delle caratteristiche tecniche delle macchine intelligenti.

Del resto, come si è avuto modo di precisare, il tema delle interferenze e del rapporto fra disciplina della responsabilità (soprattutto da prodotto difettoso) e norme pubblicistiche della produzione ha assunto sempre più rilievo nella riflessione dottrinale, con particolare riferimento al tema della dannosità del prodotto conforme [99].

In particolare, ad avviso di chi scrive, col parere in esame, gli studiosi parrebbero concentrarsi su due questioni di fondo: in primis, sull’esigenza che il potere amministrativo determini nuove regole in materia di sicurezza, precipuamente volte a disciplinare la costruzione ed il monitoraggio dei prodotti dotati di intelligenza artificiale; in secondo luogo, sulla necessità di prevedere conseguenze giuridiche chiare in materia di responsabilità, connesse alla conformità o non conformità del prodotto immesso nel mercato rispetto alle regole in materia di sicurezza.

Anzitutto, quanto alla prima questione, gli studiosi hanno riconosciuto la necessità di introdurre nuove regole sulla sicurezza in generale, e sulla cyber-security in particolare [100], da adottarsi (evidentemente) secondo il c.d. nuovo approccio europeo (New regulatory approach) [101], evitando di lasciare che le norme tecniche sulla produzione vengano determinate dai soli operatori dei vari settori [102].

Inevitabilmente, però, maggiore interesse suscita la soluzione prospettata rispetto alla seconda questione: gli studiosi, infatti, dopo aver chiarito che la conformità del prodotto alle norme di riferimento in materia di sicurezza possa, in astratto, determinare sia una presunzione di non difettosità nel caso di conformità, ovvero una presunzione di difettosità nel caso di non conformità, hanno preferito configurare soltanto quest’ultima soluzione, in un’ottica di favor per la vittima del danno.

Talché, se il produttore non dovesse rispettare le norme sulla sicurezza del prodotto dotato di intelligenza artificiale e capacità d’apprendimento, la vittima del danno dovrebbe godere di un’inversione dell’onere della prova rispetto agli elementi essenziali della responsabilità, compresa la colpevolezza ed il nesso di causalità [103].

In presenza di danno derivante da un prodotto conforme alle regole in materia di sicurezza, invece, il danneggiato dovrebbe sopportare l’onere della prova classico, senza alcuna agevolazione sul piano probatorio.

Ad avviso di chi scrive, con tale scelta parrebbe che gli esperti nominati dalla Commissione abbiano voluto spostare l’asse della bilancia verso il danneggiato, traslando sul produttore in primis (ma anche sull’operatore in generale) il rischio di produrre (o di servirsi) di uno strumento che, indipendentemente dal rispetto delle relative regole costruttive, parrebbe conservare, per sua stessa natura, un certo grado di imprevedibilità e rischiosità [103].

Parimenti grande importanza assumono le riflessioni formulate dal gruppo con riferimento alla fase successiva all’immissione in commercio del prodotto: si osserva, infatti, come gli esperti, anche con riferimento alla sicurezza del prodotto tecnologico, abbiano posto l’accento sull’esigenza di regolamentare anche le fasi successive alla sua immissione in commercio: è stato esplicitato, poi, come un’interpretazione più favorevole per il produttore potrebbe determinare una non tempestività nelle azioni rimediali, ogniqualvolta una tecnologia autonoma e self-learning immessa in commercio palesi, col maturare delle esperienze, rischi seri di danno [104].

Come accennato in precedenza, anche sotto questo profilo, parrebbe profilarsi la prevalenza della teoria dottrinale orientata all’applicazione del principio di precauzione nelle questioni connesse al rapporto fra responsabilità civile e norme sulla sicurezza [106], secondo cui il rispetto di quest’ultime rappresenterebbe uno standard minimo per la messa in commercio dei prodotti, e richiederebbe, comunque, al produttore un obbligo di vigilanza anche successiva all’immissione del prodotto in commercio, almeno allorquando questo sia foriero di rischi imprevedibili, ammettendosi, di conseguenza, rispetto ad un’eventuale omissione dell’obbligo di vigilanza, non solo una sanzione di tipo amministrativo, ma anche la possibilità di agire, in sede civile, per il risarcimento del danno derivante dal prodotto conforme [107].

Infine, sempre sul fronte della sicurezza, grande rilievo assumono le riflessioni sull’introduzione del concetto di logging by design, con ciò intendendosi l’obbligo di equipaggiare le nuove tecnologie di strumenti di registrazione dei dati relativi al funzionamento delle stesse.

In particolare, gli studiosi hanno sostenuto la previsione di un obbligo specifico posto in capo al produttore di equipaggiare le nuove tecnologie dotate di intelligenza artificiale con strumenti idonei a registrare le informazioni relative al funzionamento delle medesime (logging by deisgn), quando queste informazioni siano, in genere, essenziali per stabilire se un rischio (prevedibile rispetto ad una data tecnologia) si sia in concreto materializzato. Gli studiosi, però, evidentemente consapevoli delle problematiche tecniche connesse al funzionamento oscuro di alcune tipologie di sistemi di autoapprendimento (esplicitate in precedenza), hanno proposto di condizionare tale obbligo a parametri di appropriatezza e proporzionalità, che dovrebbero tener conto, in particolare, della fattibilità tecnica e dei costi della registrazione, della disponibilità di mezzi alternativi per la raccolta di tali informazioni, del tipo e dell'entità dei rischi posti dalla specifica tipologia di tecnologia considerata, nonché di qualsiasi conseguenza negativa che potrebbe avere la registrazione sui diritti di altri, fra cui primeggia quello alla riservatezza dei dati [108].

Sotto il profilo sanzionatorio per l’omesso rispetto di tale obbligo, ancora una volta, gli esperti hanno sostenuto la bontà dell’inserimento di una presunzione di sussistenza delle condizioni in astratto dimostrabili con i dati registrati, ogniqualvolta non siano stati adottati meccanismi di registrazione, disponibili nel mondo della tecnica, o sia impedito un accesso ragionevole alle stessa da parte della vittima [109]

Si osserva, inoltre, come tale presunzione, nell’idea espressa dal gruppo di esperti, dovrebbe operare non solo nei confronti del produttore, bensì, più in generale, dell’operatore, che potrà, poi, rivalersi nei confronti del produttore inadempiente.

Ad avviso di chi scrive, quindi, gli studiosi parrebbero propendere per il principio logging by design quale esplicitazione di un più generale dovere, posto in capo al produttore dei nuovi prodotti tecnologici, delle best practice possibili.

Alla luce di tali indicazioni, allo scrivente pare di poter sostenere che, nel concreto, allorquando non sia tecnicamente possibile registrare il funzionamento della macchina, il produttore dovrà dare all’operatore adeguata informativa circa tale mancanza, di modo che quest’ultimo possa assumersi consapevolmente il rischio derivante dall’utilizzo della stessa, dal momento che sarebbe chiamato a rispondere, non solo prima facie nell’ipotesi di mancanza ingiustificata del sistema di registrazione (con diritto di rivalsa verso il produttore, unico destinatario del relativo obbligo d’installazione), ma anche per colpa, nel caso in cui non avesse rispettato gli obblighi di diligenza connessi alla tipologia di macchina impiegata.

4.3.7. Le soluzioni fornite: l’assicurazione e il fondo di compensazione

Infine, si segnala come, ribaltando la visione espressa dal Parlamento europeo secondo cui, per l’individuazione del soggetto responsabile, la Commissione avrebbe dovuto utilizzare alternativamente l’approccio della responsabilità oggettiva o della gestione del rischio, il gruppo di esperti ha sostenuto l’uso combinato di tali approcci, soprattutto con riferimento alle ipotesi in cui l’inserimento della tecnologia potrebbe esporre ad un incremento dei rischi di danno: in presenza, quindi, di un rischio prevedibile e calcolabile, anche sotto il profilo del premio-costo della copertura assicurativa, l’uso congiunto di tali strumenti sarebbe la soluzione da preferire [110]

In linea generale, però, proprio in forza della difficoltà di prevedere le tipologie di rischio a cui le tecnologie potranno esporre l’essere umano, il gruppo di esperti ha chiarito come non sarebbe opportuno imporre un sistema assicurativo obbligatorio per tutti gli strumenti automatizzati: tale sistema sarebbe da adottare, infatti, soltanto laddove l’evento dannoso sia prevedibile, calcolabile e quantificabile in importi che potrebbero ragionevolmente portare all’insolvenza dell’operatore (sia esso produttore o utilizzatore\fruitore dell’azione del robot, chiamato a rispondere, a seconda del caso, per responsabilità oggettiva o per colpa).

Di riflesso, parimenti conservativo è stato, poi, l’approccio mostrato con riferimento alla possibilità di istituire dei fondi di compensazione, che troverebbero applicazione soltanto nei settori per i quali è previsto un sistema assicurativo obbligatorio: il fondo, infatti, opererebbe solo nei casi di danno conseguenti all’azione di una tecnologia rimasta non identificata o sprovvista di assicurazione (come avviene oggi per il Fondo di garanzia per le vittime della strada).

 Inoltre, sebbene le questioni concernenti il trattamento dei dati personali non rientrano nell’ambito di trattazione del presente scritto, si osserva come, anche con riferimento al caso di hackeraggio da parte di ignoti, gli esperti propongano l’adozione di fondi di compensazione, in analogia a quanto avviene oggi a sostegno per le vittime di crimini violenti [112].

Infine, poi, si ritiene opportuno precisare come, indipendentemente dall’operatività di sistemi obbligatori, gli operatori (soprattutto i diversi produttori delle componenti insite negli autonomi), potrebbe ben regolare le loro responsabilità mediante strumenti contrattuali ovvero altri sistemi, assicurativi e non, aventi funzione di risk management, come avviene da sempre nella prassi dei rapporti fra imprese dell’industria manifatturiera.

4.3.8. Le soluzioni fornite: doppio binario della responsabilità ed alleggerimento dell’onere della prova

Si è anticipato, più o meno fra le righe, come il gruppo di esperti abbia manifestato un favor generale per la struttura della responsabilità civile fondata su più criteri di imputazione della responsabilità [114], ribadendo (in analogia con il Parlamento europeo e i diversi orientamenti dottrinali espressi sul rapporto fra nuove tecnologie e responsabilità civile) però, come il contenuto dell’onere probatorio possa dimostrarsi eccessivamente gravoso per l’attore, rischiando di lasciare non compensati dei danni risarcibili, nonché di allocare il costo dello sviluppo tecnologico in capo al singolo danneggiato [115]

In particolare, dopo aver affermato l’opportunità di progettare (o modificare) il sistema della responsabilità civile oggi operante negli Stati membri [116], gli studiosi hanno sostanzialmente delineato un sistema fondato sulla responsabilità oggettiva non solo del produttore ma anche dell’operatore (sia esso un fronted operator - ossia colui che decide di far interagire con terzi un robot intelligente per suo conto, beneficiando dell’azione della macchina; sia esso un backend operator – ossia colui che si occupa di definire in modo costante le caratteristiche della tecnologia fornendo supporto essenziale e continuo), che dovrà, di volta in volta, imputarsi sull’uno o sull’altro, a seconda di chi sia, in concreto, il soggetto con più controllo sui rischi connessi all’operazione dell’automa intelligente [117].

In più, hanno sostenuto l’opportunità di completare tale sistema con la previsione di una responsabilità per colpa, sia del produttore (per omesso adempimento, ad esempio, degli obblighi di vigilanza successivi all’immissione del bene nel mercato, ove necessario), sia dell’operatore (che abbia omesso di rispettare gli obblighi di diligenza nello sfruttamento, manutenzione, conservazione connessi all’automa intelligente.

Ciò che rileva qui rileva, però, è che per entrambe le ipotesi di responsabilità gli esperti abbiano sottolineato l’importanza di prevedere dei sistemi di alleggerimento dell’onere probatorio, che (come detto a più riprese) rappresenta “il costo” maggiore per il danneggiato in generale, e per la vittima dell’interazione dannosa con la macchina in particolare.

Precisamente, con riferimento all’onere del danneggiato concernente la prova degli elementi della responsabilità oggettiva (evento, danno, nesso di causalità fra evento e danno) relativi a danneggiamenti (interazioni) fra uomo e nuove tecnologie, gli esperti hanno proposto di alleviare l’onere probatorio, potendo ritenere provata la sussistenza degli elementi alla luce di fattori quali la probabilità che la tecnologia abbia causato o concausato il danno, l’incapacità di tracciare ex post ed in modo chiaro la condotta, ovvero la difficoltà per il danneggiato di rintracciare i suddetti dati e di interpretarli (asimmetria informativa) [118].

Sul fronte dell’onere probatorio degli elementi costitutivi della colpevolezza civile, invece, gli esperti hanno proposto di introdurre una presunzione di colpevolezza dell’operatore o produttore, laddove vi siano difficoltà oggettive per il danneggiato (in termini, anche di costi) nell’individuazione degli obblighi di condotta di riferimento e nella prova della loro violazione [119].

5. Considerazioni a margine

Complessivamente, con riferimento al responsibility gap, gli esperti sembrerebbero dire che, sebbene in linea generale i singoli sistemi di tort law adottati dagli Stati membri parrebbero idonei a garantire un livello minimo di tutela, sarebbe comunque opportuno procedere ad una revisione ovvero all’introduzione di un nuovo sistema (europeo?) della responsabilità civile, più vicino alle esigenze di tutela della vittima dell’interazione (dannosa) con l’automa intelligente.

Si ribadisce, poi, come non rientrando nel loro campo d’analisi, gli studiosi abbiano sostanzialmente bypassato il problema etico della giusta imputazione della responsabilità, limitandosi ad osservare come non vi sia necessità alcuna di attribuire personalità alle macchine, potendo ben operare un sistema di imputazione della responsabilità in capo all’essere umano, secondo le modalità sopra descritte.

Ciò che più rileva, però, ad avviso di chi scrive, è che le risultanze a cui gli studiosi pervengono parrebbero proporre, in gran parte, soluzioni già presenti (o comunque raggiungibili per il tramite di adeguamenti giurisprudenziali) nei sistemi di tort law esistenti oggi negli Stati membri, soprattutto in quelli (ed è il caso italiano) in cui la responsabilità da prodotto difettoso ha avuto poco successo, mostrandosi meno idonea dei rimedi nazionali ad offrire tutela alle vittime di danno ingiusto connesso all’attività dell’impresa manifatturiera. Difatti, in Italia, già da tempo, con riferimento a particolari settori produttivi dal grande impatto socioeconomico (si riferisce, ad esempio, al settore farmaceutico o a quello delle protesi mediche) si è registrato un certo sfavore per la responsabilità da prodotto difettoso, preferendo i danneggiati sostenere le proprie ragioni in forza di altre disposizioni quali, ad esempio, l’art. 2050 c.c. [120].

In considerazione di ciò, parrebbe ragionevole ritiene che l’automazione self-learning, più che dirompere gli assetti della responsabilità civile in generale, sarebbe in grado di sollecitare il punto di rottura del sottosistema della responsabilità da prodotto difettoso, ormai (da diversi anni) incapace di svolgere, con riferimento all’industria digitale, la funzione per il quale era stato pensata negli anni ’80 del secolo scorso.

Orbene,  l’automazione self-learning, più che generare un responsibility gap, parrebbe in grado di squarciare il velo di Maya sull’efficienza della responsabilità da prodotto difettoso, ponendo il legislatore europeo (ma soprattutto gli Stati membri) dinanzi alla decisione di scegliere fra un ambizioso progetto di regolamentazione organica della tort law europea, armonizzata anche nei profili procedurali (quali, ad esempio, i termini di decadenza, di prescrizione ed i contenuti dell’onere probatorio) - soluzione apparentemente più adeguata a favorire la creazione di un level playing field dell’industria robotica e dell’automazione intelligente -, ovvero conservare un sistema di armonizzazione parziale, che potrebbe rivelarsi meno idoneo a realizzare il risultato economico ad esso sotteso, poiché potrebbe portare, come già oggi avviene, ad interpretazioni difformi fra le Corti degli Stati membri, a tutto danno della certezza del diritto, delle relazioni economiche e dello sviluppo scientifico-industriale. 

Indipendentemente dalla strada che si deciderà di percorrere, però, ad avviso di chi scrive, la strategia politica europea di sviluppo del nuovo settore delle tecnologie intelligenti dovrebbe, innanzitutto, passare per un’attenta disamina e selezione dei nuovi rischi e dell’aumento delle presunte situazioni di danno congeniti al meccanismo di funzionamento degli autonomi ivi descritti.

E se, come sostenuto [121], la prevenzione del rischio è finalità precipua della disciplina pubblicistica della sicurezza dei prodotti, sia essa di tipo orizzontale o verticale, la predisposizione di un quadro normativo efficiente e idoneo a bilanciare i molteplici interessi sottesi allo sviluppo del nuovo mercato delle tecnologie intelligenti non potrebbe che passare, innanzitutto, per un adeguamento delle norme pubblicistiche della produzione.

Si ritiene, infatti, che dinanzi all’esigenza di disciplinare l’avvento della automazione intelligente, il vero gap normativo europeo si palesi con riferimento a quest’ultima disciplina, deputata ad operare ex ante rispetto alle regole sulla responsabilità in generale e a quelle sulla responsabilità da prodotto difettoso in particolare (dal momento che, ex art. 117 cod. cons, il prodotto intanto è difettoso in quanto è insicuro), nonché, come osservato da autorevoli studiosi, nell’assenza di un esplicito coordinamento fra la stessa e la disciplina della responsabilità da prodotto difettoso [122].

Ed è proprio su questo fronte che si ritiene che gli esperti avrebbero potuto insistere maggiormente: sebbene il profilo dell’importanza delle regole sulla sicurezza sia emerso nelle riflessioni sinora descritte, si osserva che tale aspetto avrebbe meritato maggiore attenzione, soprattutto perché, ad avviso di chi scrive, l’incertezza refrigerante delle regole rispetto all’innovazione (chilling effects of law), più che ravvisarsi nella disciplina della responsabilità (tort law), operante successivamente al verificarsi di una condotta (nel caso di specie, l’esercizio dell’attività d’impresa nel campo dell’automazione intelligente, a cui consegue la messa in commercio di un prodotto dannoso), si individua nell’indeterminatezza e vaporosità delle norme c.d. pubblicistiche della produzione, notoriamente atte ad orientare in modo diretto l’attività di produzione [123].

Traslando il discorso sul campo europeo, nell’ottica di creare un sistema organizzato di regole per favorire lo sviluppo tecnologico, senza che questo generi dei vuoti di tutela (sebbene, come ribadito a più riprese, in termini di efficacia del sistema), sarebbe certamente opportuno intervenire con rapidità e precisione nella c.d. disciplina pubblicistica della produzione affinché si possano fissare standard certi che guidino non solo la condotta dei produttori, che dovranno adeguarsi a questi nella varie fasi di progettazione, sperimentazione, messa in commercio e vendita del prodotto automatizzato, ma anche quella dell’utente – consumatore finale, che dallo stesso trae utilità (si riferisce al soggetto indicato come operatore all’interno del report sin qui esaminato).

Si ribadisce, poi, l’esigenza di intervenire con urgenza sul fronte della sicurezza informatica, che ad oggi rappresenta una seria incognita di vulnerabilità dei prodotti automatizzati intelligenti: a più riprese è stato osservato, infatti, come la mancanza di cyber sicurezza si candidi ad essere una delle cause più frequenti di evento dannoso che, in assenza di opportuni interventi legislativi in materia di sicurezza, resterebbe in capo alla vittima, a meno che la stessa non riesca a individuare l’autore materiale dell’attacco informatico.  Non a caso, tale situazione è stata individuata dagli esperti come ipotesi tipica in cui dovrebbe trovare applicazione un apposito fondo di compensazione [124].

Fissate tali regole, sarà poi necessario predisporre un meccanismo chiaro, oggettivo ed intellegibile di coordinamento fra le stesse e la disciplina in materia di responsabilità da prodotto difettoso, evitando situazioni di incertezza che, da sempre, hanno afflitto la disciplina armonizzata della responsabilità, soprattutto con riferimento alle nuove tecnologie, e che hanno portato, spesse volte, i danneggiati (rectius, le loro difese) a fondare le loro richieste risarcitorie sulla normativa domestica, svuotando di efficacia le regole di matrice europea che, sempre più, appaiono inidonee a realizzare, con riferimento all’industria tecnologica, la finalità per la quale erano state pensate [125].

Da ultimo, poi, sul fronte della responsabilità civile, in vista dell’avvento delle nuove forme di automazione self-learning, pare difficile non pronosticare almeno una modifica dell’attuale sottosistema della responsabilità da prodotto difettoso, ma non perché l’automazione self-learning porti con sé dei problemi di tutela in senso stretto del danneggiato, ma bensì imporrebbe, per caratteristiche e modalità di funzionamento, una modifica radicale della disciplina da prodotto difettoso, affinché questa si presenti idonea ad apprestare adeguato rimedio agli interessi contrastanti espressi dagli emergenti settori di mercato [126].

[1] A. Torrente, P. Schlesinger, “Manuale di Diritto Privato”, XXI Ed., Giuffré, Milano, 2013 p.21

[2] In letteratura si parla di passaggio da homo sapiens a homo technologicus; G.O. Longo, “Homo technologicus”, Roma, Meltemi Editore, 2005. Il termine viene utilizzato dall’A. per indicare un ibrido tra uomo e macchina che vive nel mondo dominato dalla tecnica.

[3] Con il termine Intelligenza artificiale (IA) si indica un ambito di ricerca interdisciplinare che ha lo scopo di replicare le funzioni tipiche dell’intelligenza umana in un prodotto tecnologico. Filosoficamente si distingue in IA forte, laddove “i sistemi artificiali hanno capacità cognitive umane nel senso che producono e sono essi stessi dei processi mentali, sono delle menti […] sono essi stessi descrizione di processi mentali” e in  IA debole laddove i sistemi artificiali hanno capacità di “rappresentare internamente la realtà esterna e sono in grado di simulare e riprodurre processi cognitivi, sono spiegazioni di processi, non sono processi”; le definizioni sono state tratte da G. Taddei Elmi, “I diritti dell’“intelligenza artificiale” tra soggettività e valore: fantadiritto o ius condendum?” In L. Lombardi Vallauri, Il meritevole di tutela, Giuffré, Milano, 1990 p. 690-691; allo stesso si rinvia per ulteriori approfondimenti sul punto.

[4] In letteratura è stata definite come l’invenzione finale, in questi termini ne parla J. Barret, “Our final Invention: Artificial Intelligence and the End of the Human Era”, New York, Thomas Dunne books.St. Martin’s Press, 2013.

[5] Il machine learning è una branca dell’intelligenza artificiale volta a creare macchine in grado di apprendere dall’esperienza maturata; si tratta di sistemi che permettono alla macchina di generalizzare dalla propria esperienza, ossia di ragionare in maniera induttiva portando a termine compiti nuovi, che non hanno mai affrontato prima, dopo aver fatto esperienza su un insieme di dati di apprendimento. 

[6] L’interazione uomo-macchina intelligente, insieme all’interazione tra macchina e ambiente circostante e alla connessione tra robot rappresentano le peculiarità emergenti dall’introduzione della tecnologia robotica. In questo senso si veda G. Guerra, “La sicurezza degli artefatti robotici in prospettiva comparatistica, Dal cambiamento tecnologico all’adattamento giuridico”, Bologna, Il Mulino, 2018, cit. pp. 90-91; l’A., a sua volta, richiama il progetto dedicato allo studio dell’interazione uomo – macchina (human – robot interaction) in prospettiva multidisciplinare, consultabile all’indirizzo http://humanrobotinteraction.org/. e alle riflessioni sull’iniziativa di U. Pagallo, “Il diritto nell’età dell’informazione. Il riposizionamento tecnologico degli ordinamenti giuridici tra complessità sociale, lotta per il potere e tutela dei diritti”, Torino, Giappichelli, 2014, p. 303; nonché E. Palmerini, “Robotica e diritto: suggestioni, intersezioni, sviluppi a margine di una ricerca europea” in Resp. civ. prev., ISSN 2499-2453, 6, 2016

[7] E. Palmerini, op. cit. p. 1820;

[8] Sul punto si avrà modo di tornare nel prosieguo dello scritto, tuttavia, si segnala come il problema della responsabilità connessa all’utilizzo delle tecnologie emergenti sia divenuto centrale, in Unione europea, almeno dal febbraio 2017, quando il Parlamento europeo ha adottato una risoluzione vertente norme di diritto civile sulla robotica.

[9] I termini della questione vengono espressi chiaramente da A. Matthias “The responsibility gap: Ascribing responsibility for the actions of learning automata” in Ethics and Information Technology, 2004, cui si rinvia. Prime riflessioni dottrinali sul tema del rapporto fra Intelligenza Artificiale e responsabilità si ravvisano in U. Ruffolo (a cura di) “Intelligenza artificiale e responsabilità (Convegno del 29 novembre 2017)”, Milano, Giuffrè, 2017, nonché in E. Gabrielli, U. Ruffolo (a cura di) “Intelligenza Artificiale e diritto” in Giurisprudenza Italiana, ISSN 1125-3029, luglio 2019, pp. 1657-1778.

[10] In dottrina si possono ravvisare orientamenti conservatori e riformisti: con riferimento al tema della responsabilità per la circolazione di auto driverless, ad esempio, si vedano le teorie discordanti espresse da U. Ruffolo, “Self-driving car, auto driverless e responsabilità”, in Intelligenza artificiale e responsabilità, a cura di U. Ruffolo, Milano, Giuffrè, 2017, pp. 31-61; L. Coppini, “Robotica e intelligenza artificiale: questioni di responsabilità civile”, in Politica del diritto, 4, 2018, ISSN 0032-3063, pp. 731-735; A. Davola, “In viaggio col robot: verso nuovi orizzonti della r.c auto (driverless)?” in Danno e Resp., ISSN 1125-8918, 5, 2017, pp. 616-629 e spec. 619.

[11] U. Ruffolo, “Per i fondamenti di un diritto della robotica self-learning; dalla machinery produttiva all’auto driverless: verso una “responsabilità da algoritmo”?” in Intelligenza artificiale e responsabilità, a cura di U. Ruffolo, Milano, Giuffrè, 2017.; A. Amidei, “Robotica intelligente e responsabilità: profili e prospettive evolutive del quadro normativo europeo”, in Intelligenza artificiale e responsabilità, a cura di U. Ruffolo, Milano, Giuffrè, 2017; A. Bertolini, Robots as products: the case for a realistic analysis of Robotic Applications and Liability Rules, in Law, Innovation and Technology, 2013

 [12] La problematica sulla corretta imputazione della responsabilità, e di riflesso le considerazioni sulla possibilità di creare nuovi soggetti di diritto è prevalentemente discussa fra i filosofi del diritto. Per approfondimenti si rinvia a A. Matthias, op. cit.; G. Sartor: “Gli agenti software: nuovi soggetti del ciberdiritto?” in Contratto e impresa, ISSN 1123-5055, 2002;

[13] Per approfondimenti si rinvia a P. Pardolesi, “Profili comparatistici di analisi economica del diritto privato”, Bari, Cacucci, 2015; U. Mattei, “Tutela inibitoria e tutela risarcitoria, Contributo alla teoria dei diritti sui beni”, Milano, Giuffré; G. Calabresi, “Costo degli incidenti e responsabilità civile – Analisi economico-giuridica (Ristampa)”, Giuffré, Milano, 2015; R. Posner, “Economic Analysis of Law”, Wolters Kluwer Law & Business, 2014

[14] Termine introdotto nel lessico contemporaneo nel 1952, la cui origine è contesa tra John Diebold e Del Harder. così definito dal Vocabolario Treccani, consultabile online al sito:
http://www.treccani.it

[15] Si tratta dell’automazione alla base dell’industria 4.0, per una disamina specifica del fenomeno della quarta rivoluzione industriale si v. Klaus Schwab, “La quarta rivoluzione industriale”, FrancoAngeli, Milano, 2017; P. Bianchi, “4.0 La nuova rivoluzione industriale”, Il Mulino, Bologna, 2018; P. Ichino, “Conseguenze dell’innovazione tecnologica sul diritto del lavoro”, in Rivista italiana di diritto del lavoro, ISSN 0393-2494, 4, 2017, p. 550. Nel corso della stessa riflessione l’A. definisce estensivamente l’industria 4.0 come l’automazione alimentata dallo scambio di dati negli ambienti produttivi, laddove per attività produttiva non si intende soltanto la produzione di beni ma anche quella di servizi.

[16] In vari settori d’applicazione, le macchine intelligenti sono state distinte in base al loro grado di autonomia: i robot vengono classificati per livelli, assegnando il livello minimo al robot sprovvisto di autonomia ed il livello massimo al robot completamente autonomo, in grado di eseguire un’attività umana complessa, come guidare od operare chirurgicamente. Il settore automobilistico e quello della chirurgia robotica, infatti, sono probabilmente due fra i settori più colpiti dallo sviluppo dell’automazione. Per approfondimenti sulla proposta di classificazione in base all’autonomia del robot nel campo medico si v. G. Guerra, op. cit, pp. 96-98. In ambito automobilistico si rinvia a M. C. Gaeta, “Automazione e responsabilità civile automobilistica”, in Resp. civ. e prev., ISSN 2499-2453, 5, 2016, pp. 1720-1724.

[17] L’assunto è tratto da Comunicazione COM (2018) 237 final del 25 aprile 2018, consultabile al sito https://ec.europa.eu/. Il 19.2.2020, la Commissione europea ha pubblicato il LIBRO BIANCO sull'intelligenza artificiale, prevedendo un investimento iniziale di 100 milioni per favorire lo sviluppo di tali tecnologie: il documento è disponibile al seguente link: https://ec.europa.eu/.

[18] Per una ricostruzione dell’ambito di applicazione dei robot si veda I.R. Nourkabkhush, “Robot fra noi. Le creature intelligenti che stiamo per costruire”, Torino, 2014; R. Cingolani, G. Metta, “Vivere con i robot”, Bologna, 2015; L. De Biase, “Homo pluralis. Esseri umani nell’era tecnologica”, Torino, 2015; quanto al settore della contrattazione virtuale si veda F. Di Giovanni, “Intelligenza artificiale e rapporti contrattuali”, in Intelligenza artificiale e responsabilità (Convegno del 29 novembre 2017), a cura di U. Ruffolo, Milano, Giuffrè, 2017, pp.121-134; per usi nel settore legale e nel campo farmaceutico si v. U. Ruffolo, “Per i fondamenti di un diritto della robotica self-learning; dalla machinery produttiva all’auto driverless: verso una “responsabilità da algoritmo”?”, cit. p.2., mentre, in Italia, l’applicazione dell’automazione complessa nel mondo giudiziale è oggetto di acceso dibattito dottrinale: nel corso dei Seminari Leibniz per la teoria e la logica del diritto, svolti presso l’Accademia dei Lincei si sono formulate riflessioni in materia, che sono state raccolte in 3 testi, v. A. Carleo (a cura di), “Calcolabilità giuridica”, Il Mulino, Bologna, 2017; A. Carleo (a cura di), “Vincolo giudiziale del passato. I precedenti”, Il Mulino, Bologna, 2018; A. Carleo (a cura di), “Decisione robotica”, Il Mulino, Bologna, 2019. Lo sviluppo di algoritmi e robot nell’ambito delle professioni, anche legali, viene esaminato da K. Chagal, “The Reasonable Algorithm”. in cui l’A. riferisce a ROSS INTELLIGENCE, realizzato su software IBM, che grazie alle sue reti neurali può sia fungere da motore di ricerca giuridica, sia fornire consulenza legale, sia redigere contratti, testamenti o altre scritture private.

[19] Un esempio viene fornito da A. Santosuosso, C. Boscarato, F. Caroleo, “Robot e diritto: una prima ricognizione”, in La nuova giurisprudenza civile commentata, ISSN 1593-7305, 7-8, 2012, p. 512 in cui gli Autori analizzano i comportamenti e i profili di responsabilità derivanti dai comportamenti di Robodog, un cane-robot che assiste persone non vedenti.

[20] Per più ampie riflessioni sui diversi settori di applicazione, U. Ruffolo (a cura di) “Intelligenza artificiale e responsabilità (Convegno del 29 novembre 2017)”, cit.; nonché in E. Gabrielli, U. Ruffolo (a cura di) “Intelligenza Artificiale e diritto”, cit.

[21] Interessanti spunti sulla macchina come animata dall’intelligenza artificiale sono offerti da U. Ruffolo, A. Amidei, “Intelligenza Artificiale e diritti della persona: le frontiere del ‘‘transumanesimo’’ in Giurisprudenza Italiana, ISSN 1125-3029, luglio 2019, pp. 1658-1670;

[22] Una spiegazione della struttura e della funzione dell’algoritmo è data da T. H. Cormen, “Algorithms Unlocked”, Cambridge, Massachusetts, The Mit Press, pp. 1-212. Sulla difficoltà di comprendere il funzionamento degli algoritmi sottesi al machine learning, invece, il prof. G. F. Italiano ha riassunto la questione in questi termini «A differenza degli algoritmi tradizionali, che possono essere spiegati e interpretati, gli algoritmi di machine learning costruiscono un modello del problema che vogliono risolvere. Un modello che non è però spesso facilmente interpretabile. Per provare a spiegare questo, col rischio di fare un esempio molto approssimativo, e forse anche un po’ esagerato, potremmo pensare al modello prodotto da un algoritmo di machine learning come a un cervello umano. Non possiamo dissezionare il cervello per capire cosa è successo, perché è stata presa una certa decisione. Possiamo provare a osservare dall’esterno, a fare delle domande, interrogarlo e analizzare le sue risposte. Ma questo è un processo lungo, non sempre conduce a conclusioni esatte, e non sempre fa capire perché è stata presa una certa decisione. In questo caso, il meccanismo con cui è stata presa una decisione è poco chiaro, poco trasparente e più difficilmente spiegabile. Per questo gli algoritmi di machine learning sono come una scatola chiusa, una black box, che non può essere aperta facilmente”. La riflessione è contenuta nell’articolo “Ecco a quali condizioni Italia e Europa potranno competere nella gara mondiale sull’Intelligenza artificiale”, pubblicato su Luiss Open, research magazine di aggregazione dell’Università Luiss di Roma, consultabile al link: https://open.luiss.it/.

[23] Per una panoramica sul punto, si v. A. Matthias, op. cit., pp. 178-181; G. Di Stasio, “Machine learning e reti neruali nel diritto civile”, in I-lex, Scienze giuridiche, scienze cognitive e intelligenza artificiale, ISSN 1825-1927 pp. 2 e ss.

[24] Gli algoritmi di apprendimento supervisionato vengono impiegati in vari settori e permettono alla macchina di avanzare ipotesi induttive, partendo dall’analisi di una serie di informazioni e dati già preimpostati nel sistema. Per questo motivo il rischio di imprevedibilità della loro azione è pressoché inesistente.

[25] Gli algoritmi di apprendimento non supervisionato vengono impiegati in settori quali quello della ricerca scientifica, con l’intento di lasciare libera la macchina di trovare soluzioni ignote all’essere umano. L’assenza di esempi forniti alla macchina impedisce di conoscere i risultati e di prevederne i comportamenti.

[26] Gli algoritmi di apprendimento per rinforzo sono i più complessi e sono necessariamente imprevedibili in quanto destinati ad operare in ambienti condivisi con gli esseri umani. Si pensi, ad esempio, alle auto driverless, che si trovano a circolare su strade occupate da pedoni, conducenti persone fisiche e altre auto senza conducente, in circostanze e su territori sempre mutevoli, che non possono essere predeterminati in maniera rigida dal programmatore

[27] A. Matthias, op. cit.; A. Bertolini, op. cit.

[28] G. Di Stasio, op., cit. p. 2.

[29] A. Matthias, op. cit.; A. Bertolini, op. cit.

[30] La questione del responsibility gap è ampiamente trattata da A. Matthias, op. cit. Si tratta, invero, di una problematica maggiormente condivisa dai filosofi del diritto: in Italia, ad esempio, in questi termini si pongono gli studi di G. Sartor, pubblicati agli inizi del 2000, tra cui G. Sartor, Gli agenti software: nuovi soggetti del ciberdiritto? cit.; G. Sartor, Gli agenti software e la disciplina giuridica degli strumenti cognitivi cit.; G. Sartor, L’intenzionalità dei sistemi informatici e il diritto, cit.; diversamente, i giuristi del diritto positivo hanno configurato il responsibility gap come un non problema: fra i tanti si veda U. Ruffolo, “Per i fondamenti di un diritto della robotica self-learning; dalla machinery produttiva all’auto driverless: verso una “responsabilità da algoritmo”?” cit.; A. Amidei, “Robotica intelligente e responsabilità: profili e prospettive evolutive del quadro normativo europeo”, cit.; A A. Bertolini, op. cit.; E. Palmerini, op. cit.; L. Coppini, op. cit.;

[31] Per approfondimenti sul rapporto fra analisi economica del diritto e tecnologia si rinvia a G. Calabresi, “Il dono dello spirito maligno. Gli ideali, le convinzioni, i modi di pensare nei loro rapporti col diritto”, Milano, Giuffrè, 1996; C. Castronovo, “La nuova responsabilità civile”, Giuffré, Milano, 2006, p. 344 in cui l’A. osserva che “sfuggendo alla contraddizione annidatasi finora nelle teorie della responsabilità oggettiva, Calabresi ha fornito il criterio di responsabilità adeguato alla civiltà tecnologica perché massimamente aderente all’idea della calcolabilità e in pari tempo in grado di restituire senso alla categoria della responsabilità”. L’A. si era già espresso in senso analogo in C. Castronovo, “Problema e sistema nel danno da prodotti”, Giuffré, Milano, 1979, p. 595.

[32] A. Matthias, op. cit., pp. 177-180; per osservazioni in senso opposto si rinvia a A. Bertolini, op. cit., pp. 214-247

[33] Nel contesto nazionale tale approccio ha trovato seguito soprattutto in materia di circolazione stradale e in tema di infortuni sul lavoro mentre, per il resto, è stato considerato assai di rado, in questi termini E. El Mureden, Presentazione, a G. Calabresi, “Costo degli incidenti e responsabilità civile – Analisi economico-giuridica (Ristampa)”, Giuffré, Milano, 2015, p. VII; diversamente da quanto avvenuto  in ambito europeo dove, dalla fine degli anni ’70,  l’analisi economica del diritto ha guidato l’azione delle istituzioni.

[34] Si veda L. Coppini, op. cit., p. 716; J. Manyika, M. Chui, J. Bughin, R. Dobbs, P. Bisson and A. Marrs, “Disruptive technologies: Advances that will tranform life, business, and the global economy”, McKinsey Global Institute, 2013, p. 68. Disponibile al link: http://www.mckinsey.com.

[35] Per una rappresentazione degli effetti economico – sociali si rinvia al Libro Bianco sull'intelligenza artificiale - Un approccio europeo all'eccellenza e alla fiducia, adottato dalla Commissione europea e disponibile al seguente link istituzionale: https://op.europa.eu/; in dottrina, sugli effetti sul mondo del lavoro, si rinvia P. Ichino, op. cit.

[36] Il Global Trend è un complesso programma di ricerca attivato agli inizi degli anni Novanta dal governo degli Stati Uniti d’America e condotto dal National Intelligence Council (NIC). Oggi rappresenta un’articolata attività di analisi e di riflessione su scala globale tra esperti internazionali che cooperano e si confrontano per individuare i trend strategici caratterizzanti gli scenari futuri, valutandone l’impatto in campo politico, economico-finanziario e sociale. Il programma si pone l’obiettivo di stimolare il pensiero critico e la riflessione strategica del decisore sui rapidi e vasti cambiamenti geopolitici attuali e futuri, incoraggiando e contribuendo ad una più efficace pianificazione di lungo termine; l’attività del NIC si conclude ogni quattro anni con la pubblicazione di un report. Il Global Trends Report 2030, pubblicato nel 2012 con l’intento di stimolare la riflessione sui rapidi e vasti cambiamenti geopolitici che caratterizzano il mondo di oggi, descrive le possibili traiettorie globali interessandosi anche al ruolo della robotica.
Per una breve ed esaustiva illustrazione del contenuto del Global Trends 2030 Report si rinvia a C. Neri (a cura di), “Sintesi per il decisore italiano del report: Global Trends 2030: Alternative Worlds”, in Istituto Italiano di Studi Strategici “Niccolò Machiavelli”, 2013. consultabile al link https://www.strategicstudies.it/. Per valutazioni in ambito europeo, si rinvia sempre al Libro Bianco sull’intelligenza artificiale – Un approccio europeo all’eccellenza e alla fiducia, adottato il 19.2.2020 dalla Commissione europea.

[37] Stati Uniti, Giappone, Cina, Corea del Sud hanno adottato o stanno elaborando nuove e specifiche norme per agevolare le applicazioni robotiche. Nel 2015, ad esempio, il governo giapponese ha dato il via a un piano quinquennale per la regolamentazione della robotica concentrandosi sul tema della responsabilità per le condotte dannose dei robot. Il governo giapponese sta investendo moltissime risorse specialmente nei settori dei robot collaborativi e delle macchine a guida automatizzata. Per conoscere le iniziative giapponesi, soprattutto in materia di guida autonoma si rinvia a. T. Matsuo, “The Current Status of Japanese Robotics Law: Focusing on Automated Vehicles”, in Robotics, Autonomics, and the Law, a cura di E. Hilgendorf, U. Seidel, 2017

Nel 2017 la Cina ha intrapreso un piano pluri-strutturato con l’obiettivo di divenire entro il 2030 il Paese leader nel campo della robotica e dell’intelligenza artificiale.
Per maggiori informazioni v. A. Amidei, “Robotica intelligente e responsabilità: profili e prospettive evolutive del quadro normativo europeo”, cit., pp 67-68; G. Guerra, op. cit., pp. 60-64.

[38] In questo senso si esprimono M. Bassini, L. Liguori, O. Pollicino, “Sistemi di intelligenza artificiale, responsabilità e accountability. Verso un nuovo paradigma?” in Intelligenza artificiale, protezione dei dati personali e regolazione, diretto da F. PIZZETTI, Torino, Giappichelli Editore, 2018, p. 334. L’argomento gode di rilevanza mondiale: nel gennaio del 2016 è stato al centro del World Economic Forum, svoltosi a Davos (Svizzera), intitolato “Mastering the Fourth Industrial Revolution”. Sul punto, giova segnalare l’articolo di Stefano Rodotà del 27\03\2010, disponibile al link https://ricerca.repubblica.it/, in cui l’illustre giurista riflette sull’imminente società dell’algoritmo, che nel suo essere multiforme già disegna le modalità di funzionamento di larghe aree delle nostre organizzazioni sociali con effetti redistributivi del potere.

[39] Sulle potenzialità degli algoritmi alla base dei sistemi di machine learning si rinvia a P. Domingos, “L’algoritmo definitivo. La macchina che impara da sola e il futuro del nostro mondo”, Torino, Bollati Boringhieri, 2015, ove a p. 21 l’A. riassume in poche righe i termini della questione in esame: “se la Rivoluzione industriale ha automatizzato il lavoro manuale, e la Rivoluzione dell’informazione ha fatto lo stesso con quello intellettuale, il machine learning, invece, automatizza l’automazione stessa, secondo una tendenza per cui, grazie al machine learning il progresso può accelerare”.

[40] Nel vecchio continente, le sfide poste dall’intelligenza artificiale parrebbero voler essere affrontare con un approccio europeo coordinato. In questo termine fanno propendere le molteplici attività segnalate e i recenti atti d’indirizzo, fra cui si inserisce il predetto Libro Bianco. Tuttavia, la dottrina italiana ha già espresso dubbi circa la tempestività ed efficacia della gestione europea: per approfondimenti si rinvia a A. Amidei, Robotica intelligente e responsabilità: profili e prospettive evolutive del quadro normativo europeo, op. cit., pp 67-68;

[41] L’opportunità di valutare aprioristicamente la capacità di tenuta delle norme civilistiche italiane è stata accolta positivamente dalla dottrina. Fra le varie considerazioni sul punto, si cita A. Santosuosso, C. Boscarato, F. Caroleo, “Robot e diritto: una prima ricognizione”, cit., p. 516 “Questa sulla responsabilità dei robot può essere vista come una semplice esercitazione per menti giuridiche, che, così facendo, possono verificare la capacità del sistema giuridico di dare conto di situazioni nuove […] in ogni caso nel cercare le soluzioni giuridiche aderenti a questo modo tecnologizzato della vita degli umani oggi, è sempre consigliabile avere un tocco leggero, onde evitare che la regola del diritto sia semplicemente rimpiazzata da quella della tecnologia”. Sul rapporto tra l’evoluzione tecnologica e quella normativa, con particolare riferimento alle nuove forme di automazione si rinvia A. Davola, R. Pardolesi, op. cit., p. 627 sostengono che: “La diffusione di nuove tecnologie richiede, più spesso che no, una rilettura dei modelli di responsabilità tradizionalmente accolti dall’ordinamento giuridico; l’esigenza si fa ancor più stringente laddove tali tecnologie vadano a sovvertire radicalmente i principi essenziali sulla base dei quali un determinato settore ha visto impostare la propria disciplina”; G. Guerra, op., cit., pp. 112-113. Un approccio più cautelativo, invece, si registra in U. Ruffolo, “Per i fondamenti di un diritto della robotica self-learning; dalla machinery produttiva all’auto driverless; verso una responsabilità da algoritmo”?” cit., p. 1 – 30; ID, “Self-drving car, auto driverless e responsabilità”, cit.; E. Palmerini, op. cit.; L. Coppini, op. cit.; A. Amidei, “Robotica intelligente e responsabilità: profili e prospettive evolutive del quadro normativo europeo”, cit.

[42] Nel corso degli anni, l’Unione Europea si è sempre più interessata al rapporto tra innovazione tecnologica e società: la scienza e la tecnologia, da sempre, hanno apportato migliorie alla vita degli individui ma ne hanno anche minato la sicurezza, introducendo nuovi rischi e dilemmi etici a cui l’organizzazione internazionale ha cercato di rispondere adottando strategie innovative di normazione. Alla fine del secolo scorso, lo sviluppo irrefrenabile dell’informatica ha stimolato tentativi volti a riavvicinare la scienza e la società; ciò ha condotto alla definizione di un nuovo approccio europeo in materia di Ricerca e Innovazione: la c.d. Rri policy (responsible research and innovation policy). Il concetto è stato introdotto nel 2011 dal commissario europeo Von Schomberg e si caratterizza per un’estrema indeterminatezza che può essere riassunta in questi termini: “Responsible research and innovation is an approach that anticipates and assesses potential implications and societal expectations with regard to research and innovation, with the aim to foster the design of inclusive and sustainable research and innovation”.

La definizione è stata tratta dal sito del progetto Horizon 2000, consultabile al link https://ec.europa.eu/. Si tratta di una strategia inclusiva con cui si cerca di interpellare tutti i componenti della società, già dalla fase di studio dei nuovi fenomeni tecnologici, per far emergere questioni attinenti alla ricerca e all’innovazione, in modo da anticipare le conseguenze dello sviluppo tecnologico e coinvolgere la società nella discussione su come scienza e tecnologia possano apportare un aiuto alla creazione di un pianeta maggiormente accogliente per le generazioni future, col fine ultimo di evitare una frattura tra società e innovazione tecnologica. La strategia di Rri policy, che integra nel processo decisionale la valutazione di questioni di rilevanza etica e sociale, è ormai il sostrato della politica europea in materia di innovazione, premessa per uno sviluppo tecnologico nel rispetto dei valori cardine dell’Unione europea, tra cui figurano, ai sensi del’art. 2 TUE, la dignità umana, la democrazia e la libertà.

Con Comunicazione datata 25 aprile 2018, rivolta al Parlamento Europeo, al Consiglio Europo, al Consiglio, al Comitato economico e sociale europeo, e al Comitato delle Regioni in materia di Intelligenza Artificiale, consultabile al sito https://ec.europa.eu/, la Commissione Europea ha ribadito l’intenzione di utilizzare la Rri policy per sviluppare una Intelligenza Artificiale responsabile, che ponga al centro la persona. In tal senso depongono anche le linee guida per lo sviluppo di un’intelligenza artificiale affidabile (ETHICS GUIDELINES FOR TRUSTWORTHY AI), pubblicate dalla Commissione nell’aprile 2019 e liberamente consultabili al link: https://ec.europa.eu/.

[43] vd. n. 12

[44] Riflessioni sul punto sono spiegate da G. Guerra, op. cit. p. 81-150, in cui l’A. riconosce che “è necessario chiedersi se l’architettura del sistema sicurezza – responsabilità sia adeguata ad allocare le responsabilità e distribuire i costi degli eventuali danni da artefatti robotici. Tali regole dovrebbe contemperare l’esigenza di incentivare l’innovazione e arginare, anche sul versante della responsabilità civile, il c.d. technology chilling effect”; nonché da E. Palmerini, op. cit.

[45] Per una ricostruzione degli interventi europei in materia di robotica, si v. A. Amidei, “Robotica intelligente e responsabilità: profili e prospettive evolutive del quadro normativo europeo”, cit., pp. 65-69; G. Guerra, op. cit., pp. 53-60;

[46] Nel 2010 è stato avviato, come parte del complesso di iniziative del Programma Horizon 2020 e con l’obiettivo di studiare l’interazione uomo-istituzioni-imprese-macchina intelligente, il programma euRobotics Coordination Action, sostituito nel 2013 da RockEu Coordination Action (maggiori informazioni possono essere ottenute consultando il sito https://eu-robotics.net/). In seguito, sono state adottate la Strategic Research Agenda for Robotics in Europe 2014-2020, il cui report è consultabile all’indirizzo: https://www.eu-robotics.net/, nel quale sono stati trattati sia le questioni ingegneristiche, tecniche, etiche e sociali derivanti dall’applicazione della robotica, sia i loro risvolti giuridici, nonché la Multi-Annual RoadMap (Mar), documento descrittivo delle questioni tecniche e di mercato che l’Unione Europea sarebbe stata chiamata ad affrontare. Ulteriore progetto di grande rilevanza ai fini della ricognizione della policy europea in materia di applicazione degli automi di ultima generazione è Robolaw, iniziato nel marzo del 2012 e concluso a maggio 2014, all’esito del quale sono state formulate una serie di linee guida per la legislazione in materia di robotica, cercando di dare risposta al quesito sulle peculiarità del fenomeno tecnologico in esame, sull’opportunità di adottare leggi specifiche per regolarlo, su quale ruolo attribuire all’etica nella regolamentazione della tecnologia, nonché in che modo affrontare il problema dell’attribuzione della responsabilità per i danni provocati dalle nuove tecnologie. In quella sede, favorendo un approccio funzionale nella normazione dei fenomeni tecnologici, gli studiosi hanno concluso che i robot sono sì speciali, e che per questo motivo in alcuni casi richiedono nuove soluzioni per essere meglio sviluppati e diffusi nella società ma che, allo state dell’arte, non appare necessario produrre fratture nell’assetto giuridico esistente. In aggiunta, hanno osservato che anche i robot dotati di autonomia o capacità di apprendimento non divengono agenti in senso filosofico e che in ogni caso la possibilità di adottare un sistema alternativo o soluzioni giuridiche diverse dovrebbe ancorarsi a valutazioni di politica del diritto e che queste dovrebbero tenere conto delle esigenze sociali e dei principi fondanti dell’ordinamento di appartenenza. Ribadiscono, inoltre, di aver utilizzato un approccio pragmatico alla questione, non potendo pervenire a formulare soluzioni giuridiche generali, valide ed efficienti per tutte le tipologie di robot esistenti. Con riferimento all’ultima questione, i ricercatori hanno invitato gli organi politici ad intervenire tenendo in considerazione la spinta tecnologica, le questioni di sicurezza, i valori sociali prevalenti, il rispetto degli interessi costituzionali e della desiderabilità tecnologica per ciascuna tipologia di artefatto robotico interessato. Inoltre, particolare attenzione è stata prestata alle regole in materia di danno da prodotto, con riferimento alla quale gli studiosi hanno proposto di riformare la normativa, scindendo il profilo della risarcibilità da quello della sicurezza.  Il report integrale dell’attività del progetto Robolaw è consultabile all’indirizzo: https://www.academia.edu/.

[47] Tale finalità è stata ribadita nella Relazione della Commissione del 7.5.2018 sull'applicazione della direttiva del Consiglio relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli Stati Membri in materia di responsabilità per danno da prodotti difettosi (Direttiva 85/374/CEE), disponibile al sito: https://eur-lex.europa.eu/.

[48] Ex multis, in tal senso si rinvia a da A. Santosuosso, C. Boscarato, F. Caroleo, op. cit.

[49] Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2013(INL)), liberamente consultabile al seguente link: https://www.europarl.europa.eu/; considerando A-Y.

Nello specifico si v. Considerando B in riferimento alla complessità del fenomeno descritto e delle sue implicazioni socio-economico-politico-giuridiche: “considerando che l’umanità si trova ora sulla soglia di un’era nella quale robot, bot, androidi e altre manifestazioni dell’intelligenza artificiale sembrano sul punto di avviare una rivoluzione industriale, suscettibile di toccare tutti gli strati sociali, rendendo imprescindibile che la legislazione ne consideri le implicazioni e le conseguenze legali ed etiche senza ostacolare l’innovazione”; Considerando D in riferimento all’impatto economico del fenomeno in esame: “considerando che tra il 2010 e il 2014 la crescita media delle vendite dei robot era stabile al 17% annuo e che nel 2014 è aumentata al 29%, il più considerevole aumento annuo mai registrato, e che i fornitori di parti motrici e l’industria elettrica\elettronica sono i principali propulsori della crescita; che le richieste di brevetto per le tecnologie robotiche sono triplicate nel corso dell’ultimo decennio”; Considerando R in riferimento all’attività degli altri Stati extra europei ed europei: “considerando che alcuni Stati esteri quali Stati Uniti, Giappone, Cina e Corea del Sud stanno prendendo in considerazione, e in una certa misura hanno già adottato atti normativi in materia di robotica e intelligenza artificiale, e che alcuni Stati membri hanno iniziato a riflettere sulla possibile elaborazione di norme giuridiche o sull’introduzione di cambiamenti legislativi per tenere conto delle applicazioni emergenti di tali tecnologie”.

[50] Ivi, Considerando U: “considerando che è necessaria una serie di norme che disciplinino in particolare la responsabilità, la trasparenza e l’assunzione di responsabilità e che riflettano i valori intrinsecamente europei, universali e umanistici che caratterizzano il contributo dell’Europa alla società; che tali regole non devono influenzare il processo di ricerca, innovazione e sviluppo nel settore della robotica”

[51] Ivi, Considerando Z: “considerando che, grazie agli strabilianti processi tecnologici dell’ultimo decennio, non solo oggi i robot sono in grado di svolgere attività che tradizionalmente erano tipicamente ed esclusivamente umane, ma lo sviluppo di determinate caratteristiche autonome e cognitive, ad esempio la capacità di apprendere dall’esperienza e di prendere decisioni quasi indipendenti, li ha resi sempre più simili ad agenti che interagiscono con l’ambiente circostante e sono in grado di alterarlo in modo significativo; che, in tale contesto, la questione della responsabilità giuridica derivante dall’azione nociva di un robot diventa essenziale

[52] Ivi Considerando AA: “considerando che l’autonomia di un robot può essere definita come la capacità di prendere decisioni e metterle in atto nel mondo esterno, indipendentemente da un controllo o un’influenza esterna: che tale autonomia è di natura puramente tecnologica e il suo livello dipende dal grado di complessità con cui è stata progettata l’interazione di un robot con l’ambiente e Considerando AB: considerando che più i robot sono autonomi, meno possono essere considerati come meri strumenti nelle mani di altri attori (quali il fabbricante, l’operatore, il proprietario, l’utilizzatore, ecc.); che ciò, a sua volta, pone il quesito se le regole ordinarie in materia di responsabilità siano sufficienti o se ciò renda necessari nuovi principi e regole volte a chiarire la responsabilità legale dei vari attori per azioni o omissioni imputabili ai robot, qualora le cause non possano essere ricondotte a un soggetto umano specifico, e se le azioni o omissioni legate ai robot che hanno causato danni avrebbero potuto essere evitate”.

[53] Ibi

[54] Ivi, Considerando AFconsiderando che, nell’ipotesi in cui un robot possa prendere decisioni autonome, le norme tradizionali non sono sufficienti per attivare la responsabilità per i danni causati da un robot, in quanto non consentirebbero di determinare qual è il soggetto cui incombe la responsabilità del risarcimento né di esigere da tale soggetto la riparazione dei danni causati”. Considerando AHconsiderando che, per quanto riguarda la responsabilità extracontrattuale, la direttiva 85/374/CEE riguarda solamente i danni causati dai difetti di fabbricazione di un robot e a condizione che la persona danneggiata sia in grado di dimostrare il danno effettivo, il difetto nel prodotto e il nesso di causalità tra difetto e danno e che pertanto la responsabilità oggettiva o la responsabilità senza colpa potrebbero non essere sufficienti”. Considerando AIconsiderando che, nonostante l’ambito di applicazione della direttiva 85/374/CEE, l’attuale quadro giuridico non sarebbe sufficiente a coprire i danni causati dalla nuova generazione di robot, in quanto questi possono essere dotati di capacità di adattamento e di apprendimento che implicano un certo grado di imprevedibilità nel loro comportamento, dato che imparerebbero in modo autonomo, in base alle esperienze diversificate di ciascuno, e interagirebbero con l’ambiente in modo unico e imprevedibile”.

[55] Ivi, Considerando AC ”considerando che, in ultima analisi, l'autonomia dei robot solleva la questione della loro natura alla luce delle categorie giuridiche esistenti e dell'eventuale necessità di creare una nuova categoria con caratteristiche specifiche e implicazioni proprie”.

[56] Ivi, Punto 1

[57] Ivi, Punto 52

[58] Ivi, Punto 53; L’approccio della responsabilità oggettiva (c.d. strict liability) comporta un’agevolazione per la vittima dell’illecito dannoso in quanto la stessa potrà provare soltanto il danno avvenuto, il funzionamento lesivo del robot ed il nesso di causalità tra il funzionamento lesivo e il danno subito; l’approccio di gestione del rischio (c.d. risk management approach) permette di attribuire l’onere risarcitorio in capo alla persona che, valutate le circostanze, avrebbe maggiore capacità di minimizzare i rischi o, comunque sia, di affrontare le conseguenze negative prodottesi. La configurazione in termini di alternatività fra gli approcci è stata ampiamente criticata in dottrina: sul punto si rinvia a A. Amidei, “Robotica intelligente e responsabilità: profili e prospettive evolutive del quadro normativo europeo”, cit. p. 87; G. Capilli, “Responsabilità e robot”, in Nuova giurisprudenza civile commentata, ISSN 1593-7305, 3, 2019, p. 629-630; U. Ruffolo, “Per i fondamenti di un diritto della robotica self-learning; dalla machinery produttiva all’auto driverless: verso una responsabilità da algoritmo”, cit. p. 12; in cui gli A. sostengono la possibilità di applicare congiuntamente i due approcci ai fini di determinare la responsabilità civile.

[59] ] Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2013(INL)), Punto 59

[60] A. Amidei, “Robotica intelligente e responsabilità: profili e prospettive evolutive del quadro normativo europeo”, cit.; U. Ruffolo, “Per i fondamenti di un diritto della robotica self-learning; dalla machinery produttiva all’auto driverless: verso una responsabilità da algoritmo”, cit.;

[61] A. Amidei, “Robotica intelligente e responsabilità: profili e prospettive evolutive del quadro normativo europeo”, cit.; G. Guerra, “La sicurezza degli artefatti robotici in prospettiva comparatistica. Dal cambiamento tecnologico all’adattamento giuridico”, cit.,

[62] Si riferisce alla Direttiva 85/374/CEE; la finalità è stata ribadita nella Relazione della Commissione del 7.5.2018 sull'applicazione della direttiva del Consiglio relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli Stati Membri in materia di responsabilità per danno da prodotti difettosi (direttiva 85/374/CEE), disponibile al sito: https://eur-lex.europa.eu/

[63] Nel contesto domestico tale approccio ha trovato seguito soprattutto in materia di circolazione stradale e in tema di infortuni sul lavoro mentre, per il resto, è stato considerato assai di rado: in questi termini si esprime E. El Mureden, Presentazione, a G. Calabresi, “Costo degli incidenti e responsabilità civile – Analisi economico-giuridica (Ristampa)”, Giuffré, Milano, 2015, p. VII; sui profili economici della responsabilità da prodotto difettoso, si v. Corte giust. Ue, 5.3.20115, in (cause riunite c-503/13 e c-504/13, con commento di S. Nobile De Santis, in Reps. civ. prev. ISSN 2499-2453, 3, 2015

[64] Sulla funzione organizzativa della responsabilità civile, ampiamente condivisa dai sostenitori dell’analisi economica del diritto, si v. P.G. Monateri, “La responsabilità civile”, in Trattato di diritto civile: le fonti delle obbligazioni, diretto da R. SACCO, Vol. III, Torino, Utet, 1998, p. 19-21; C. Camardi, “Le istituzioni del diritto privato contemporaneo”, Napoli, Jovene, 2010, p. 319

[65] Art. 117, comma 1 Cod. cons.: “Un prodotto è difettoso quando non offre la sicurezza che ci si può legittimamente attendere tenuto conto di tutte le circostanze”

[66] La dicitura disciplina pubblicistica della produzione è di U. Carnevali, “La responsabilità del produttore”, Milano, Giuffré, 1979, pp. 90-98, cui si rinvia.

[67] Sul rapporto fra i nuovi rischi tecnologici e la responsabilità da prodotto difettoso si consiglia F. Ruscello, “La direttiva 2001/95/CE sulla sicurezza generale dei prodotti. Dalla tutela del consumatore alla tutela della persona”, in Vita not., ISSN 1824-1484, 2004, p. 147; F. Santonastaso, “Principio di precauzione e responsabilità d’impresa: rischio tecnologico e attività pericolosa per sua natura. Prime riflessioni su un tema di ricerca” in Contratto e impresa Europa, ISSN 1127-2872, 2005 pp. 21-105; A. Oddo, “Sicurezza dei prodotti e responsabilità per danno da prodotto: artt. 102-127 del codice del consumo”, in Dir. comm. scam. Internaz., ISSN 0391-6111

2009, pp. 393-414.; F. Ceserani, “I nuovi rischi di responsabilità civile: rischi lungolatenti e rischi emergenti. Tendenze ed orientamenti nelle "coverage trigger disputes” in Diritto ed economia dell'assicurazione, ISSN 1125-9302, 2010, pp. 3-100; R. Montinaro, “Dubbio scientifico e responsabilità civile”, Milano, Giuffrè, 2012;  E. Al Mureden, “Il danno da prodotto conforme”, Torino, Giappichelli, 2017.

[68] Il documento è consultabile al seguente indirizzo: http://www.europarl.europa.eu/

[69] Si tratta della relazione della Commissione al Parlamento europeo, al Consiglio e al Comitato economico e sociale europeo sull'applicazione della direttiva del Consiglio relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli Stati Membri in materia di responsabilità per danno da prodotti difettosi (direttiva 85/374/CEE), consultabile al link: https://eur-lex.europa.eu/.

[70] Ivi, p. 2

[71] Ivi, p. 6 e ss.

[72] Ivi, p. 7

[73] Ivi, p. 11

[74] Il parere del Gruppo di esperti, dal titolo “Liability for Artificial Intelligence and other emerging digital technologies” è liberamente consultabile al seguente link: https://ec.europa.eu/; in particolare, il tenore del quesito posto è esplicitato a p. 13;

[75] Ivi, Executive Summary, p. 3    

[76] Ibi, “In its assessment of existing liability regimes in the wake of emerging digital technologies, the New Technologies Formation of the Expert Group has concluded that the liability regimes in force in the Member States ensure at least basic protection of victims whose damage is caused by the operation of such new technologies. However, the specific characteristics of these technologies and their applications – including complexity, modification through updates or selflearning during operation, limited predictability, and vulnerability to cybersecurity threats – may make it more difficult to offer these victims a claim for compensation in all cases where this seems justified. It may also be the case that the allocation of liability is unfair or inefficient. To rectify this, certain adjustments need to be made to EU and national liability regimes”.

[77] Ivi, Key Findings, Punto 3, p. 5: “While existing rules on liability offer solutions with regard to the risks created by emerging digital technologies, the outcomes may not always seem appropriate, given the failure to achieve: (a) a fair and efficient allocation of loss, in particular because it could not be attributed to those: § whose objectionable behaviour caused the damage; or § who benefitted from the activity that caused the damage; or § who were in control of the risk that materialised; or § who were cheapest cost avoiders or cheapest takers of insurance. (b) a coherent and appropriate response of the legal system to threats to the interests of individuals, in particular because victims of harm caused by the operation of emerging digital technologies receive less or no compensation compared to victims in a functionally equivalent situation involving human conduct and conventional technology; (c) effective access to justice, in particular because litigation for victims becomes unduly burdensome or expensive”; si veda anche p. 34.

[78] Ivi, Punto 4: “It is therefore necessary to consider adaptations and amendments to existing liability regimes, bearing in mind that, given the diversity of emerging digital technologies and the correspondingly diverse range of risks these may pose, it is impossible to come up with a single solution suitable for the entire spectrum of risks”; si veda anche pp. 36-40.

[79] Ivi, Punto 8: “For the purposes of liability, it is not necessary to give autonomous systems a legal personality”. Il riferimento è alla lettera f. del punto 59 della Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2013(INL)), con cui il Parlamento europeo ha invitato “la Commissione a esplorare, esaminare e valutare, nell'ambito della valutazione d'impatto del suo futuro strumento legislativo, le implicazioni di tutte le soluzioni giuridiche possibili, tra cui […] l’'istituzione di uno status giuridico specifico per i robot nel lungo termine, di modo che almeno i robot autonomi più sofisticati possano essere considerati come persone elettroniche responsabili di risarcire qualsiasi danno da loro causato, nonché eventualmente il riconoscimento della personalità elettronica dei robot che prendono decisioni autonome o che interagiscono in modo indipendente con terzi”.

[80] Matthias, A. op. cit.; sull’opportunità di ampliare il novero dei soggetti di diritti ai fini dell’imputazione della responsabilità, si rinvia alle riflessioni di C. Perlingieri, L’incidenza dell’utilizzazione della tecnologia robotica nei rapporti civilistici, ISSN 0393-182X, 4,2015, pp. 1243 - 1245 in cui l’A. evidenzia l’esigenza di individuare l’interesse meritevole di tutela alla luce dei principi generali del nostro ordinamento, qualificando il principio della dignità umana come la linea di demarcazione ontologica fra persone e cose;

[81] Sulla non esigenza di attribuire personalità per imputare responsabilità, si v. U. Ruffolo, “Per i fondamenti di un diritto della robotica self-learning; dalla machinery produttiva all’auto driverless: verso una responsabilità da algoritmo”, cit. pp. 28-30; sul rischio di equivoci derivanti da una siffatta scelta si v. E. Palmerini, “Robotica e diritto: suggestioni, intersezioni, sviluppi a margine di una ricerca europea”, cit. pp. 1837-1839; analoghe riflessioni sono presenti in G. Guerra, op. cit., p. 126; G. Comandé, “Responsabilità ed accountability nell’era dell’Intelligenza Artificiale” in Giurisprudenza e Autorità Indipendenti nell’epoca del diritto liquido, Studi in Onore di Roberto Pardolesi (A cura di F. Di Ciommo e O. Troiano), La Tribuna Srl, p. 1010.

[82] Sul problema della qualificazione del robot come res, si rinvia ad A. Santosuosso, C. Boscarato, F. Caroleo, op. cit.; più di recente si veda M. Costanza, “L’Intelligenza Artificiale e gli stilemi della responsabilità civile”, in Giurisprudenza Italiana, ISSN 1125-3029, luglio 2019, pp. 1686-1689.

[83] Parere gruppo di esperti: “Liability for Artificial Intelligence and other emerging digital technologiesKey Findings, Punti 5, 6.

[84] Ivi, Punti 9, 10 p. 6; specificazioni si individuano al capo III. Specific challenges to existing tort law regimes posed by emerging digital technologies, Punto 5, pp. 25 ss.; Punto 6. Producer’s strict liability, pp. 42-44.

[85] Ivi, Punti 10 e 12 p. 6.

[86] Ivi, Punti 5, 6, 7.

[87] Ivi, Punti, 18 e 19, nonché Vicarious liability for autonomous systems, Punto 8, pp. 45-46

[88] Art. 118 Cod. cons.: “La responsabilita' e' esclusa: e) se lo stato delle conoscenze scientifiche e tecniche, al momento in cui il produttore ha messo in circolazione il prodotto, non permetteva ancora di considerare il prodotto come difettoso”;

[89] Parere gruppo di esperti: “Liability for Artificial Intelligence and other emerging digital technologies”, 6. Producer’s strict liability, pp. 42.

[90] Ivi, p. 43, “As indicated above, emerging digital technologies are characterised by limited predictability. This phenomenon will intensify with the dissemination of machine learning. The interconnectedness of devices, as well as threats to cyber security, also contribute to difficulties in predicting the product’s performance. A defect in digital content or in a product with digital elements may therefore result from the impact of the environment in which the product operates or from the product’s evolution, for which the manufacturer only created a general framework but which they did not design in detail. In view of the need to share benefits and risks efficiently and fairly, the development risk defence, which allows the producer to avoid liability for unforeseeable defects, should not be available in cases where it was predictable that unforeseen developments might occur”.

[91] Ivi, pp. 42-44.

[92] Ivi, p. 44, ove si stabilisce che “Producers’ strict liability for defective products should be supplemented with fault-based liability for failure to discharge monitoring duties”.

[93] Per un’introduzione al tema, si rinvia a U. Izzo, “La precauzione nella responsabilità civile”, Padova, 2007; G. Comandé, La responsabilità civile per danno da prodotto difettoso … assunta con “precauzione”, in Danno e responsabilità, ISSN 1125-8918, 1, 2013, pp. 107-112.

[94] G. Guerra, op. cit., p. 83 e spec. nota 8;

[95] Parere gruppo di esperti: “Liability for Artificial Intelligence and other emerging digital technologies”, 7. Fault liability and duties of care, pp. 44-45

[96] Ivi, 12. Burden of proving fault, p. 52

[97] Ivi, pp. 52-55;

[98] Il tema della polifunzionalità della responsabilità civile contemporanea è molto discusso in dottrina: per un primo esame si rinvia a R. Simone, “Dalla polifunzionalità della responsabilità civile ai risarcimenti punitivi”, in Questione Giustizia, ISSN 1125-8918, 1, 2018, pp. 136 – 143; V. Roppo, “Pensieri sparsi sulla responsabilità civile (in margine al libro di P. Trimarchi)”, in Questione giustizia, ISSN 1125-8918, 1, 2018, pp. 108 -113 in cui l’A. offre considerazioni a margine del libro di P. Trimarchi, “La responsabilità civile: atti illeciti, rischio, danno”, Milano, Giuffré, 2017

[99] E. Bellisario, “Il danno da prodotto conforme. Tra regole preventive e regole risarcitorie”, in Europa e diritto privato, ISSN 1720-4542, 3, 2016, pp. 841-882; E. Bellisario, “La rilevanza del criterio presuntivo della conformità alle norme armonizzate”, in Persona e Mercato, ISSN 2239-8570, 2012, pp. 156-161; P. De Martino, “La tutela dei consumatori: sulla sicurezza e qualità dei prodotti, anche alimentari”, Aa.vv., Scritti in memoria di G. Cattaneo, I, Milano, Giuffrè, 2002, p. 537; U. Carnevali, “Prevenzione e risarcimento nelle direttive comunitarie sulla sicurezza dei prodotti”, in Resp. civ. e prev., ISSN 2499-2453, 1, 2005, pp. 3-20; E. Al Mureden, “Il danno da prodotto conforme”, cit; U. Carnevali, “La norma tecnica da regola di esperienza a norma giuridicamente rilevante, ricognizione storica e sistemazione teorica ruolo dell’UNI e del CEI”, in Resp. civ. e prev., ISSN 2499-2453, 1,1997, p. 267 in cui l’A. ritiene illogico pensare che un prodotto considerato sicuro dalla normativa sulla sicurezza, in quanto conforme alle norme tecniche armonizzate, possa essere considerato al contempo difettoso in ambito civilistico, perché non corrispondente alle legittime aspettative di sicurezza dell’utente. L’opinione viene ribadita in U. Carnevali, “sub. Art 105, Commentario breve al diritto dei consumatori”, Padova, Cedam, p. 721.

[100] Parere gruppo di esperti: “Liability for Artificial Intelligence and other emerging digital technologies”, 10. Safety rules, pp. 48-49

[101] Una breve rassegna del nuovo approccio è disponibile nella Guida Blu all’attuazione della normativa Ue sui prodotti, (2016/C 272/01) al par. 1.1.3. pp. 7-9, pubblicata sulla Gazzetta Ufficiale dell’Unione europea ad opera della Commissione Europea e consultabile al sito: https://www.to.camcom.it/

La strategia di nuovo approccio, avviata con le risoluzioni del 7 maggio 1985 e del 21 dicembre 1989, è stata completata con le decisioni del Consiglio n. 683 del 13 dicembre 1990, n. 465 del 22 luglio 1993 e n. 768 del 9 luglio 2008. Successivamente le norme europee in materia hanno stabilito soltanto i risultati da raggiungere e i rischi da evitare senza specificare i mezzi tecnici idonei a raggiungere tali obiettivi, la cui scelta è stata rimessa al produttore.

[102] Parere gruppo di esperti: “Liability for Artificial Intelligence and other emerging digital technologies”, 10. Safety rules, p. 49

[103] Ibi

[104] Ibi

[105] ibi

[106] E. Bellisario, “La rilevanza del criterio presuntivo della conformità alle norme armonizzate”, cit., pp. 156-161; Id, “Il danno da prodotto conforme. Tra regole preventive e regole risarcitorie”, cit., pp. 877-878; M. L. Loi, “sub art. 5”, in Aa. Vv., La responsabilità per danno da prodotti difettosi, Comm, Pardolesi e Ponzanelli, Nuove leggi civ. comm., 1989, p. 546; P. De Martino, “La tutela dei consumatori: sulla sicurezza e qualità dei prodotti, anche alimentari”, op. cit. p. 537. Interessante pronuncia di merito sul punto è stata adottata dal Trib. Rimini, 31.12.2008, in Danno resp., 2009, p. 432 secondo cui la marcatura CE in ambito civilistico non costituisce una presunzione di non pericolosità ma soltanto una mera attestazione di rispetto dei precetti legislativi da parte del produttore.

[107] R. Montinaro, “Dubbio scientifico e responsabilità civile”, cit., p. 158-172.

[108] Parere gruppo di esperti: “Liability for Artificial Intelligence and other emerging digital technologies”, 9. Logging by design, pp. 47-48

[109] Ibi

[110] A. Amidei, “Robotica intelligente e responsabilità: profili e prospettive evolutive del quadro normativo europeo”, cit. p.87; G. Capilli, op. cit., p. 629-630; U. Ruffolo, “Per i fondamenti di un diritto della robotica self-learning; dalla machinery produttiva all’auto driverless: verso una responsabilità da algoritmo”, cit. p. 12; in cui gli A. sostengono la possibilità di applicare congiuntamente i due approcci ai fini di determinare la responsabilità civile.

[111] Parere gruppo di esperti: “Liability for Artificial Intelligence and other emerging digital technologies”, 18 Compensation Funds p. 62 “If liability regimes described above (producerr’s and operator’s strict liability and wrongdoer’s fault-based liability) function properly, there is no need to establish new kinds of compensation funds, funded and operated by the state or other institutions and aiming to compensate victims for losses suffered as a result of operating emerging digital technologies”. Più in generale, sugli strumenti assicurativi e la possibilità di prevedere fondi specifici, ivi pp. 61-62

[112] Ivi, p. 63

[113] G. Comandé. “Responsabilità ed accountability nell'era dell'Intelligenza artificiale” cit.; in materia di r.c. auto, A. Davola, R. Pardolesi, op. cit., pp.627-631.

[114] In Italia, fino agli anni ’60, tranne isolati studi di matrice comparatistica sull’esigenza di interpretare in modo nuovo la materia, dottrina e giurisprudenza riconducevano il sistema della responsabilità civile al principio della colpa. Un’importante eccezione è rappresentata dagli studi condotti da G. Minervini, “Orientamenti verso la responsabilità senza colpa nella più recente dottrina straniera”, in Atti del primo convegno nazionale di studi giuridico-comparativi, Roma, 1953. Successivamente, la dottrina si è interessata al problema del valore sistematico della responsabilità oggettiva, indagando la possibilità di individuare un unico criterio di imputazione della responsabilità, da porre a fondamento del sistema unitario della responsabilità oggettiva, contrapposto a quello della responsabilità soggettiva, imputabile per colpa o dolo. La responsabilità oggettiva è stata, quindi, ricostruita, a seconda della dottrina, sulla base del criterio economico del rischio di impresa, di quello giuridico dell’esposizione al pericolo, o dell’imputazione normativa. Per approfondimenti si rinvia a M. Comporti, “Fatti illeciti. Le responsabilità oggettive. Artt. 2049-2053”, in IlCodiceCivile-Commentario, Milano, Giuffrè, p. 33; nonché a P. Trimarchi, “Rischio e responsabilità oggettiva”, Giuffré, Milano, 1961 per un’esplicitazione della teoria economica del rischio d’impresa; M. Comporti, “Esposizione al Pericolo e Responsabilità civile”, Morano, Napoli, 1965 per una disamina della teoria giuridica del pericolo; R. Scognamiglio, voci “Illecito (diritto vigente)”, in Noviss. Dig. It., VIII, Torino, 1962. e Rodotà, “Il problema della Responsabilità civile”, Giuffré, Milano, 1964, per la teoria dei criteri normativi.

[115] Con riferimento alla responsabilità da prodotto, la Commissione ha definito l’onere probatorio come il costo più importante gravante sul danneggiato, per approfondimenti si rinvia alla Relazione della Commissione del 7.5.2018 sull'applicazione della Direttiva 85/374/CEE in materia di responsabilità da prodotto difettoso. Approcciando economicamente il contenuto normativo, la Commissione ha specificato come la direttiva preveda costi speculari per gli operatori economici: per i produttori si tratta di quello dato dalla responsabilità oggettiva; per i consumatori di quelli dati dall’onere della prova, la franchigia sulla risarcibilità del danno e le limitazioni temporali. Per riflessioni sul punto, con specifico riferimento alla responsabilità da prodotto difettoso, si rinvia a G. Guerra, op. cit., pp. 89-151.

[116] Parere gruppo di esperti: “Liability for Artificial Intelligence and other emerging digital technologies”, Executive Summary, p. 3 ove si riconosce che, in definitiva, “certain adjustments need to be made to EU and national liability regimes”.

[117] Ivi, p. 4

[118] Ivi, 11. Burden of proving causation, pp. 49-52

[119] Ivi, 12. Burden of proving fault, pp. 52-55

[120] Un’analisi d’insieme sulla fortuna riscossa dalla normativa in esame in ambito europeo è offerta dalla relazione della Commissione sull’applicazione della direttiva 85/374/CE del 7.5.2018 COM(2018) 246 final, pp. 4-5 consultabile al sito: https://ec.europa.eu/. In quella sede la Commissione europea ha valutato i risultati statistici emersi a seguito di uno studio esterno dalla stessa commissionato: tale studio ha individuato 798 richieste fondate su norme in materia di responsabilità per danno da prodotti difettosi fra il 2000 e il 2016 in media per Stato, numero davvero esiguo, con ogni probabilità inferiore a quello reale. Di queste controversie, la maggioranza è stata risolta in via extragiudiziale. Dal punto di vista dei prodotti interessati, invece, il 21,2 % dei casi è occupato dalle materie prime, a seguire i prodotti farmaceutici (16.1%), i veicoli (15,2 %) e i macchinari (12,4 %). Nel contesto nazionale, la generalità degli studi condotti sugli effetti della Direttiva 85/374/CE evidenziano lo scarso richiamo della disciplina in esame rispetto ai danneggiati (rectius i loro difensori). Si riferisce, fra i tanti, alle osservazioni di A. Fusaro, Danno da prodotti pericolosi o difettosi: regole di riferimento ed incertezze ermeneutiche, cit., pp. 203-204; G. Alpa, La responsabilità d’impresa nel terzo millennio, cit., pp. 36-42; L. Mormile, Il principio di precauzione fra gestione del rischio e tutela degli interessi privati, cit., p. 266-272; e soprattutto L. Cabella Pisu, Ombre e luci nella responsabilità del produttore, cit., pp. 617-623

[121] A. Oddo, op. cit., pp. 393 ss.

[122] Si tratta di una riflessione comune alla quasi totalità degli studiosi che hanno indagato la questione: si rinvia a G. Capilli, Responsabilità e robot, cit., pp. 629-631; nonché A. Santosuosso, C. Boscarato, F. Caroleo, “Robot e diritto: una prima ricognizione”, cit., pp. 513-514; per approfondimenti sul rapporto responsabilità sicurezza negli artefatti robotici si consiglia G. Guerra, La sicurezza degli artefatti robotici in prospettiva comparatistica. Dal cambiamento tecnologico all’adattamento giuridico, cit, pp. 89-151

[123] Il problema dell’individuazione della soglia del rischio accettabile connesso allo sviluppo tecnologico è un problema ampiamente dibattuto in dottrina: in questa sede ci si limita ad osservare che è compito del potere politico individuare la soglia di rischio accettata dalla collettività rispetto alla produzione e all’uso di una data tecnologia potenzialmente lesiva che, nel caso specifico, dovrà tenere in considerazione l’intrinseca capacità dei robot autonomi di conservare un certo grado di imprevedibilità. Per più ampie considerazioni sul dubbio scientifico si rinvia a R. Montinaro, Dubbio scientifico e responsabilità civile, cit.

[124] Parere gruppo di esperti: “Liability for Artificial Intelligence and other emerging digital technologies”, 18 Compensation Funds pp. 62-63; per osservazioni sul punto si rinvia a G. Capilli, op. cit., pp. 630-631.

[125] Per riflessioni sul tema, si rinvia a E. Bellisario, “Il danno da prodotto conforme. Tra regole preventive e regole risarcitorie”, cit.; Id, “La rilevanza del criterio presuntivo della conformità alle norme armonizzate”, cit.; Id, “Il danno da prodotto conforme. Tra regole preventive e regole risarcitorie”, cit., pp. 877-878; M. L. Loi, “sub art. 5”, cit., p. 546. Con riferimento agli artefatti robotici, si veda G. Guerra, op. cit.; sull’opportunità di adottare l’approccio by design si rinvia a A. Santosuosso, C. Boscarato, F. Caroleo, op. cit., pp. 513-514; U. Ruffolo, “Per i fondamenti di un diritto della robotica self-learning; dalla machinery produttiva all’auto driverless: verso una responsabilità da algoritmo”, cit. p. 22; e in maniera più approfondita G. Guerra, pp. 33-150, spec. p. 124 e pp. 143.145. Sull’opportunità di dotare la macchina di sistemi di autolimitazione, si rinvia a L. Coppini, op. cit.., p. 721, nonché, di recente U. Ruffolo, “Intelligenza Artificiale, machine learning e responsabilità da algoritmo”, in Giurisprudenza Italiana, ISSN 1125-3029, luglio 2019, pp. 1689-1704; A. Amidei, “Intelligenza Artificiale e product liability: sviluppi del diritto dell’Unione Europea” in Giurisprudenza Italiana, ISSN 1125-3029, luglio 2019, pp. 1715-1726.


Note e riferimenti bibliografici