• . - Liv.
ISCRIVITI (leggi qui)
Pubbl. Mar, 6 Giu 2023
Sottoposto a PEER REVIEW

Il robot come servus novus: spunti di comparazione e tentativi storici di approccio alla disciplina della odierna intelligenza artificiale

Modifica pagina

Mattia Gemelli
Dottorando di ricercaUniversità degli Studi di Roma Tor Vergata



Lo scopo del seguente lavoro di risponde all´esigenza di comparare le categorie del diritto romano, circa la disciplina della schiavitù e dei suoi precipitati sulla concezione della rispettiva personalità giuridica, con le nuove frontiere tecnologiche in tema di intelligenze artificiali. Il progetto medesimo, quindi, si prefigge di interrogarsi sulla bontà di tale comparazione, per tentare di offrire all´attuale quadro in tema di responsabilità civile da I.A., nuovi spunti da cui partire, per alimentare il dibattito sugli scenari giuridici futuribili.


ENG

The robot as servus novus: points of comparison and historical attempts to approach the discipline of today´s artificial intelligence

The purpose of the work responds to the need to compare the categories of Roman law, regarding the discipline of slavery and its precipitates on the conception of the respective legal personality, with the new technological frontiers in terms of artificial intelligence. The project itself, therefore, aims to question the goodness of this comparison, to try to offer the current framework in terms of civil liability from I.A., new ideas from which to start, to fuel the debate on future legal scenarios.

Sommario: 1.1 Introduzione al problema: un tertium genus ? 1.2 La definizione di robot e la sua classificazione nell’ottica di una tipizzazione del fenomeno; 1.3 Considerazioni attorno alla possibilità di valutare la macchina come un agente: l’umanizzazione digitale; 1.4 Il problema del self-learning come apertura alla individuazione di nuove responsabilità, nel passaggio da considerazione ontologica a quella funzionale; 1.5 I protagonisti in campo nella partita dell’imputazione della responsabilità per la macchina robotica; 1.6 Il panorama del dibattito aperto sulla liability per danno da macchina robotica dotata di intelligenza artificiale; 1.7 Il robot come nuovo schiavo: punti di contatto tra realtà distanti. 1.8 Nuovi orizzonti e soluzioni romanistiche prospettabili.

1.1 Introduzione al problema: un tertium genus? 

In questo lavoro vengo ad affrontare l'annoso – al giorno d'oggi – problema che ruota attorno ad uno degli innegabili protagonisti della vita quotidiana del futuro: l’intelligenza artificiale.

Ad oggi la disciplina sull'intelligenza artificiale risulta anacronistica rispetto alle ampie esigenze (senza risposta) cui il progresso tecnologico, scientifico ed ingegneristico ci pongono di fronte.

Sicuramente, il cruccio del giurista odierno ha sede in un importante interrogativo, in grado di segnare un insormontabile ostacolo a fronte delle nuove necessità ingenerate dalla nascita e dallo sviluppo crescente di software sempre più sofisticati, limitatamente alla questione della responsabilità del danno prodotto dall'intelligenza robotica. Per attribuire una responsabilità, occorre di norma individuare un autore materiale di un comportamento che, cosciente, abbia voluto oppure imprudentemente arrecato un danno da risarcire.

Secondo la classica impostazione (teorizzata già nel codice civile) la macchina non può che essere un mezzo sottoposto alla completa signoria del padrone, il quale, assumendosi i rischi del suo utilizzo, si ritiene responsabile dei danni da essa perpetrati. L'intelligenza robotica non può rispondere dei danni propri e non è una soggettività giuridica, non solo perché non ha un patrimonio, ma in quanto incapace di volere, sebbene non di agire "su comando”: "cogito, ergo sum”.

“Sono” e sono responsabili i soli soggetti che hanno una propria coscienza e che quindi pensano ed agiscono, in maniera individuale o collettiva è indifferente, ma solo chi esprime una volontà in modo autonomo può avere personalità per il diritto. Eppure il progresso tecnologico, introducendo robot sempre più performanti e capaci di intrattenere relazioni indipendenti con i terzi, incrinerà spaventosamente l'assunto della impossibilità per il software di poter rispondere delle proprie azioni. Si pensi che, per arginare il presentimento della inadeguatezza di una simile impostazione, il parlamento europeo, con una risoluzione1 del febbraio del 2017, ha chiesto alla Commissione UE di istituire addirittura un nuovo status giuridico, individuato nella c.d. "personalità elettronica”, cioè una situazione soggettiva che investe la macchina dotata di spiccata autonomia ed intraprendenza: difatti, l’attenzione del legislatore europeo, di fronte a robot sempre più indipendenti dalle volontà del programmatore, si incentra sulla necessità di concepire una sorta di cuscinetto di protezione, per il proprietario o il programmatore stesso, che si ponga l’obbiettivo di escludere dalla responsabilità di quest’ultimo, per tutti quei comportamenti non previsti e non prevedibili dell’automa, che sfuggono al dominio del proprio "dominus”.

Per questo, dunque, mi sembra opportuno cercare di dare delle risposte storiche alla questione aperta della responsabilità dell'agente elettronico, mutuando dalla disciplina romana delle attività del servo alcuni spunti di riflessione per il progresso delle future regolamentazioni in materia. Pertanto, la figura del servus e la sua disciplina giuridica potrebbero senza dubbio presentare limpide somiglianze con le personalità robotiche, in quanto anch'essi dotati di una spiccata autonomia nel prendere decisioni, ma non in grado di poter rispondere con le proprie sostanze.

Sarà importante osservare altresì i vari livelli di responsabilità tra produttore, programmatore e proprietario anche avverso i terzi, indossando le lenti dello storico del diritto, tramite la comparazione degli elementi di diritto antico in nostro possesso. 

1.2 La definizione di robot e la sua classificazione nell’ottica di una tipizzazione del fenomeno 

Il termine "robot” è un lemma atecnico, che è stato coniato in un'opera teatrale di Karel Čapek, il quale parlava di robot come un "lavoratore controllato dall’uomo2”. Il termine, quindi, anche se deriva dalla letteratura, risulta difficile da decifrare, poiché non ha un'origine nelle scienze sociali o giuridiche, né costituisce un termine definito con precisione o in modo univoco, nel mondo ingegneristico. Esistono delle definizioni tecniche di robot, ma coesistono, in maniera quasi ancillare, anche talune spiegazioni generaliste che si trovano sui dizionari, nonostante siano in parte fuorvianti.
Quel che la robotica è oggi, ad esempio, senza dubbio, non rientra nella definizione del Merriam Webster Dictionary, che, assegnando al robot il crisma di una macchina "that resembles a living creature in being capable of moving3 [...]” (“che somiglia ad una creatura vivente nella capacita di muoversi”), soggiunge parzialmente ad un errore, perché non tutte le macchine robotiche hanno un aspetto umano, come, allo stesso tempo, non tutti i robot compiono azioni complesse; ci sono macchine pensate per simulare emozioni e promuovere interazioni sociali, ma, allo stesso tempo, esistono forme di intelligenza elettronica non dotate di movimento né tantomeno di software che permettano loro di intrattenere relazioni con i terzi.

A tal proposito, prendiamo in considerazione "ICUB”; un robot italiano, al momento uno degli androidi più avanzati che esistano al mondo, il quale viene studiato per capire anche il modo in cui l'uomo si relazioni ad una macchina, perché sembra molto umano e suscita empatia: è pensato proprio per operare in un ambiente non strutturato. Se seguissimo, dunque, le speculazioni del Merriam Webster Dictionary, ci troveremmo di fronte ad un palese ostacolo che non ci permetterebbe di poter includere in questa definizione la congerie delle intelligenze artificiali delle quali facciamo largo utilizzo: per intenderci, non vi rientrerebbero, seguendo questa linea, i robot per pulire i pavimenti, i droni ovvero molti dei robot esistenti, compresi quelli di grande portata applicativa, come i robot chirurgici. Ora, è bene fin da subito chiarire (anche propedeuticamente alle disquisizioni che faremo nei paragrafi successivi) che non sempre i robot lavorano in modo efficiente; il robot che pulisce i pavimenti, sebbene sia dotato una discreta speditezza, non lo fa in modo efficiente, ma la loro bontà sta nell’ausilio all’uomo, in quanto fanno risparmiare sostanzialmente tempo alle persone che si servono della rispettiva prestazione. Sempre per addivenire ad una definizione ecumenica, tra le tante prospettate4, che possa rendere merito allo status quo della schiera di agenti elettronici di cui ci serviamo attualmente, l'Oxford English Dictionary suggella un’altra soluzione, che ha in mente probabilmente una versione di robot immaginifica e futuristica, in quanto afferma che esso sia “a machine that is made to look like a human and that can do some things that a human can do [...]” , ovvero “una macchina che è fatta per assomigliare all’essere umano e che è in grado di fare cose che fa l’essere umano [...]”.

Tale definizione non è proprio calzante se comparata con il reale stato di avanzamento del progresso tecnologico, in quanto molto più limitato rispetto alla variante proposta dallo stesso dizionario anglofono5 e da altri della medesima provenienza6. Nella definizione della "figura robotica”, Ryan Calo7 prova a sviluppare il paradigma del c.d. sense-think-act, secondo il quale un robot percepisce l'ambiente, elabora dati e poi agisce; il solo fatto di fornire informazioni, di per sé, non è un'azione e questo impedisce di definire quell’A.I. come un robot.

Allo scopo di confrontare tale indicazione di Calo, con sistemi robotici odierni, opterei per prendere in considerazione l’avanguardistico sistema di intelligenza artificiale, conosciuto come Watson; essa è una struttura informatica computerizzata, che è in grado di capire e stabilire correlazioni tra dati che non siano evidenti; uno dei grandi elementi di differenza con macchinari analoghi, è che Watson detiene la possibilità di elaborare dati non strutturati (cioè, dati che possono essere derivati dall'analisi di testi pensati da uomini, per altri uomini), e che al tempo stesso benefici della peculiarità di creare relazioni tra enormi data analysis; una skill che permette a Watson di vantare, ad oggi, ben due applicazioni fondamentali, una in campo medico ed una in campo legale. Per meglio esporre le peculiarità del modello Watson, esso non si limita, altresì, a scoprire la risposta all'interno di informazioni che il programmatore gli ha fornito, ma è in grado di trovare nuove risposte a cui un essere umano non avrebbe potuto pensare, perché capace di sintetizzare correlazioni tra i dati: ciò presta il fianco ad uno dei problemi più grandi, successivamente meglio definito, che portano il mondo del diritto a trovare i primi ostacoli, ovvero il c.d. reinforce learning, attraverso il cui processo vengono consegnati alcuni dati alla macchina - che non sono mai analitici e completi, ma parziali - mediante la cui progressiva correzione, a seguito di domande man mano postele, apprende e comprende per le successive applicazioni. Alla luce di queste funzionalità di Watson, non ha molto senso l'idea di Calo, secondo cui serva un corpo "senziente” per agire sul mondo, poiché, alla luce delle sue discettazioni, Watson non rientrerebbe nella classificazione dei robot.

Ritoccando, dunque, il pensiero Caloniano, Watson può incidere profondamente sulla realtà, secondo il paradigma sense-think-act, solo se per act non si intenda interazione strettamente fisica. Dunque, la definizione di Calo è debole, per il fatto che è descrittiva, ma non universale e per questo non può assumere un valore normativo (un bancomat potrebbe essere considerato un robot, ma non, come detto, Watson): in tal senso serve, infatti, una definizione di robot che permetta di dire senza dubbio, osservando un oggetto, se quello sia un robot o meno. Viceversa, RoboLaw, importante progetto coordinato dalla Scuola Superiore Sant’Anna di Pisa, che ha presentato le sue ricerche alla Commissione per gli affari legislativi del Parlamento Europeo JURI, a Bruxelles, e si è dedicato allo studio dei problemi giuridici, etici e sociali della robotica, per valutare l’opportunità di adottare nuove discipline normative europee sul tema, ha cercato, come tutta una corrente più ampia di studi europei, di privilegiare un approccio casistico, frammentato, che parta dall’osservazione della realtà, teso ad elaborare una tassonomia del fenomeno robotico8.

Un’altra delle classiche distinzioni è quella tra robotica industriale e robotica di servizio, che poi non è altro che la distinzione tra ciò che già c'è e ciò che la robotica potrebbe diventare: la robotica industriale è molto sviluppata, mentre la robotica di servizio probabilmente è la robotica del futuro. I nuovi robot industriali sono fatti per agire in un ambiente condiviso con esseri umani, ovvero un ambiente strutturato. La robotica di servizio, invece, è una nozione amplissima: mentre il robot industriale è ciò che funziona in un ambiente controllato e strutturato per svolgere una task specifica (anche se lo sviluppo sta rendendo questa affermazione meno rigida) la robotica di servizio è ciò che opera in un ambiente non strutturato e svolge delle funzioni complesse. Ci sono diverse definizioni di autorevoli ingegneri, come Michael Brady che definisce il robot come connessione intelligente tra percezione e azione9.

Un elemento sicuramente rilevante da dirimere è se la macchina debba avere o meno un corpo; la risposta a tale interrogativo serve per distinguere tra classi di applicazioni, perché i problemi che ne discendono sono diversi. Allo stesso modo, anche il movimento dell’automa è importante, in quanto una macchina può essere completamente controllata da un essere umano o no, per cui la velocità di movimentazione, come allo stesso modo la funzione assunta dal robot (ovvero quanto l'azione sia ripetitiva e se possa richiedere una scelta tra opzioni non determinate), deve essere indagata per strutturare un quadro più completo, circa la classificazione robotica. Ultimo profilo su cui porre l’accento, che può essere usato come parametro classificatorio e definitorio è, infine, la possibilità - da parte dell’intelligenza artificiale - di incidere sull'ambiente esterno e di cooperare con gli esseri umani in varie forme e gradi: i nuovi robot industriali, difatti, sono collaborativi, perché l'essere umano può arrivare a contatto con la macchina in modo sicuro. 

1.3 Considerazioni attorno alla possibilità di valutare la macchina come un agente: l’umanizzazione digitale 

Al fine di addivenire ad una responsabilizzazione della macchina, occorre comprendere, in prima istanza, quante e quali siano le possibilità di poter definire - in maniera più o meno circostanziata - la situazione per cui l’automa possa essere considerato o meno un agente senziente e cosciente, capace di tendere gli atti al fine. La risposta a tale quesito potrebbe fare da apripista alla teoria che considera soggetto di diritto l’intelligente artificiale e che con alcuni determinati presupposti giuridici condurrebbe anche a considerarlo responsabile giuridicamente. Vari sono i responsi tra gli studiosi, tra i quali emergono le opinioni di Floridi e Guthmann, sebbene - tali soluzioni - siano leggermente differenti.

Floridi10, da parte sua, afferma che si possa ipotizzare addirittura che un termostato sia un agente morale11: la prospettiva che lui ritiene sufficiente per analizzare un robot non è l’ontologia dello stesso, ma la percezione esterna che il mondo ne ha di lui, tramite quelle che - secondo la sua visuale - sono le caratteristiche di un agente elettronico: l’autonomia, l’interattività e l’adattabilità. Oltre a ciò, il Floridi polarizza la definizione di moralità legandola alle conseguenze delle azioni e non considerando il fatto che l'azione sia frutto di un giudizio morale. Luciano Floridi cerca, dunque, di ricostruire un concetto oggettivo e osservabile dall'esterno: non vuole esaminare elementi alla base dell’azione come l'intenzione, che non sono osservabili dall’esterno ma muovere la sua analisi con l’ausilio esclusivo di concetti che prescindano da qualsiasi elemento soggettivo. Egli, in primis mette in piedi un’obiezione teleologica, quella delle intenzioni, quella della libertà e quella della responsabilità. Tramite l’obiezione teleologica, egli assevera che un agente compie un'azione in quanto persegue un proprio scopo12, ma ciò risulta quantomeno distonico, se relazionato ad una macchina, in quanto essa - secondo tale impostazione - non persegue mai un proprio scopo13. Per quanto attiene, invece, alla obiezione della intenzione, le cose stanno in questi termini: anche se programmato per perseguire uno scopo, il termostato, ad esempio, non avrebbe mai un’intenzione propria. Questo postulato è difficile da sormontare, in quanto ancorato ad evidenti spunti di oggettività: in ogni modo, la controbiezione di Floridi è di nuovo vittima di questo anelito di oggettività che giace sotto le mentite spoglie del riduzionismo.

A tal proposito, infatti, l’Autore si limita a precisare sic et simpliciter che le intenzioni, in quanto elementi soggettivi e psicologici afferenti alla propria sfera interna delle scelte personali, non siano osservabili nemmeno in un agente umano. In terzo luogo, circa l’obiezione della libertà, Floridi, finendo per sostenere che un agente artificiale non sia sicuramente libero, riduce, in questi termini, e destruttura il concetto di libertà. Si considera che la libertà dell'agente artificiale si possa definire semplicemente come la possibilità di scegliere in autonomia, nel senso che alla macchina possa essere consentito di scegliere un percorso rispetto ad un altro. Così facendo, il concetto di libertà viene esautorato e smantellato: l’elemento più cocente di tale smantellamento è la scissione tra libertà e intenzione.

Le maggiori difficoltà del giurista di fronte ad una simile ipotesi ineriscono all’irrilevanza delle intenzioni, in quanto mai rilevabili ab externo; il giurista infatti è aduso ad osservare l'intenzione partendo da elementi oggettivi ed esterni; il fatto che sia difficile valutare concretamente un elemento psicologico, non vuole dire che un giudizio non si possa esprimere o che l'intenzione non ci sia. In ultima istanza, Floridi tenta di obiettare al tema sicuramente più difficile da manipolare: quello della responsabilità. Un agente artificiale non può essere considerato responsabile: Floridi conferma che la responsabilità e la colpa siano frutto di ragionamenti applicabili agli esseri umani e che non possano essere applicabili agli agenti artificiali; continua sostenendo che la responsabilità sia una sovrastruttura che si posiziona astrattamente sopra l'essere morale, ma che, comunque, non sia scissa da questo.

Sempre secondo Floridi non è vero che parlare di una macchina come agente voglia allo stesso modo dire qualcosa sulla sua responsabilità: si può riferire una condotta morale ad un soggetto, senza che ciò comporti la sua sottoponibilità ad un giudizio responsabilità. Si contesta così, nel pensiero di Floridi, l'assunto che l'agente morale sia morale nella misura in cui possa essere rimproverato: continua, infatti, lo studioso romano, dicendo che il ridurre tutto all'analisi della responsabilità sia una fallacia giuridica, in quanto il discorso sull'essere o meno un agente, non possa essere ridotto a un discorso giuridico sulla responsabilità. Il paradosso di Floridi si sostanzia nel fatto che, pur costruita la moralità dell’azione robotica, non se ne possa trarne conseguenza giuridica alcuna in tema di responsabilità. Le speculazioni da lui elaborate sull’agente elettronico non incidono sull’impianto giuridico della responsabilità civile intesa come rimproverabilità soggettiva. Un agente può essere considerato comunque morale e responsabile di un evento, anche se non è responsabile giuridicamente dello stesso, poiché quest’ultimo non gli è rimproverabile. I rimedi progressivi ideati per il genere umano al cattivo agire: monitoraggio, isolamento e morte; sono trasposti nel mondo robotico come manutenzione, disconnessione dal cyberspazio e infine la distruzione; però dire che un robot funziona male e quindi deve essere distrutto non è un discorso sulla sua responsabilità. Questa operazione di destrutturazione è assai pericolosa perché se si dice che la macchina è un agente morale basandoci su questi argomenti, non è detto che le conseguenze che se ne traggono siano quelle che trae Floridi. Di converso, Jens-Steffen Gutmann14 parte da una base che definirei neokantiana: il concetto chiave del suo ragionamento si coglie in filigrana, nella distinzione concettuale tra azioni e comportamenti. 

A tal proposito, il comportamento è qualcosa su cui il soggetto non ha piena scelta; è quasi un istinto naturale (un po' come il comportamento degli animali) mentre l'azione ha una base di volontà ed è una scelta libera, orientata verso un fine scelto15. Difatti, per parlare di azione, dobbiamo sempre avere un’intenzione e un fine, perché se non abbiamo intenzione, finalità e libertà per perseguirlo non stiamo parlando di azione e nemmeno di azione morale: dunque, la conseguenza dell'esistenza di un'azione è la responsabilità. Noi non possiamo parlare di azione, se tale concetto è scisso dalla responsabilità, in quanto il giudizio di responsabilità è un corollario del discernimento che permette di identificare un’azione; se vi è, infatti, un'azione, essa presuppone la capacità di giustificare la scelta razionalmente, in funzione dell’intenzione (è, esso, un ragionamento lineare, logico, oggettivo e non destrutturato). Gutmann continua distinguendo due nozioni di autonomia: una autonomia in senso forte ed una in senso debole.
Nell’autonomia in senso debole, il fine è prestabilito e si può scegliere il mezzo per arrivarci; nella autonomia in senso forte, viceversa, si possono scegliere sia il fine che il mezzo per raggiungerlo. Stando così le cose, l’autonomia in senso debole è una autonomia eterodeterminata: il fine viene individuato da un soggetto diverso dal soggetto agente ed è questo uno dei principali argomenti che rilevano nel problema della responsabilità. L'autonomia in senso debole, pertanto, vuol significare che abbiamo un soggetto agente che è capace di determinare il comportamento, orientandolo verso un fine ed è capace di offrire una spiegazione razionale per ciò che sta facendo. Nel caso della macchina, il fine è eterodeterminato dall'essere umano, quindi, comunque, è l'essere umano che ha creato la macchina per quel fine e la macchina, non essendo per ovvie ragioni logiche, autonoma in senso forte, non è un agente morale perché la responsabilità è sempre imputabile all'essere umano, avendo invece, l’automa, solo una forma, sebbene molto sofisticata, di comportamento percepibile all’esterno (basti pensare che la macchina più sofisticata che possiamo immaginare rientra nella definizione di autonomia debole, che, comunque, emigra in una nozione di amplissimo spettro).

Per concludere, facendo un’opportuna chiosa, l’autonomia in senso forte è propria degli esseri umani e solo in quel caso si è agente morale; negli altri casi, l’oggetto indagato è solo un mero strumento alla mercé di altri. Qui emerge la vena neokantiana delle autorevoli asserzioni del Gutmann: difatti, se noi fossimo in grado di creare una vita artificiale che esista senza alcuno scopo predeterminato, solo allora questa potrebbe essere considerata come dotata di un’autonomia in senso forte. Abbiamo, così, identificato il punto di separazione: la macchina non potrà mai essere autonoma in senso forte, perché questo sarebbe una contraddizione in termini e negherebbe la sua funzione. La macchina non potrebbe mai avere un fine in sé, rispetto alle intenzioni che pone in essere, poiché anche laddove venisse creata senza uno scopo preciso, l’intelligenza artificiale non potrebbe mai considerare un fine in sé, in quanto sarebbe comunque stata creata dall'essere umano. L'unico caso in cui una macchina può essere considerata un agente morale e quindi responsabile si ha se e quando la macchina sia capace di determinare autonomamente il proprio fine e di perseguirlo: solo laddove la nozione di autonomia in senso forte venisse soddisfatta, potremmo considerare la macchina come agente e quindi responsabile. Questa situazione, allo stato tecnologico odierno non può verificarsi: secondo la prospettiva neokantiana è una contraddizione in termini e se ragionassimo in termini utilitaristici, potremmo anche dire che non ha senso creare una macchina in grado di disobbedirci; da un punto di vista tecnologico comunque è irraggiungibile. Se arrivassimo mai a quel punto di passaggio per cui la macchina è agente, allora alla macchina si potrebbe applicare in toto la legge che si applica agli esseri umani. Per concludere è bene dire che le strade verso una vera e propria umanizzazione digitale, comunque, sono ancora del tutto aperte e l’orizzonte che vede il robot interagire con l’umano ed essere altresì chiamato a rispondere delle proprie azioni, non è così lontano, pur non costituendo un problema attuale. 

1. 4 Il problema del self-learning come apertura alla individuazione di nuove responsabilità nel passaggio da considerazione ontologica a quella funzionale 

Partiamo dal presupposto che se vi è agente vi è responsabilità e che una macchina, a quanto abbiamo affermato nei paragrafi precedenti, non può essere considerata agente. Non c’è ragione oggi di considerare la macchina agente e quindi non v’è conseguentemente ragione di considerarla responsabile. Questo non vuol dire, comunque, che non ci sia bisogno di modificare il quadro teorico della responsabilità, in quanto la cornice giuridica non è ancora sufficientemente completa sul punto. Matthias, ad esempio, appartiene alla categoria di studiosi che dicono che i robot siano ontologicamente diversi dai semplici oggetti e che c'è bisogno di una terza categoria16. È vero che le macchine pongono un problema nuovo sulla responsabilità? Rispetto a questo Matthias parla di un responsibility gap, ovvero un vuoto che deve essere colmato.

L'altra prospettiva è quella di Shaerer che tenta di definire i robot come animali17, mentre invece Bertolini fa rientrare i robot nella categoria dei prodotti18. Matthias parla del problema del black box: giustifica l'esistenza di un buco nel modello di responsabilità, perché la macchina è una scatola nera che non riusciamo ad aprire e osservare e quindi non possiamo imputare le conseguenze del suo comportamento a chi l'ha programmata. Si faccia l'esempio dell'ascensore che impara: ipotizziamo che in un grande palazzo ci sia un ascensore dotato di reinforce learning, un sistema per cui una macchina viene addestrata attraverso il funzionamento; in tal caso, l'ascensore tramite il reiterato svolgimento della sua funzione, riesce a capire a quali piani vadano quante persone, sempre limitatamente a certe fasce orarie; questo, in modo da ottimizzare il funzionamento. Per meglio comprendere, sulla base dell’esempio or ora proposto, Il programmatore non ha mai progettato l'ascensore per andare a un certo piano ad una certa ora, poiché la macchina, funzionando, modifica autonomamente la propria struttura interna. Supponiamo che ad un certo punto un utente debba andare ad un piano diverso ed a causa del funzionamento autonomo della macchina, l'utente non riesca ad andarci: ecco che noi ci poniamo proprio in uno di questi casi di gap di responsabilità, in quanto il programmatore non ha mai costruito la macchina, per comportarsi così. Ma a livello giuridico siamo sicuri che ci sia un responsibility gap? Sempre Matthias propende per la responsabilità della macchina e arriva addirittura a concepire l’automa come portatore di diritti19.

Si può invece applicare un but-for test, cioè un test di causalità: se non fosse per il programmatore che ha programmato la macchina in quel modo, essa non avrebbe imparato secondo quella modalità. Non si può giustificare l'assenza di responsabilità del programmatore per la capacità di apprendimento della macchina, ciò a dire che la macchina ha imparato in quel modo perché è stata programmata così: non è un caso di gap ma è un caso in cui il nesso causale si accerta con evidenza. Altro argomento è che il produttore è responsabile di tutte le conseguenze prevedibili dell'uso del prodotto, anche degli usi errati dello stesso. Matthias prende in considerazione due tipi di programmazione: i cc.dd. neural nets (attraverso i quali riusciamo a far fare alla macchina qualcosa, senza che essa sia stata programmata per farlo), ed il reinforced learning, in cui il termine reinforced vuol dire che si dà una validazione a quello che la macchina ha fatto: le si dice sostanzialmente se ha fatto bene o no tramite genetic algorithms. Se assecondassimo un principio per cui il programmatore non sia in grado di capire in ogni istante perché la macchina sia arrivata a quella conclusione e a quel comportamento, non c'è responsabilità, perché cui la cosa non è comprensibile e quindi è impossibile rispondere di qualunque sua azione. 

La responsabilità serve in primo luogo per obbligare il soggetto a internalizzare i costi della propria attività; ad esempio, Tesla perfeziona il funzionamento di guida autonoma attraverso i dati acquisiti da tutte le Tesla funzionanti, cosa che fa presupporre che non è poi la singola macchina che apprende e si migliora, ma questi dati vengono inviati alla casa madre dove il software viene perfezionato e la nuova versione dello stesso viene istallata tramite aggiornamenti su tutti i veicoli. È un modello di business che permette l’innovazione, ma che opera con controllo del rischio, perché il dato ricevuto viene valutato ed è il produttore a valutare in che modo addestrare la macchina attraverso i dati raccolti. La capacità di apprendimento si può declinare in tanti modi e non è vero che la capacità di autoassimilazione comporti imprevedibilità da parte del produttore. Prendiamo un momento in considerazione i neural networks (neural nets) e i genetic algorithms (evolutionary robotics): se dobbiamo programmare un piccolo robot perché compia un determinato percorso, possiamo prendere tanti piccoli robot uguali, programmarli con un software di base con microvariazioni per ogni robot ed osservare il loro funzionamento; dopo tale breve analisi, possiamo accorgerci senza problemi quale sia quello che funzioni meglio; questo, al fine di recuperare tutti gli esseri digitali di cui sopra, ed installare su tutti, il programma migliore; di nuovo, nella filiera della produzione successiva, si istalleranno microvariazioni casuali su tutti i robot in parte resettati, si vedrà di nuovo quello che funziona meglio e reinstallando quel software nuovamente, si procederà alle successive microvariazioni fino ad avere un prodotto che miri sempre di più alla perfezione tecnologica ed ingegneristica.

Da qui, l’algoritmo finale non è stato programmato dal produttore, in quanto è un sistema genetico, anche se comunque è un metodo di programmazione, ovvero una scelta rispetto alla quale noi dobbiamo forzare l'internalizzazione. La mancanza di trasparenza, non può essere motivo di esenzione di responsabilità, piuttosto è vero il contrario: se metto in circolazione qualcosa su cui non posso esercitare controllo sono responsabile delle conseguenze che questa macchina genererà. Il gap veramente inteso quindi non c'è, nel senso che questa tecnologia non impedisce di accertare l'esistenza di un nesso di causalità; seguire l'idea del responsibility gap porterebbe a violare la regola giuridica che impone di internalizzare i costi per la responsabilità. Shaerer invece dice che il robot è più simile ad un animale piuttosto che a una cosa: lo sforzo, in un’affermazione di questo tipo, è quello di rendere responsabile l’essere umano, che può essere il produttore o l'utilizzatore. Se applichiamo la distinzione fatta da Gutmann tra azione e comportamento, possiamo dire che quello del robot è un comportamento. Ma siamo convinti che quello della macchina sia davvero un emergent behaviour?

Un robot può essere programmato, un animale può essere addestrato; ma prima di essere programmato, il robot non è niente, mentre l'animale prima di essere addestrato ha delle sue intenzioni, caratteristiche ed il carattere dell'animale può resistere al suo addestramento. Dunque, non è proprio vero che il robot sia imprevedibile come un animale: il robot è imprevedibile in ragione di come la macchina è stata programmata, motivo per ritenere che il but-for test sia da considerarsi utile a rispondere a quesiti di questo tipo. Una responsabilizzazione del proprietario o utilizzatore può esistere, per evitare la logica del moral hazard, nella logica dell’incentivo alla produzione: è un errore concettuale però quello di tentare di fare una argomentazione di tipo ontologico che assimila il robot all'animale. L’animale è imprevedibile per sua natura non per l’impostazione che gli è stata data.

L'idea di Shaerer si può apprezzare sul moral hazard, perché anche per il produttore la macchina potrebbe risultare imprevedibile nel suo utilizzo concreto, ma bisogna sempre tenere in considerazione la responsabilità del produttore per foreseable misuse: la macchina potrebbe essere provvista di misure di sicurezza che impediscano un suo utilizzo sbagliato. Bertolini, invece, passa in rassegna le varie tesi di tipo ontologico, per vedere se possano essere accolte: l'unico paradigma di tipo ontologico residuo risulta, nella sua analisi, quello degli oggetti (non potendo il robot essere agente né categoria intermedia) e più precisamente dei prodotti. Da qui si arriva ad applicare al fenomeno la disciplina relativa ai prodotti ed al loro funzionamento, per rispondere al tema sulla liability

1.5 I protagonisti in campo nella partita dell’imputazione della responsabilità per la macchina robotica 

Dopo aver inquadrato correttamente il tema della nostra ricerca, è particolarmente importante circoscrivere quali siano, ad oggi, i tratti caratteristici della responsabilità dell’intelligenza artificiale, chi siano i principali soggetti coinvolti, le norme oggi a nostra disposizione20, per la risoluzione delle controversie potenzialmente nascenti dai comportamenti voluti o non voluti dalla I. A, giudicando la bastevolezza delle stesse allo stato attuale delle nostre conoscenze tecnologiche.

Nello specifico, mi occuperò di indagare se, procedendo ad una sommaria catalogazione delle norme ad oggi applicabili, le stesse riescano ad offrire uno spunto per l’individuazione della responsabilità civile, circa - anche - quegli automi cc.dd. self - learning (ovverosia gli agenti digitali in grado di autoapprendere od imparare dall’esperienza), e se si possa affermare che esistano o meno delle lacune ovvero antinomie giuridiche, nel campo della responsabilità, limitatamente ai soggetti che si stagliano entro la filiera della produzione della macchina medesima. A primo impatto, le domande che stimolano il giurista a dare risposte concrete al problema, promanano proprio da tale peculiarità delle macchine elettroniche (soprattutto di ultima generazione), nel riuscire ad autoperfezionarsi ed ad autoevolversi, con una progressione geometrica tale da non permettere, alle volte, al programmatore o al creatore dell’algoritmo, di percepire prudenzialmente tutte le futuribili azioni dell’automa creato (si pensi ad esempio, alla legge di Moore21).

Occorre a tal proposito domandarci se a tali quesiti tecnoetici, possano trovarsi risposte tecnogiuridiche, tramite l’analitica levigatura di nuove tipologie di norme, ovvero, se, scansando il proposito della "iperfetazione legislativa22”, che assale il legislatore nella spasmodica volontà di legiferare per arginare ciò che potrebbe non essere arginato, il giurista rinvenga importanti spunti di riflessione nella interpretazione delle norme attualmente a disposizione, soprattutto all’interno di quegli ordinamenti ad elevata codificazione (di civil law), come quello italiano23. Gli ordinamenti a matrice fortemente romanistica, modellati poi sull’esempio del Code Napoléon o della pandettistica, possono del resto non apparire completamente sguarniti di fronte alla disciplina del fenomeno: a fronte di norme che disciplinano la responsabilità nel governo delle intelligenze animali e umane serventi (ad es. si veda l’art. 2052 c.c.). Cominciamo con il dire che, ad oggi, le "nuove” responsabilità si pongono su un piano triangolare di posizioni, tutte egualmente sottendibili: quella dell’ideatore dell’algoritmo di machine learning, quella di chi incorpora l’algoritmo nella macchina intelligente, producendola (cioè il produttore), ed infine le responsabilità da annettere al proprietario titolare, custode a qualsiasi titolo, della macchina dotata di autoapprendimento.

Il bisogno costante di consegnare all’interprete un quadro che possa essere considerato sufficiente in tema di responsabilità da A.I, è sentito anche dall’Unione Europea, che spinge per una disciplina uniforme sul tema24, seppure circoscrivendo lo strumento normativo a specifiche discipline tecniche di settore e lasciando, invece, alla mediazione giuridica, modellare il tema delle nuove responsabilità da intelligenza artificiale self learning, tra disciplina codicistica, norme generali e di derivazione comunitaria25, quali quelle relative alla responsabilità da prodotto difettoso e quelle correlate vendita al consumatore. Queste norme26 già esistenti sono sicuramente uniformi a livello europeo e, soprattutto, aperte ad evoluzioni interpretative idonee a coprire anche nuovi orizzonti; in aggiunta è bene avvertire che, introdurre norme civilistiche settoriali o speciali all’interno di ordinamenti ad elevata codificazione, potrebbe ingenerare effetti sistemici non sempre prevedibili, né sempre desiderabili. Come vedremo, quindi, la disciplina odierna sulla responsabilità da prodotto difettoso e talune figure codicistiche potrebbero rivelarsi inidonee ad offrire una adeguata regolamentazione ai problemi del tutto nuovi portati dall’intelligenza artificiale, ma allo stesso tempo, certune altre, garantiscono la possibilità di offrire altresì soluzioni interpretative potenzialmente anche molto innovative. La peculiarità del fenomeno c.d. "self-learning”, con la connessa esigenza che l’algoritmo dell’autoapprendimento possa incorporare un codice macchina "moralizzante”, fa emergere quello che appare come il maggior problema nel tradurre le esigenze tecnoetiche di settore, in corrispondente tecnodiritto. Ciò, sul piano meramente etico, spinge l’interprete a porre sempre maggiore enfasi sulle responsabilità del programmatore accanto a quella del produttore e dell'addestratore, sebbene questa scelta tardi ad essere recepita sul piano della mediazione giuridica27.

Passiamo, in primis, a considerare l’assunto per il quale è indubbia la responsabilità dell’ideatore dell’algoritmo. Proprio l’algoritmo28 è in grado far fare alla macchina quel particolare salto di qualità che le attribuisce la capacità di automodificazione ed autoperfezionamento, ma potrebbe essere anche causa di danni extracontrattuali, nella misura di una retroversione degli obiettivi per i quali l’algoritmo era stato originariamente creato. L’algoritmo, frutto di una pura creazione intellettuale, conferisce all’automa “l’anima”, e incide in maniera significativa sulle caratteristiche e sul funzionamento dello stesso, anche per le capacità autocorrettive che nell’agente meccanico medesimo, genera; rebus sic stantibus, è ineluttabile l’assunto per cui l’algoritmo debba essere considerato una parte accessoria e distinta dalla complessiva creazione intellettuale cui accede (ad esempio, un software) e, come tale, autonomamente censibile.

In tema di selezione delle varie responsabilità, quanto or ora delineato pone un elemento valutativo importante, che punta nel senso di sviluppare una certa responsabilità in capo all’ideatore dell’algoritmo che, spesse volte, è diverso da colui che produce la macchina, ovvero da colui che crea il device che lo incorpora. Ordunque, posto il seguente problema, corre - di per sé - l’obbligo di una generale ricostruzione delle varie responsabilità; da un lato contrattuali, nei confronti dell’originale committente, dall’altro aquilana, nei confronti dei terzi eventualmente danneggiati dalla intelligenza artificiale self-learning (difatti, come già spiegato, l’algoritmo ha conferito alla macchina l’attitudine ad apprendere ed a modificare il proprio comportamento, sino a degenerare, alle volte, nella produzione di outcome indesiderati, ovvero a tralignare in malware, quale effetto dell’”addestramento” impartito o dalle "esperienze” vissute successivamente alla sua messa in funzione29).

Se noi ragionassimo per assurdo, cercando di ovviare al tentativo di responsabilizzare l’ideatore dell’algoritmo, ci spingeremmo a sostenere l’improbabile assunto secondo il quale quest’ultimo (potenzialmente diverso da colui che progetta ed incorpora il software nella macchina) apparirebbe come un mero "disegnatore” di una formula o di un’idea che risulterebbe avulsa completamente dall’impianto in via di costruzione di una responsabilità da product liability: da ciò deriverebbe la sola responsabilità del fabbricante del prodotto finale, nei confronti dei terzi danneggiati, rimanendo esclusa quella dell’ideatore dell’algoritmo stesso.

Epperò, ritornando all’algoritmo, esso non esaurisce la sua funzione nel consegnare al prodotto che lo incorpora una mera caratteristica estetica o accessoria, bensì risulta idoneo a modificare la propria essenza, finanche ad impartirgli la capacità di automodificarsi ed “imparare” dall’esperienza, condizionandone profondamente l’essere ed il divenire, fino a costruirne una sorta di “anima”, dotandolo di un qualcosa di notevolmente più evoluto rispetto ai prodotti tradizionali. Il nostro codice civile detta una regola universale, per tramite della previsione dell’art. 2043 c.c., il quale responsabilizza direttamente l’essere umano che cagiona un danno qualunque, con proprio dolo o colpa. Passando in rassegna le altre differenti tipologie di responsabilità, scorrendo l'articolato del codice, la norma di cui all’art. 2049 c.c., mette nelle condizioni anche il committente di rispondere per l’uso strumentale della altrui intelligenza umana; questa, una previsione tarata sulla fallibilità che caratterizza la natura del particolare strumento intelligente, ossia la capacità di compiere "illeciti”.

 Il committente, che gli inglesi definiscono per metafora come "deep pocket”, dunque, è responsabilizzato per quel danno che è causato da un “illecito” del suo commesso. Il nostro codice, però, non a caso disciplina in maniera differente i rischi del committente, calibrandoli, in relazione all’intelligenza del soggetto, sulla particolare mansione, che determina il regime di liability. Le disposizioni pertanto accordano un diverso limite della responsabilità in rapporto alla fruizione di strumenti inanimati o animali, oppure in relazione alla specifica pericolosità di un’attività: ciò deriva dagli artt. 2051-2052 e 2054 c.c., da un lato; e nell’art. 2050 c.c., con riguardo alla pericolosità dell’attività. Le disposizioni, in ogni caso, sono tutte volte a definire una responsabilità dell’utilizzatore o in ogni caso dell’organizzatore dell’attività dannosa. D’altro canto, la disciplina contenuta della Direttiva 85/374/CEE, attuata in Italia con il D.P.R. n. 224/1988, poi confluito nell’attuale Codice del Consumo (D.lgs. 206/2005), regola le ipotesi di responsabilità per product liability. La stessa è sembrata adeguata a disciplinare anche i danni causati da una A.I. il cui difetto determina un output dannoso, sebbene non pochi dubbi siano sorti in merito all’ idoneità della direttiva sopra citata ad essere strumento adeguato di regolazione, poiché l’imprevedibilità della A.I. sembra sfuggire alle definizioni di prodotto e difetto presupposto della disciplina. 

Il soggetto che lamenta un danno è, ai sensi della direttiva, chiamato a dimostrare la difettosità del prodotto, il pregiudizio patito ed il nesso di causalità tra quest’ultimo ed il difetto, tanto basta a configurare una responsabilità oggettiva in capo al produttore del prodotto, poiché si prescinde dalla prova di alcun elemento soggettivo di dolo o di colpa. Dal canto suo il produttore si libera solamente provando uno degli elementi di cui all’articolo della suddetta direttiva30, di cui il più importante è il "rischio da sviluppo”, ai sensi del quale il difetto che ha causato il danno non era prevedibile al momento della messa in circolazione del prodotto o sia sorto successivamente.

Detto ciò, la responsabilità del produttore, che equivale all’agente che costruisce la macchina e che inserisce all’interno della stessa il software che contiene l’algoritmo, finisce per fondersi con la responsabilità penale e civile dell’operatore od utilizzatore del robot, per aver immesso nell’ambiente una tecnologia innovativa che aumenta il rischio per la salute umana, violando il dovere di continuo e costante monitoraggio del prodotto e dei suoi possibili effetti dannosi, anche se non identificati durante la programmazione e produzione, ma evidenziati una volta che il prodotto viene immesso in un ambiente aperto, con l’uso.

Se volessimo costruire un’alternativa all’attribuzione della responsabilità al programmatore, essa potrebbe essere D.lgs. ipotizzata solo ove la decisione "propria" del robot che agisce autonomamente, venga concepita come fattore causale sopravvenuto ed autonomo: ciò equivale a pensare, ad esempio, che le lesioni personali cagionate da un’auto a guida autonoma non siano, in un certo senso, un atto del costruttore, ma della macchina stessa, soprattutto se immaginiamo una vasta diffusione di agenti artificiali antropomorfi31. Nel prossimo futuro, gli agenti intelligenti potrebbero raggiungere un livello di evoluzione tale da essere quasi perfetti, e gli eventi dannosi derivanti dal loro agire potrebbero essere rarissimi ed eccezionali. Se in un prossimo futuro dovessimo considerare gli agenti intelligenti come normali partner nella vita di relazione questo rischio generale verrebbe accettato socialmente: il rischio diverrebbe normale e l'operatore non sarebbe penalmente e civilmente responsabile per un malfunzionamento prevedibile solo in modo ipotetico e generico, ma solo per le conseguenze dannose evitabili dovute a errori di programmazione. In ultima istanza, a conclusione del paragrafo, la responsabilità dell’operatore e del programmatore, anche qualora fosse attribuita loro per colpa, non dovrebbe, a titolo precauzionale, sfociare in un divieto di immissione del prodotto sul mercato, eccettuati i divieti di produzione di agenti artificiali i cui rischi associati possano essere di gran lunga superiori ai benefici32

1.6 Il panorama del dibattito aperto sulla liability per danno da macchina robotica dotata di intelligenza artificiale.

Dopo aver esaminato quanti siano gli attori e quale sia il loro ruolo nell’ambito della perimetrazione della responsabilità per danni derivanti dalla messa in commercio e relativa utilizzazione di macchine intelligenti, occorre procedere ad una seria esegesi delle fonti in nostro possesso, per procedere a chiarire quali siano gli spazi lasciati vuoti dalla attuale normativa. Di regola, ad oggi esiste una base giuridica che offre una cornice dispositiva per molte delle tecnologie robotiche in campo, anche se quanto appena accennato mostra come in effetti esistano delle applicazioni o realtà che, non ricadendo nei conosciuti regimi, sfuggono ad una certa regolamentazione33. Nello specifico, si allude alla peculiarità della macchina di riuscire ad operare ed a muoversi senza una guida umana: caratteristica che, dando luogo ad una parvenza di autonomia, sembra sottrarre l’azione, alla sfera di controllo dell’uomo e ad una sua responsabilità. A ciò si fa conseguire la difficoltà - anche concettuale - di collocare la responsabilità per gli incidenti determinati dall’uso della tecnologia in un binario che - more solito - presuppone la corrispondenza tra possibilità di controllo, capacità di verificarsi di un danno e relativa imputazione della responsabilità.

A completamento di tutto questo, la già esasperata capacità di autoapprendimento della macchina, rende tutto ancora più complesso: la possibilità da parte della machina di apprendere a seguito dell’esperienza, rende il suo agire in qualche misura imprevedibile in quanto questa capacità è portatrice di “comportamenti emergenti34”, ossia non prevedibili nella fase di progettazione, ma frutto di inaspettate ed inattese interazioni tra i componenti del sistema o tra il sistema e l’ambiente in cui esso opera. Gli utilizzi ai quali un robot potrebbe essere destinato, differiscono in maniera così estrema al punto che non sia possibile anticiparli tutti da parte del progettista e del programmatore, che potrebbero - differentemente - adottare le opportune misure e contromisure35. Inoltre, gli utenti che interagiscono con le macchine potrebbero in ogni qual momento interferire con esse in modo da eterodirigerle in una direzione manipolata da terzi e non prevista dal produttore o dal programmatore36. Nella messa a punto dei sistemi robotici, i ruoli e le competenze di molteplici persone si sovrappongono e sono strettamente interconnesse; difatti, spesse volte chi contribuisce ad un segmento dell’operazione complessiva non ha il controllo, e talvolta nemmeno può conoscere la struttura e comprendere il funzionamento dell’intero dispositivo.

Resta comunque il fatto che la suscettibilità, che definirei “esplosiva”, del robot ad essere fortemente influenzato dall’ambiente circostante, cui si sommi il comportamento imprevedibile dei soggetti che gravitano attorno all’ambiente medesimo, risulta di forte attrito rispetto alle normali regole che attengono alla responsabilità per danni e con tutti i metodi tradizionali i cui sistemi giuridici servono per attribuirla, siano essi basati sulla colpa o sul dolo37: a fronte di tutto questo, ricorre giocoforza la necessità di tentare di staccarsi dai modelli tradizionali, per addivenire ad una regolamentazione della responsabilità che tenti un approccio teso al ragionamento, secondo schemi innovativi. Abbiamo avuto modo di affrontare il ragionamento secondo il quale il produttore sia il soggetto esposto ai rischi dei danni da difetto di produzione: ciò, ponendo un problema legato all’analisi economica del diritto, imporrebbe - per una esenzione completa dai rischi - o un dispendiosissimo esborso di denaro da parte del costruttore, nella dotazione della sua attività industriale di tutta una serie di misure cuscinetto in grado di limitare la possibilità di un difetto, ovvero - dall’altro - in assenza di tale disponibilità patrimoniale, egli dovrebbe limitarsi ad “anestetizzare” l’ingegno, nel tentativo di evitare di costruire ciò su cui non sia già maturata una certa esperienza, limitando così il progresso tecnologico.

Taluni ritengono che si potrebbe creare una c.d. immunità selettiva che, al fine di inibire ogni possibile pretesa dei terzi e proteggere il produttore di piattaforme robotiche «aperte», passi attraverso l’adozione di misure di sicurezza che costituirebbero un compromesso molto efficiente tra la necessità di dare impulso allo sviluppo tecnologico e quello di incentivare la sicurezza. D’altra parte, come accennato, un’altra soluzione potrebbe essere quella di attribuire personalità giuridica ai robot, includendo però questi ultimi negli schemi di responsabilità vicaria.

Essa potrebbe trovare applicazione ogniqualvolta si ritenga che possa essere affrancata all’automa la stessa capacità cognitiva e decisionale che verrebbe imputata al quivis de populo che, a causa di una limitazione di dette capacità, non potesse essere chiamato a rispondere in prima persona del danno provocato ad altri, e quindi sostituito, nella funzione risarcitoria53, da coloro che se ne prendono cura. Una tale risposta risulta, comunque, per quanto ci sforziamo a concepirla, distonica rispetto alle numerose esigenze che considerano utile l’introduzione di taluni agenti elettronici. Una terza linea di tendenza sull’intricata strada della risoluzione del problema di questo “responsability gap” è orientata ad un severo inasprimento della responsabilità del proprietario, in funzione di tutela dell’eventuale danneggiato. La contestazione oggettiva su cui si reggerebbe tale teorizzazione, getta le sue basi nel fatto che per quest’ultimo l’onus probandi della dimostrazione della negligenza, nel caso in cui si applichi la responsabilità per prodotto difettoso, è molto gravoso, come, allo stesso tempo, già difficilissima sarebbe la prova della difettosità e del suo nesso di causa con il danno, in ragione della impossibilità di comprendere a fondo i meccanismi del funzionamento di una tecnologia estremamente sofisticata.

Sempre secondo tale speculazione dottrinale, il proprietario dovrebbe rispondere - quindi - a seguito di una responsabilità di carattere oggettivo in quanto unico soggetto in grado di sopportare gli incommoda dell’uso, in quanto ha goduto dei vantaggi di natura economica, derivanti dalla utilizzazione di robot. Arrivati a questo punto, oramai è chiaro che le disposizioni ad oggi in nostro possesso che tentino di delineare una responsabilità civile per danni derivanti da agenti meccanici, non riescano a sprigionare l’effetto desiderato o, anche laddove rinvengano una responsabilità, non lo facciano in maniera coerente al complessivo approccio alla tematica dell’evoluzione della tecnologia robotica.

Abbiamo cercato di delineare una serie di proposte: comunque, tutte quante hanno in comune la necessità di evoluzione di un assetto normativo che non funziona a tal riguardo; anche se le soluzioni operative cui conduce rinunciare al sistema tradizionale sono sicuramente opinabili. L’idea accennata di esonerare i produttori di tecnologie robotiche dalla responsabilità per eventi che, pur casualmente riconducibili all’agire di un robot, rimangono palesemente al di fuori della loro capacità di controllo, si lega ad un obbiettivo principale: quello di favorire l’ascesa della relativa industria (cosa che, peraltro, è molto sentita negli Stati Uniti, nei quali il cosiddetto principio di precauzione, tradotto nella formula anglofona di “risk assessment38” si è esteso ai settori più disparati, come ad esempio le biotecnologie).

Questo approccio, comunque, non risulta apprezzabile ai fini della nostra domanda di ricerca, in quanto sia in USA che in Europa la responsabilità da prodotto trova dimora nella difettosità intrinseca dell’oggetto messo in commercio e tale liabiliy potrebbe essere a ragion veduta esclusa, qualora l’azione dannosa dipenda sia da modifiche introdotte nel dispositivo in un momento successivo alla messa sul mercato (grazie anche al carattere aperto del suo sistema operativo) sia a causa di comportamenti che addirittura sfuggono al produttore, perché ipoteticamente imputabili ad un malware dipeso dal malfunzionamento dell’algoritmo che ha dotato il robot della sua anima e che discende dalla perizia (o imperizia) di un ideatore.

Anche il progetto Eurobotics si è timidamente affacciato a cercare di chiarire degli aspetti che avrebbero potuto essere risolutivi o quanto meno di ausilio alla risoluzione del responsability gap, cercando di avvicinare l’idea - peraltro da me condivisa - di attribuire alla macchina una personalità soggettiva esclusiva e non distribuita sul produttore; purtroppo l’onda dell’analisi economica del diritto ha affossato questa idealizzazione, rendendo inaccessibile questo livello di tecnologia ai consumatori e, allo stesso tempo, rendendo enormemente più elevato il prezzo dell’agente elettronico. Ad oggi, la scelta di tracciare delle linee che tentino di segnare delle similitudini tra l’uomo e la macchina, è abbastanza prematura, come prematuro è tentare di attribuire alle macchine stesse una certa qual soggettività; sibbene, la volontà di creare intelligenze artificiali paragonabili a quelle umane è l’obbiettivo del prossimo futuro, ma farne adesso seguire il riconoscimento sul piano giuridico per la creazione di un nuovo genere di categoria soggettiva è qualcosa di avanguardista, anche se non peregrino. Sulla possibilità di riconoscimento alla intelligenza artificiale di una qualche personalità, si gioca tutta la partita circa la disciplina della responsabilità che ne consegue; difatti, il ruolo che i robot sembrano chiamati a svolgere in un prossimo futuro potrebbe richiedere da parte loro la capacità di assumere obbligazioni e di più di realizzare operazioni contrattuali, soprattutto nel contesto di scambi istantanei, senza nemmeno la diretta partecipazione di un utilizzatore.

L’ipotesi di attribuire personalità giuridica al robot, al fine di risolvere problemi di ricerca di una "equa responsabilizzazione”, comunque, incontra anche altre criticità, che si palesano in forma preponderante sul piano patrimoniale. Seppure si potrebbe a mio avviso pensare a una forma di separazione patrimoniale50 per la gestione del rischio da azione robotica, ciò non risolverebbe tutti i problemi e non di concilierebbe con la funzione sociale e assistenziale di talune macchine all’interno del quadro sociale. Per affrontare meglio il tema del danno da A.I può essere comunque utile, sebbene non risolutiva, la comparazione con altre ipotesi di responsabilità vicaria o indiretta, per lo meno per escludere alcune ipotesi ricostruttive: si pensi alla soluzione, fondata sulla lettera del codice, che farebbe ricadere sull’utilizzatore utente o proprietario del robot, ogni responsabilità civile, cagionando delle conseguenze giuridiche evidentemente distrofiche rispetto all’uso della tecnologia robotica.

Anche la lettera del 2043 c.c., non ci può essere di grande aiuto: la responsabilità civile generalmente intesa per i danni causati a cose o persone, trova il suo fondamento nella possibilità da parte del soggetto ritenuto leso di offrire un quadro che riconduca la condotta del soggetto responsabile all’evento dannoso, attraverso il nesso di causa, e che quest’ultima condotta, consista in un comportamento colposo o doloso dell’ipotetico autore agente responsabile. I soggetti ipoteticamente ritenuti colpevoli di aver immesso in commercio un prodotto altamente progredito sotto il profilo delle funzionalità ritenute incapaci di essere tenuto sotto controllo, come potrebbero essere chiamati a rispondere di un danno scollegato casualmente, per forza maggiore, dall’evento proposto come dannoso? Per tale ordine di motivo, è forse essenziale ricondurre il dibattito entro il binario della considerazione dell’algoritmo come una parte indifferibile e assiologicamente preponderante nell’analisi della responsabilità da robot? Ma a parte ragionamenti generalizzanti che, comunque, sarebbero già bastevoli per dichiarare non fruibile tale disciplina, cioè quella che vorrebbe addossare la responsabilità sempre al dominus, d’altra parte, anche talune altre circostanze rendono tale responsabilizzazione oggettiva deprecabile: da un lato, infatti, non tiene conto della responsabilità che potrebbe avere il produttore, scagionandolo del tutto non si sa per quale ragione, dall’altra perché renderebbe totalmente privo di ratio il postulato per il quale un onere pesante come questo venga riversato completamente su categorie che potrebbero essere anche fragili o vulnerabili: proprio quelle fasce di persone che dovrebbero viceversa essere aiutate da quella stessa tecnologia in favore delle quali è stata programmata e costruita.

Appare inoltre ovvio che tale soluzione farebbe - effetto accessorio ma non da sottovalutare - desistere dall’acquisto delle macchine digitali, essendo così alto il rischio di esserne chiamati a rispondere. Mancherebbe anche un’articolazione della responsabilità differente tra chi utilizza la macchina a scopo aziendale, che pure farebbe fatica ad internalizzare i costi di simile impianto normativo, e chi utilizza, invece, il robot a scopi privati e puramente personali. 

Pare da scartare dunque l’ipotesi che la responsabilità da macchine robotiche possa essere regolata sulla base del codice. Le ragioni che inducono a scansare tale ipotesi sono sia tecniche che di principio: innanzitutto, per la diffusione della responsabilità, connessa alla capacità di controllo e di prevedibilità delle conseguenze dell’azione robotica, in parte addossabile al produttore, in parte all’utilizzatore, nonché anche l’ideatore dell’algoritmo.

Secondariamente, per l’incontrollabile spinta che sta conducendo il progresso digitale ad esibire macchine sempre più intelligenti capaci di presentare comportamenti del tutto imprevisti e non programmati, il che renderebbero ingiustificata l’applicazione di responsabilità ad un soggetto cui solo formalmente, cioè oggettivamente, sarebbe ricondotta l’azione del robot. Se rimaniamo nel campo della tecnologia basica, allora (forse) le regole ordinarie reggono; potrebbe essere sufficiente valorizzare, in questo caso, di volta in volta il legame con chi l’ha costruita, l’abbia programmata o l’abbia utilizzata.

Ove però vi sia una realistica possibilità che la signoria del controllo sull’operato di intelligenze artificiali, sempre più complesse ed autonome, sfugga completamente al soggetto chiamato a rispondere secundum legem sarà necessario ripensare completamente le attuali norme civilistiche e fuggire dal sistema fin qui delineato. Unica scappatoia ravvisabile e desiderabile, anche se in prospettiva utopistica, nel caso della completa automazione di una macchina, in grado di operare anche al di fuori di binari predefiniti, dovrebbe essere, dal lato contrattuale, una “certificazione di garanzia” di guisa che certuni comportamenti incontrollabili e autonomamente adottati delle macchine abbiano comunque risposte efficienti a problemi che non possano essere tutti ragionevolmente anticipati dal produttore o dal programmatore.

Anche se in molti casi potrebbe essere ostico scorgere una qualche difettosità del prodotto per come noi la intendiamo, poiché la ragione della reazione non voluta potrebbe essere indecifrabile39 pure agli occhi dei genitori creativi, tanto da non potervi porre rimedio nemmeno nelle successive edizioni del prodotto. Il problema è tanto più pressante, ed anche extracontrattuale, perché l’incertezza dal punto di vista tecnologico e giuridico implica l’impossibilità di una stima del rischio assicurativo. E anche se si fosse in grado di calibrare ed assicurare il rischio assicurativo del prodotto, si tradurrebbe in un costo sproporzionato per costoro. In uno scenario di vero “replacement40” , in cui i robot sostituiranno l’uomo relativamente a determinate attività41 certuni hanno paventato la costruzione dogmatica di una strict liability42 fino a creare un sistema no fault ovvero una responsabilità di tutti i soggetti economici coinvolti nella messa a punto delle varie componenti di un sistema o, ancora, al regime di assicurazione individuale obbligatoria, posto comunque che gli incidenti, con il progresso della tecnica, sarebbero così rari da rendere il premio assicurativo molto basso e quindi accessibile a tutti i privati consumatori. Senza dubbio, la decisione circa gli strumenti giuridici da impiegare per accompagnare lo sviluppo tecnologico verso la completa automazione della macchina, è un’opera in fieri, che le riflessioni che seguono potranno auspicabilmente stimolare a fronte di un quadro tanto incerto, il quale manifesta una serie di punti fermi, codicistici e non, che tuttavia appaiono abbastanza inadeguati alla regolamentazione complessiva del fenomeno. 

1.7 Il robot come nuovo schiavo: punti di contatto tra realtà distanti 

Alla luce delle ipotesi di ricostruzione disciplinare testé analizzata, giunge ora il momento di procedere alla accennata riflessione di stampo comparatistico, in merito alle ipotizzabili risposte che la scuola romanistica potrebbe offrire in relazione alle esigenze che provengono dalla impellente questione sospinta dal fenomeno dell’intelligenza artificiale limitatamente al c.d. “responsability gap”. Ad un quivis de populo, magari non interessato alle dinamiche offerte dal panorama giuridico ed ai suoi complessi risvolti, parrebbe non del tutto assennato procedere ad un tentativo di confronto diacronico tra la disciplina odierna delle macchine intelligenti e la tradizione romanistica, ma all’occhio del giurista tale speculazione potrebbe risultare senza dubbio interessante e, quantomeno, utile alla causa.

Proprio tra i giusromanisti43 il dibattito in tema di A.I. è divenuto infatti fiorente: due mondi così distanti possono dialogare, seppur a distanza, e il diritto romano può fornire le chiavi interpretative dell’oggi alla luce del nostro illustre passato. Ma perché ciò è possibile? La risposta a tale domanda sta nella peculiare condizione dello schiavo, che è per sua natura una “cosa intelligente”, e, per questo, si presta, in maniera evidente, ad essere avvicinabile all’odierno agente digitale. Scorrendo le svariate speculazioni che possiamo estrapolare dalla dottrina romanistica, domandiamoci anzitutto come sia possibile che il robot possa essere assimilabile al servus: sicuramente entrambe queste entità sono al tempo stesso una cosa, della quale il padrone può disporre liberamente, ma anche un agente del rispettivo proprietario, in grado di svolgere azioni produttive, idonee a porre in essere effetti rilevanti, tali da modificare la realtà sul piano del diritto. Gli scenari di comparazione che si aprono in relazione al confronto tra lo schiavo ed il robot, sono senza dubbio molteplici e degni di interesse: sotto il profilo della inclinazione funzionale analoga dei due soggetti, prima di tutto. Lo schiavo ebbe modo di fungere da aiutante domestico, quasi "familiare44”, ma anche, nella stagione dell’imperialismo, si prestò utile al bisogno romano di reperire forza lavoro da dare in pasto ai grossi latifondisti, con una modalità del tutto similare, se vogliamo, alla schiavitù robotica delle più evolute macchine agricole; inoltre, lo schiavo, all’apertura dei grandi commerci, fu strumento pensante del dominus, nel contesto della sua propria organizzazione imprenditoriale, in maniera non troppo dissimile, da una parte della sofisticata manodopera digitale presente nel capitalismo industriale dei grandi stabilimenti45. Non mancò, del resto, in Roma antica, la figura del servo addirittura manager e affarista ovvero capace di intrattenere attività contrattuale per conto del padrone e di realizzare significative opere intellettuali ed artigianali46, del quale abbiamo avuto di parlare molto, nei capitoli precedenti.

É già stato ampiamente ricordato come il dibattito sulla figura del captivus, a Roma, conduca alla teorizzazione che lo vede come una cosa, piuttosto che come un essere dotato di personalità giuridica: esso è infatti mero oggetto di rapporti giuridici patrimoniali, rimanendo spoglio di una vera capacità giuridica. Il diritto romano non attribuì mai alla “cosa intelligente” la personalità giuridica che natura avrebbe voluto essere sua come del libero, per questo tutti gli atti compiuti dal servo si imputavano al padrone che lo avesse incaricato di svolgere una determinata attività contrattuale, si imputavano al terzo che lo avesse preposto a compiere questa attività pure se egli non fosse stato il dominus ma il suo utilizzatore materiale, e, inoltre, contro il padrone si sarebbero dovute esercitare le azioni per i delitti, cioè i fatti illeciti extracontrattuali, commessi dal servo, salva la possibilità per il dominus di dar luogo alla dazione nossale, perdendo i suoi diritti sullo schiavo.

Qui, incontriamo il primo problema rispetto all’impostazione di coloro che alla macchina robotica vorrebbero riconoscere una personalità autonoma rispetto al padrone originario; ciò sembra complesso, ma se pensiamo anche ai recenti sviluppi in materia di costruzione di androidi intelligenti, è possibile senza dubbio iniziare a strizzare l’occhio a quelle macchine più sofisticate che potrebbero essere considerate capaci di rispondere dei propri diritti e doveri ed essere anche chissà, in un futuro prossimo, "manomesse”. Pensiamo al recente debutto del prodotto Tesla, rilasciato il 20 agosto 2021: il teslabot "Optimus”: un automa costruito per gestire «compiti non sicuri, ripetitivi o noiosi». Si tratterebbe di un’unità che nasce e sintetizza nella sua A.I. l'esperienza acquisita dagli ingegneri nella realizzazione di automi da impiegare nelle fabbriche per l'assemblaggio dei veicoli. Ictu oculi, se ci accingessimo a comparare le due figure (quelle del robot e dello schiavo) ci accorgeremmo che entrambe presentano similari caratteristiche funzionali: quelle di essere ausilio, più o meno pensante all’uomo. Lo schiavo, come abbiamo avuto modo di vedere nei capitoli precedenti, era il vero pilastro portante dell’economica del mondo antico, in quanto la sua declinazione più utilizzata era quella di essere uno strumento grazie al quale il civis romanus poteva compiere atti aventi contenuto patrimoniale, sebbene inizialmente, all’epoca delle XII Tavole, il servo potesse solo accrescere il patrimonio del padrone, senza disperderlo; è grazie alle azioni adiettizie che lo “strumento servo” si perfeziona dal punto di vista negoziale: e dato che a queste condizioni nessuno avrebbe contrattato con il servo, fu garantita la responsabilità prima del dominus, poi di chiunque, avesse preposto il servo ad una certa mansione.

Nel caso di specie, il proprietario dello schiavo, avrebbe potuto delegare a lui la cura di tutti gli interessi connessi ad una attività commerciale di terra47 o di mare48 ovvero aveva la possibilità di poterlo incaricare di porre in essere di una singola operazione commerciale. In questo caso il terzo avendo tutela con l’actio quod iussu. Ora, in tal senso, non è difficile - ai fini della nostra ricerca - percepire una sorta di analogia con gli automi digitali che, allo stesso modo, potrebbero essere incaricati da un soggetto (dominus, nel caso dello schiavo) nello svolgimento di un determinato affare. Tuttavia, anche qui la domanda fondamentale è chi sia il soggetto che incarica l’intelligenza artificiale di compiere una determinata attività.

A mio avviso il dominus dello schiavo potrebbe in questo caso essere identificato nel produttore che funzionalizza in maniera compiuta la macchina a quella data attività49. Il progresso sicuramente ci consegna un grosso incentivo ad invenire mezzi efficaci, per manifestare all'esterno l'appartenenza di quel robot agente, ad una impresa o ad una società proprietaria, ma, oltre a ciò, colui che andasse ad interfacciarsi con i sottoposti digitali, potrebbe rendersi conto dei limiti entro cui contrattare con l’agente robotico, attraverso la possibilità di consultare, proprio per mezzo della macchina stessa, le condizioni contrattuali generali, che - a priori - il produttore ha inserito nel software dell'automa stesso. Abbiamo già analizzato, poi, il fatto che il dominus avesse altresì un'altra possibilità: non solo cioè quella di preporre "ad libitum” il sottoposto al compimento di tutte le attività commerciali connesse ad un'impresa (o ad una singola, nel particolare), bensì anche quella di poter affidare al proprio schiavo una parte separata e distaccata del patrimonio di appartenenza, al fine di evitare che un'operazione, potesse pregiudicare senza limiti le sue sostanze patrimoniali. 

Attraverso lo studio di tale forma di separazione patrimoniale, già conosciuta al lettore come peculium, possiamo domandarci se e anche i robot del futuro, potrebbero essere messi nelle condizioni di rispondere verso i terzi, attraverso la gestione di capitali separati, per atti compiuti in pregiudizio ai creditori. È suggestiva l’idea che anche oggi un facoltoso imprenditore possa essere in grado di separare il suo ingente patrimonio, demandandone una parte soltanto, rispetto alla sua gestione ed al suo profitto, a sottoposti cibernetici, che o maneggino autonomamente. 

1. 8 Nuovi orizzonti e soluzioni romanistiche prospettabili 

Al giorno d’oggi, comunque, il problema maggiormente percepito risulta essere quello della responsabilità civile da intelligenze artificiali, motivo per cui il nostro interesse verte proprio sullo sfruttamento delle conoscenze romanistiche, per cercare di comprendere il fenomeno e riuscire a dare delle adeguate soluzioni a tale questione. Sicuramente, riprendendo le fila della disciplina in tema, abbiamo già messo in luce che oggi tutto ciò che può essere indicato come attività pericolosa, ai fini della costruzione o creazione di macchine intelligenti, rientra nel campo dell’articolo 2050 c.c. e l’utilizzatore ne risponde a meno che non provi di aver impiegato tutte le misure idonee ad aver evitato il danno. Questo è a mio avviso l’unico elemento che possa quantomeno essere avvicinabile alla disciplina romanistica della responsabilità adiettizia: il soggetto romano che aveva nella sua potestà innumerevoli schiavi, che preponeva per commerciare, accettava un rischio per la loro attività, che si concretava nella possibilità dei terzi di rivolgersi a lui per la malagestio del servo, per cui, se è vero che il padrone si assume la responsabilità per le attività del servo in lesione dell’affidamento dei terzi, si assume in un certo senso il rischio della loro gestione e la loro pericolosità è intrinseca al loro libero arbitrio, nel senso che possono prendere decisioni, anche sciagurate, fuori dal controllo del preponente, salva la facoltà di costui di limitare le loro capacità negoziali e quindi di fare tutto quanto è necessario per limitarne la pericolosità attraverso una diligente predisposizione delle condizioni generali della preposizione, all’interno della proscriptio. A mio parere - la disciplina romana sul punto risulta sicuramente calzante con il target moderno, in tema di nuove responsabilità da A.I. Ma il diritto romano, ci insegna di più: difatti, rimane sempre e comunque il problema - difficilmente superabile - del consegnare all’agente artificiale una personalità elettronica che possa essere in grado di far sì che la macchina digitale intelligente, riesca a rispondere passivamente dei propri doveri Il diritto romano offre spunti per far percepire all’interprete del XXI secolo che la migliore soluzione prospettabile sia quella della personalità elettronica appunto, che il progresso tecnologico oramai considera l’unica strada da percorrere.

La personalità elettronica è oggi considerata un approccio plausibile sia per i robot dotati di un corpo, sia per i c.d. software robot in grado di esibire uno spiccato grado di autonomia e di interazione con le persone. C’è però indubbiamente il problema tecnico di identificare un patrimonio attraverso cui i nuovi soggetti cibernetici possano eventualmente rispondere delle obbligazioni contratte. Una volta compiuta una sorta di catalogazione umanizzatrice dei robot messi in commercio, potremmo cercare di dare delle risposte romanistiche al problema: in tal senso, sarebbe opportuno mutuare l’istituto del peculium assicurando che ogni robot sia dotato di un fondo tramite cui rispondere delle obbligazioni. Le modalità di formazione e di finanziamento del fondo medesimo sono il vero problema, in quanto potrebbero essere eterogenee e la relativa scelta circa le modalità della sua costituzione implicherebbe anche l’identificazione del soggetto sul quale dovrebbero gravare, totalmente o in parte, le conseguenze economiche derivanti dagli eventuali danni della macchina51.

Le capacità e le autonomie delle intelligenze robotiche sono di certo molto difformi, ciò implica anche un differente rischio patrimoniale connesso al loro utilizzo e dunque implicherebbe una corrispondente diversa stima degli asset patrimoniali destinati al loro peculio digitale. La sua costituzione potrebbe essere garantita in forma assicurativa nell’ambito degli utilizzi imprenditoriali della macchina robotica, ma una simile soluzione non sarebbe pensabile quando il robot sia allestito con finalità sociali e non meramente produttive, come ad esempio quella assistenziale nell’ambito della vita familiare. In questi casi, il diritto romano, per risolvere un problema similare, utilizzava la c.d. taxatio, ovverosia una clausola con cui, nei casi di condanna ad una somma incerta, si limitava entro un certo limite massimo l'importo pecuniario della condanna stessa; in tal senso tale formula, oggi utilizzata nel caso di giuramento estimatorio, soprattutto nel caso della robotica di servizio, potrebbe essere tipizzata nel caso di danni derivanti da I.A., proponendo proprio di accompagnarla con la fissazione di una soglia massima risarcitoria cui può essere tenuto l’utilizzatore, rendendo così più facilmente assicurabile il rischio.

Il pagamento del canone assicurativo, non essendo comparabile con la funzione propria del peculio, potrebbe essere analizzato come un patrimonio separato sborsato o dal produttore stesso che, al momento della vendita del robot, vende anche il patrimonio affidato all’entità robotica, dall’utilizzatore come prezzo da corrispondere per godere della fruttuosità economica derivante dall’utilizzo dalla macchina o pensare addirittura che lo Stato, attraverso varie forme di finanziamento pubblico, possa far ottenere ai vari utilizzatori, che vantino il possesso o la proprietà di un automa con un apprezzabile e determinato grado di avanzamento tecnologico, la somma destinata a tale utilizzo. Per quanto riguarda la responsabilità del produttore e del programmatore, ovverosia colui che produce il bene e colui che inserisce all’interno del bene l’algoritmo che dà delle informazioni di base all’umanoide, il diritto romano non ci aiuta, rispetto al tema della responsabilità civile verso terzi, se non a sviluppare un confronto ben più calzante, con la disciplina molto dettagliata della responsabilità edilizia. L’introduzione dei primi obblighi precontrattuali di informazione (per usare la terminologia moderna, peraltro del tutto estranea alle fonti romane) si deve al ius honorarium, ed in particolare all’editto degli edili curuli; e nella violazione delle disposizioni edilizie si ravvisano i primi elementi di una responsabilità precontrattuale.

L’attenzione istituzionale per il problema esplose non a caso tra III e II sec. a.C., quando la trasformazione delle attività produttive determinò un’impennata nella domanda di manodopera servile. I mercanti di schiavi erano sovente poco affidabili: di qui l’esigenza, in Roma, di tutelare, mediante una specifica regolamentazione giuridica, gli acquirenti degli schiavi rispetto alle astuzie e alle vere e proprie frodi di mercanti privi di scrupoli. Intervennero allora gli edili curuli, i quali, tra III e II sec. a.C., introdussero un nuovo sistema normativo in materia di vizi della merce negoziata. Nel testo edittale, che deve molto a precedenti greci, si impose ai venditori di schiavi l’obbligo di denunziare apertamente e di pronunziare con chiarezza, apponendo anche al collo dello schiavo un cartello scritto, alcune anomalie fisiche non apparenti dello stesso tra cui le malattie che lo inabilitassero al lavoro, specifici difetti caratteriali ed anche un “vizio di diritto”: la commissione di un illecito che lo esponesse al rischio di un giudizio nossale.

Qualora il venditore avesse omesso di indicare un vizio, perché questo non era da lui conosciuto, al compratore di un bene affetto da vizi edittali sarebbero stati accessibili i rimedi dell’azione redibitoria, e di quella aestimatoria, già analizzate nel capitolo precedente: difatti il venditore, una volta convenuto in giudizio per la violazione degli obblighi di informazione, non poteva difendersi adducendo, eventualmente, la sua buona fede, per ignoranza del difetto contestato: nella compravendita di schiavi, la responsabilità per vizi occulti prescindeva dalla sussistenza dell’elemento soggettivo (scientia), configurandosi alla stregua di responsabilità oggettiva o, forse più esattamente, di presunzione assoluta di colpa. Gli edili curuli introdussero così nell’ordinamento giuridico romano il principio della responsabilità oggettiva per i vizi occulti degli schiavi negoziati. Da quel momento, il conseguimento di una informazione corretta sul bene negoziato non costituì più, come nel passato, un onere deferito alla vigile iniziativa dei compratori, bensì un obbligo edittale, posto a carico del venditore. Ma quale fu la natura della responsabilità nascente in capo al venditore per la violazione degli obblighi imposti dagli edili?

Il nuovo obbligo di informazione introdotto dagli edili curuli era un obbligo esterno al contratto di compravendita, la cui mancata esecuzione, a rigore, non comportava (almeno all’epoca) inadempimento o inesatto adempimento contrattuale. Si potrebbe perciò discutere, alla luce delle categorie moderne, se la violazione degli obblighi di informazione imposti dagli edili desse luogo a una vera e propria responsabilità contrattuale; le ragioni della perplessità risiedevano nel fatto che la redibitoria si fondava sull’inadempimento di obblighi non contrattuali (e non riconducibili in alcun modo a quelli direttamente discendenti dall’emptio venditio), la cui fonte era costituita dall’editto edilizio. Dovremmo allora parlare di una responsabilità edilizia, che neppure in epoca giustinianea sarebbe stata assunta nella responsabilità contrattuale.

Nonostante questa riflessione, noi possiamo sostenere la tesi per cui, ad oggi la responsabilità edilizia può essere accostata al produttore della macchina e al programmatore dell’algoritmo, ovverosia coloro che disegnano e danno forma e mentalitè alla macchina, e che implichi una responsabilità legata all’obbligo contrattuale di lavorare ad opera d’arte e di mettere nelle condizioni chi comprerà, di farlo in maniera "sicura” ed affidabile anche in relazione al prezzo pattuito52. Il problema comunque maggiore, è relativo alla corrispondenza tra le conseguenze dell’attività illecita dello schiavo e del robot: tale spaccato di disciplina, nella comparazione con le intelligenze artificiali, è elemento che riscuote oggi il maggior interesse da parte degli studiosi74. La responsabilità civile, che dà luogo ad un obbligo di risarcimento, nell’esperienza romana, è congiunta a quella penale da delitto, giacché i principali illeciti previsti dall’antico ius civile prevedevano anzitutto la comminazione di una sanzione di tipo afflittivo, e non meramente rimuneratorio. Trattandosi tuttavia di un’obbligazione civile, come tale, ovviamente, non poteva che gravare sul dominus, non avendo il servo personalità giuridica.

In questo importante ambito, si colloca la disciplina in tema di danno, che fu organicamente posta dalla celeberrima lex Aquilia del 286 a.C., dalla quale discese l’esperibilità di un’azione mista, dalla valenza sempre e comunque anche risarcitoria e che, come azione penale, concesse però al padrone dello schiavo, che avesse agito in completa autonomia, di estinguere l’obbligazione senza versare alcunché, ossia consegnando il servo in facultate solutionis54. I giuristi romani erano evidentemente poco inclini ad accettare l’idea che i comportamenti del sottoposto potessero costare al dominus più di quanto il sottoposto stesso economicamente valesse, e gli consentivano di liberarsi da ogni impegno sbarazzandosene, ché a quel punto il creditore avrebbe potuto soddisfarsi come meglio voleva, infierendo su di lui magari anche con lo sfruttarne al massimo ogni possibile sua forza lavoro.

Ora, non vi è dubbio che anche al giorno d’oggi, o sarebbe meglio dire di domani, la responsabilità per i danni arrecati da una macchina (per ipotesi un veicolo automatizzato, privo di guidatore, che abbia provocato un incidente) debba essere imputata al proprietario di essa, con un rigore che quasi rasenta la responsabilità oggettiva, secondo linee normative che, pur se non ovviamente in riferimento alle intelligenze artificiali, già si intravedono nel disposto degli artt. 2051-2052, 2054 del codice civile. Tuttavia dal diritto romano ci proviene, però, un’altra lezione, che non merita di essere presa in considerazione: ossia che sull’attuale titolare del robot non possa essere fatto gravare un peso potenzialmente illimitato, ma semmai un peso che trovi per così dire il suo massimo in qualcosa che ha a che fare col valore della macchina.

Il dominus, una volta qualificato come responsabile del fatto illecito della macchina, dovrebbe essere tutelato, contro il rischio di condotte lesive affatto anomale, anzitutto, ma è questione di politica legislativa, che non spetta a noi risolvere, attraverso forme di assicurazione obbligatoria: poi, certo, come già nell’antica Roma dove esisteva la garanzia per i vizi occulti della cosa, schiavo compreso, avverso il produttore/venditore; anche attraverso una sorta di actio servi corrupti55, contro gli estranei che avessero esercitato sull’intelligenza artificiale come sul servo un condizionamento tale da recare nocumento ai loro padroni, per il comportamento anomalo in essi inveratosi. Se nel primo caso ci sembra di alludere, come detto, alla figura del venditore56 di macchine intelligenti; il secondo, forse, potrebbe identificare anche una forma di responsabilità del programmatore.


Note e riferimenti bibliografici

1 Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (doc. A8-0005/2017), art. 59 lettera f: “ [...] invita la Commissione a esplorare, esaminare e valutare, nell'ambito della valutazione d'impatto del suo futuro strumento legislativo, le implicazioni di tutte le soluzioni giuridiche possibili, tra cui: [...] l'istituzione di uno status giuridico specifico per i robot nel lungo termine, di modo che almeno i robot autonomi più sofisticati possano essere considerati come persone elettroniche responsabili di risarcire qualsiasi danno da loro causato, nonché eventualmente il riconoscimento della personalità elettronica dei robot che prendono decisioni autonome o che interagiscono in modo indipendente con terzi”. 

2 K. Čapek, R.U.R. Rossum’s Universal Robots, trad. ita. a cura di A. Catalano, Venezia, 2018. 

3 “a machine that resembles a living creature in being capable of moving independently (as by walking or rolling on wheels) and performing complex actions (such as grasping and moving objects”.

4 Basti pensare che nell'inglese sudafricano, il termine robot indica anche un sistema di semafori. 

5 Vero è che, vagamente, le macchine, possano assomigliare ad un essere umano ma si muovono ad una velocità che non è lontanamente paragonabile a quella proposta.

6  Stessa interpretazione fantascientifica di robot, ci viene offerta dal Collins English Dictionary, che addirittura si spinge ad inserire, tra le definizioni presenti, che l’agente robotico sia “a person who works or behaves like a machine” cioè, a dire “una persona che lavora come una macchina”, puntando - così - ad interscambiare l’uomo con la macchina, rendendoli praticamente similari. 

7  R. Calo - A. M. Froomkin, Robot Law, Cheltenham, 2016, 117 ss. 

8 In Estonia, ad esempio, stanno pensando di adottare un testo normativo sui robot con cui probabilmente dovranno definire cosa essi siano. L'idea della tassonomia getta le proprie fondamenta nel fatto che esistono diversi parametri che possono essere presi in considerazione per descrivere cosa sia un robot (molto autorevoli, sono le definizioni date da organismi internazionali di standardizzazione, come ad esempio ISO e IEEE). Una definizione di robot data da un organismo di standardizzazione è sicuramente molto autorevole nella comunità tecnico scientifica: l’ISO ha definito il termine robot industriale come un oggetto automatico, programmabile, che può essere multipurpose, che si muove su tre o più assi, fisso o mobile: è una definizione molto ampia. 

9  M. Brady, Robotics and Artificial Intelligence, Cambridge, 1984. 

10  Sul punto V. L. Floridi - F. Cabitza, L’intelligenza artificiale. L’etica necessaria, Milano, 2021. 

11  Secondo tale parere, l’agente è morale solo nella misura in cui sia il risultato - positivo - della sommatoria di questi due test: la capacità dell’essere digitale di godere della interattività, dell’autonomia e dell’adattabilità e l’inclinazione a compiere azioni morali. 

12 L. Floridi, L’estensione dell’intelligenza. guida all'informatica per filosofi, Roma, 1996.

13 Floridi, a tal proposito, afferma che si possa programmare una macchina affinché persegua uno scopo, riuscendo, molto facilmente, a smontare questa prima obiezione. 

14 Sul Punto V. J.S. Gutmann, Obstacle avoidance and path planning for humanoid robots using stereo vision, in IEEE International Conference on Robotics and Automation (ICRA), New Orleans, 2004.

15  Se dovessimo sintetizzare il concetto di “azione”, in una formula o equazione matematica, essa sarebbe: azione = volontà + intenzione + libertà. Difatti, l’azione è un comportamento orientato verso un fine scelto: quello che definisce l'azione è proprio questa connessione tra mezzi e fini. 

16  A. Matthias, Algorithmic moral control of war robots: Philosophical questions, in Law, Innovation and Technology, III / 2015.

17 R. Kelley - E. Shaerer - M. Gomez - M. Nicolescu, Liability in Robotics: An International Perspective on Robots as Animals, in Advanced Robotics, XXIV / 2010. 

18  V. Le osservazioni proposte in A. Bertolini - F. Episcopo, The Expert Group’s Report on Liability for Artificial Intelligence and Other Emerging Digital Technologies: a critical assessment, in European Journal of risk regulation, XII / 2021. 

19  A. Matthias, Robots, theology and the personhood of nonhumans: a critique, in Erwaegen, Wissen, Ethik (Deliberation, Knowledge, Ethics), XX (2) / 2009. 

 20 Per completezza sull’argomento, vedi, su tutti, G. Alpa, U. Carnevali, F. Di Giovanni, G. Ghedini, U. Ruffolo, C. M. Verardi, La responsabilità per danno da prodotti difettosi, Milano, 1990. 

21  In informatica, la prima legge di Moore postula che la complessità di un microcircuito raddoppia ogni 18 mesi. 

22 Tale definizione viene accuratamente indicata da Ugo Ruffolo, al fine di indicare l’abitudine, ormai adusa da parte dei legislatori, di tendere a voler freneticamente cercare di produrre sempre nuove norme ratione materiae, scansando l’ipotesi di innovative interpretazioni di disposizioni già presenti nelle leggi. 

23  U. Ruffolo, Intelligenza artificiale. Il diritto, i diritti, l’etica, Milano, 2020. 

24  A. Amidei, Intelligenza Artificiale e product liability: sviluppi del diritto dell’Unione Europea, in Giur. It., VII / 2019, 1715 ss., ID., Robotica intelligente e Responsabilità: profili e prospettive evolutive del quadro normativo europeo, in U. Ruffolo (a cura di), Intelligenza artificiale e responsabilità, Milano, 2017. 

25  A. Albanese, La sicurezza dei prodotti e la responsabilità del produttore nel diritto europeo, in Europa dir. priv. XIII / 2005. 

26  Tali disposizioni hanno il pregio di integrare i codici nazionali, sino ad esservi, in taluni ordinamenti, addirittura confluite: così è stato dunque, nel nostro ordinamento italiano, per alcune norme in materia di consumer protection, inserite dapprima nel nostro codice civile e trasfuse, poi, nel sopravvenuto codice - domestico - del consumo. 

27  L. Barassi, Contributo alla teoria della responsabilità per fatto non proprio, in Riv. it. sc. giur., XXII / 1987. 

28  Per una lettura sul tema, V. J. Maccormick, 9 algoritmi che hanno cambiato il mondo, trad. ita. a cura di V. B. Sala, Milano, 2011. 

29  A. Vespignani, L’algoritmo e l’oracolo, Milano, 2019. 

30 Art. 7., direttiva 85/374/CEE del Consiglio del 25 luglio 1985 relativa al ravvicinamento delle disposizioni legislative, regolamentari ed amministrative degli Stati Membri in materia di responsabilità per danno da prodotti difettosi: “Il produttore non è responsabile ai sensi della presente direttiva se prova:Il produttore non è responsabile ai sensi della presente direttiva se prova: 

a) che non ha messo il prodotto in circolazione;
b) che, tenuto conto delle circostanze, è lecito ritenere che il difetto che ha causato il danno non esistesse quando l'aveva messo in circolazione o sia sorto successivamente;
c) che non ha fabbricato il prodotto per la vendita o qualsiasi altra forma di distribuzione a scopo economico, né l'ha fabbricato o distribuito nel quadro della sua attività professionale;
d) che il difetto è dovuto alla conformità del prodotto a regole imperative emanate dai poteri pubblici;
e) che lo stato delle conoscenze scientifiche e tecniche al momento in cui ha messo in circolazione il prodotto non permetteva di scoprire l'esistenza del difetto;
f) nel caso del produttore di una parte componente, che il difetto è dovuto alla concezione del prodotto in cui è stata incorporata la parte o alle istruzione date dal produttore del prodotto”. 

31  Si può ipotizzare che l’agire dell'agente intelligente venga considerato come un evento "naturale", non controllato da un uomo, cioè un evento in cui si è manifestato il rischio generale di vita. Ciò potrebbe accadere solo ipotizzando che in un prossimo futuro l’uso di agenti intelligenti sia talmente pervasivo e diffuso nella vita quotidiana da parte degli umani da essere percepito come un “normale” rischio ambientale, un rischio a tutti familiare (paragonabile ad un tornado, ad una tempesta, ad un’eruzione vulcanica, o più semplicemente alla caduta dei rami di un albero durante una passeggiata nel bosco). 

32  In ogni caso, sarebbe necessario stabilire un livello di cautele differenziato a seconda dell’uso e del tipo di tecnologia intelligente, per cui: tanto maggiori sono i benefici, tanto seri saranno i pericoli, e maggiori saranno le misure cautelari richieste. Ad esempio, i droni armati richiedono molte più precauzioni, mentre eventuali reazioni inaspettate del sistema di acquisto on line su internet tendono ad essere accettati, anche se possono causare danni gli utenti; maggiori saranno le cautele invece nel caso di prodotti tecnologicamente più semplici ma di uso comune come elettrodomestici o giocattoli. A seconda del loro utilizzo, ci sono diversi livelli di rischi da prendere in considerazione, da accettare o, se necessario, da vietare. Quindi, può essere consentito mettere sul mercato un'auto senza conducente, anche accettando il rischio di errore perché l’auto a guida autonoma è la migliore soluzione dei problemi di traffico. I rischi connessi all’uso improprio di dati personali memorizzati dai motori di ricerca sono tanto comuni da essere implicitamente accettati da tutti: anche se siamo perfettamente a conoscenza dei nostri diritti e dei pericoli che comporta inserire dati on line, continuiamo a ordinare merci su Internet e ad accettare il rischio che il sistema elabori le nostre informazioni personali in un modo ingestibile e incontrollabile. 

33  Un esempio assai chiaro di questa situazione trova dimora nella disciplina dei veicoli autonomi che si collocano in un’area assai grigio-scura dal punto di vista giuridico; difatti la circolazione sulle strade di macchine senza il guidatore - ad oggi - può avvenire solo in virtù di una regolamentazione introdotta appositamente per consentirne l’impiego. Sempre per seguire l’esempio del driverless e ricondurlo alla fattispecie, la legislazione statunitense, a livello federale, complice la convenzione di Ginevra del 1949, ha concluso che «probabilmente» già oggi tale utilizzo non sia vietato. Ciònondimeno un’intensa attività di lobbyng ha comunque portato all’emanazione di disposizioni ad hoc che autorizzano la circolazione in via sperimentale di queste auto in alcune strade, come ad esempio in Nevada, in Florida, in California o in Michigan. 

34  C. Arkin, Behavior-based Robotics, Cambridge, 1998, 102 ss. 

35  P. M. Asaro, Robots and Responsibility from a Legal Perspective, in Proceedings of the IEEE, IV (14) / 2007. 

36  R. Calo, Open Robotics in Maryland Law Review, LXX / 2011.

37  A. Matthias, The responsibility gap: Ascribing responsability for the actions of learning automata, in Ethics and Information Technology, VI / 2004. 

38 S. N. LEHMAN - WILZIG, Frankenstein Unbound: Towards a Legal Definition of Artificial Intelligence, in Futures XIII/ 1981, 442 ss.; L. B. SOLUM, Legal Personhood for Artificial Intelligences, in North Carolina Law Rev., LXX / 1992, 1231 ss; M. COECKELBERGH, Robot rights? Towards a social-relational justification of moral consideration, in Ethics and Information Technology, XII / 2010.

39  D. C. Vladeck, Machines Without Principals: Liability Rules and Artifificial Intelligence, in Washington Law Review, LXXXIX / 2014, 117 ss. 

40  MILLAR - I. R. KERR, Delegation, Relinquishment and Responsibility: The Prospect of Expert Robots, in Robot Law, Cheltenham, 2016,102 ss. 

41  M. COECKELBERGH, Artificial agents, good care, and modernity, in Theoretical Medicine and Bioethics, 2015, vol. 36, 265 ss. 

42  A. BERTOLINI, Robotic prostheses as products enhancing the rights of people with disabilities. Reconsidering the structure of liability rules, in International Review of Law, Computers & Technology, 2015, vol. 29 (2-3), 116 ss. 

43 Si vedano soprattutto U. Pagallo, The Law of the Robots. Crimes, Contracts and torts, Dordrecht, Torino, 2013, 137 ss., L. Floridi, Roman Law offers a better Guide to Robot Rights than sci-fi, in Financial Times, 22 febbraio 2017, 12 ss., nonché nell’intervista concessa a A. D. Signorellli, L’etica delle intelligenze artificiali, in Le macchine volanti, ed. online consultabile al: https://www.lemacchinevolanti.it/ approfondimenti 2017; U. Ruffolo, Le responsabilità da artificial intelligence, algoritmo e smart product: per i fondamenti di un diritto dell’intelligenza artificiale self- learning, in Intelligenza artificiale - il diritto, i diritti, l’etica, Milano, 2020. 95 ss. ; ID., Intelligenza Artificiale ed automotive: veicoli self-driving e driverless e responsabilità, 156 ss.; M. Ascione, L’intelligenza artificiale come lo schiavo di Roma antica, in Corriere della Sera, 11 ottobre 2020, 37 ss. 

44  Ricordiamo che in età arcaica, secondo quanto risulta dalla stessa legge delle XII tavole (Tab. V.4; V.5; V.8), il termine familia si riferiva all’intera compagine patriarcale, comprensiva anche del patrimonio e quindi dei servi, dai quali altri sottoposti come i figli venivano non a caso distinti con il denominarli anche liberi. 

45  Pur se in modo un po’ fantasioso, si può azzardare un altro paragone, tra le grandi ribellioni, o rivolte, o addirittura guerre servili, realmente verificatesi, come ad esempio quella famosissima di Spartaco, e le ribellioni delle macchine all’uomo descritte dai romanzi e film di fantascienza, siano esse attribuibili ad un solo individuo (si pensi ad Hall 9000 di 2001: Odissea nello spazio scritto da A.C. Clarke e diretto, nella trasposizione cinematografica, da S. Kubrik) o, assai più spesso, a moltitudini di robot

46  Vedi per esempio M. Talamanca, Istituzioni di diritto romano, Milano, 1990, 79; J. Andreau - R. Descat, Gli schiavi nel mondo greco romano, Bologna, 2014, 101 ss. 

47  Circostanze alle quali erano rispettivamente applicabili le actiones exercitoria e institoria. Su di esse, vedi la letteratura appena citata, alla nota precedente; vedi anche, per dei modelli di formula, D. Mantovani, Le formule del processo privato romano, Padova, 1999, 79 ss. 

48  Circostanza alla quale era applicabile l’actio quod iussu. V. anche, per la relativa formula, D. Mantovani, Le formule, cit., 81.

49  V. L. Franchini, Disciplina Romana della schiavitù ed intelligenza artificiale odierna. Spunti di comparazione, in Diritto Mercato Tecnologia, edizione online consultabile al https://www.dimt.it/wp-content/uploads/ 2020/10/Franchini-IA_DirittoRomano-completo.pdf, 2020, 16 nt. 54. 

50  Va infatti innanzi tutto notato che gli studiosi di intelligenza artificiale (V. ad esempio, per tutti, P. F. Zari, Intelligenza artificiale ed entropia legislativa Profili, diagnosi e rimedi giuridici del mondo dei robot, in Cyberlaws, edizione online consultabile al https://www.cyberlaws.it/2018/ intelligenza-artificiale-ed-entropia-legislativa/, 2018, testo e note 107-110) hanno, talora, espressamente evocato l’istituto romano del peculium, come più o meno utile termine di paragone. Interessanti riflessioni provengono, altresì, da U. Pagallo, The Law, cit., 82, 102 ss., 113, 170, che significativamente parla di un “digital peculium” costituito, secondo il modello romano, come una «sort of portfolio» a garanzia dei diritti dei terzi). Di assai più ampio respiro l’approccio di U. Ruffolo, Le responsabilità, cit., 99, il quale, apprezza - in quanto assistite da azioni - tutte le possibili varianti dell’impiego dei servi nel campo dell’impresa, anche esercitata in forma collettiva, e ne coglie la perfetta simmetria con l’uso strumentale che in questo stesso ambito potrebbe farsi oggi degli schiavi elettronici sapienti. 

51  Ipotesi avanzata da Committee on Legal Affairs, Draft Report with recommendations to the Commission on Civil Law Rules on Robotics (2015/2103, INL), 31 maggio 2016. 

52  Ovvio che il prezzo - come nei mercati venaliciarii, risultava importantissimo, in quanto - ovviamente - a seconda del prezzo corrisposto al fine di acquistare un robot sempre più sofisticato, il prezzo del prodotto si alzerà notevolmente. 

53  P. Voci, Risarcimento e pena privata nel diritto romano classico, Milano, 1939, 15 ss.; ID., azioni penali e azioni miste, in SDHI, 64, 1998, 1 ss.; U. Vincenti, Categorie del diritto romano. L’ordine quadrato, Napoli, 2014. 

54  In merito alla dazione nossale, V. B. BIONDI, Le actiones noxales, Cortona, 1925; G. Pugliese, Appunti in tema di azioni nossali, in Scritti F. Carnelutti, Padova, 1950, 113 ss.; ID., Obbigazione del capo famiglia e responsabilità diretta del colpevole nel regime della nossalità, in Studi di diritto romano, E. Albertario, Milano, 1953, vol. I, 233 ss.; H. Levy- Bruhl, Sur l’abandon noxal, in in M. P. Meylan, Recueil de travaux publiè de Droit de l'Université de Lausanne, Lausanne, 1963, vol. I, 193 ss. 

55  Su di essa, vedi per esempio B. Albanese, Actio servi corrupti, in AUPA, XXVII / 1959, 5 ss.; B. Bonfiglio, Corruptio servi, Milano, 1998, 120 ss.; C. Venturini, Bis idem exigere e corruptio servi: un’ipotesi particolare, in Il ruolo della buona fede oggettiva nell’esperienza giuridica storica e contemporanea. Atti A. Burdese, a cura di L. Garofalo, Padova, 2003, vol. IV. 403 ss.; P. Cerami, Corruptio filii familias’ ed aestimatio del quanti ea res erit nel iudicium de servo corrupto, in Scritti G. Melillo, a cura di A. Palma, Napoli, 2009. 

56  Nonché del produttore, che nell’ambito della filiera commerciale è anche, naturalmente, il primo venditore, dato che ha immesso la macchina sul mercato. In materia di responsabilità del produttore esiste, già oggi, come si sa, una normativa speciale (dettata dal D.P.R. 24 maggio 1988, numero 224, attuativo della direttiva CEE 85/374 e poi rifluita negli articoli 114-127 del Codice del consumo) che è talora invocata dagli studiosi del te- ma oggetto del presente saggio.