ISCRIVITI (leggi qui)
Pubbl. Mer, 3 Mag 2023
Sottoposto a PEER REVIEW

Alla ricerca di Jack Sparrow, Maverick e James Hunt: navi, aerei e macchine senza piloti: una visione giuridica non settoriale

Camilla Della Giustina
Dottorando di ricercaUniversità della Campania Luigi Vanvitelli



Pirati, piloti di aerei e di automobili fanno parte dei ricordi di infanzia di tutti: vi è chi si immedesimava in uno di questi o sognava di essere ´salvato´. L´eroe, la persona in carne e ossa, che diventa idolo. Eppure è possibile che i nuovi eroi siano robot, non umani ma esseri sintetici. In questo scenario si inserisce una riflessione giuridica per quanto attiene ai veicoli autonomi, ossia, entità indipendenti che si aggireranno per mari, cieli e strade. In questo scritto si evidenzia come i cd. autonomous vehicles, siano essi marini, terresti o aerei, dovrebbero essere destinatari di una disciplina organica e non frammentaria. L´analisi verrà condotta attraverso lo studio dei formanti dottrinali, giurisprudenziali non solo di Oltremanica ma anche di Oltreoceano e Orientali.


Sommario: 1. Droni: tra cielo, terra e mare; 2. Una prima ipotesi di tassonomia; 3. Ancora una classificazione: i livelli di automazione; 4. Il caso ‘Uber’; 5. Sunny spells from the ‘UK judicial sea’; 6. Approdo alla ‘baia’ delle possibili risposte; 7. La ‘tradizionale’ responsabilità in tema di collisione; 8. Tra cielo, terra e mare; 9. Non definitive riflessioni conclusive.

Sommario: 1. Droni: tra cielo, terra e mare; 2. Una prima ipotesi di tassonomia; 3. Ancora una classificazione: i livelli di automazione; 4. Il caso ‘Uber’; 5. Sunny spells from the ‘UK judicial sea’; 6. Approdo alla ‘baia’ delle possibili risposte; 7. La ‘tradizionale’ responsabilità in tema di collisione; 8. Tra cielo, terra e mare; 9. Non definitive riflessioni conclusive.

1. Droni: tra cielo, terra e mare

«Le donne, i cavallier, l’arme, gli amori, le cortesie, l’audaci imprese io canto»[1]: ‘droni’, robot, servizi, trasporti, assicurazioni, responsabilità divengono oggetto di studio. Come Orlando nel proemio preannuncia i filoni narrativi, la stessa metodologia viene seguita in questo contributo. La precisazione necessaria, da anticipare, è che il focus sarà incentrato sui veicoli autonomi, cd. ‘droni’, e il riferimento all’automazione del settore dell’erogazione dei servizi al cittadino viene richiamata solamente ai fini classificatori.

I sistemi a pilotaggio remoto, conosciuti maggiormente con l’espressione di droni[2], rappresentano una delle innovazioni maggiormente importanti del settore aeronautico integrando una sfida giuridica posta la progressiva ed esponenziale crescita[3]. Una caratteristica peculiare di questa tecnologia attiene al fatto che la stessa possa essere definita come tecnologia «dual use» in quanto suscettibile di applicazione sia in campo militare che in campo civile[4].

L’origine dei sistemi a pilotaggio remoto era, in origine, esclusivamente militare[5]: i prototipi, infatti, vennero progettati per soddisfare necessità belliche, poiché impiegati nelle missioni definite «dull, dirty, dangerous[6]». Essi consentivano un dispendio minore sia in tema di costi operativi sia di rischi per l’equipaggio che poteva operare da remoto e non sul campo[7].

Il primo riferimento normativo che si rinviene a livello internazionale è l’art. 15, par. 2 della Convenzione di Parigi del 13 ottobre 1919: quest’ultima, tramite l’adozione del Protocollo di emendamento del 15 giugno 1929, disciplinava il sorvolo del «pilotless aircraft».

Ulteriore disposizione è l’art. 8 della Convenzione di Chicago del 1944 in tema di areazione civile internazionale[8] il quale riprende l’art. 15, par. 2 della Convenzione di Parigi. Ai sensi di questa disposizione viene vietato il sorvolo dello spazio aereo civile di uno Stato terzo da parte dei «pilotless aircraft» senza aver ottenuto una previa autorizzazione in tal senso da parte dello Stato sorvolato. Quest’ultimo, infatti, il quale deve garantire che il sorvolo avvenga in condizioni idonee a non compromettere la sicurezza degli aeromobili civili con equipaggio[9]. Questa disposizione, ai fini di adeguare il dettato normativo del 1944 alle nuove esigenze, è stata oggetto di integrazione da parte della normativa ICAO[10] relativa ai mezzi aerei a pilotaggio remoto. Grazie a questa implementazione, diviene necessario assicurare che le operazioni svolte da codesti mezzi venga condotta in maniera tale da minimizzare i rischi per le persone, cose o altri velivoli[11].

In relazione all’aspetto terminologico, i meccanismi aerei a pilotaggio remoto hanno differenti denominazioni[12] quali «unmanned aircraft or ship guided by remote control or onboard computers»[13]. Gli stessi sono altresì conosciuti come veicoli aerei inanimati o anche sistemi aeromobili senza pilota, «Unmanned aerial vehicle» (UAV) (espressione ritenuta ormai desueta), «Unmanned aircraft systems» (UAS), «Remotely piloted aircraft» (RPA), «Remotely piloted aircraft systems» (RPAS), Aeromobili a pilotaggio remoto (APR), Sistemi aeromobili a pilotaggio remoto (SAPR[14]).

Spesso, per riferirsi a queste nuove tecnologie, si ricorre al termine drone, utilizzando, però, una nomenclatura definita, dalla dottrina più autorevole, come generica e imprecisa[15]. E’ «generico, in primis, poiché richiama soltanto il veicolo volante. E’ anche impreciso, in quanto non accenna al controllo remoto, così accomunando in una sola categoria gli apparecchi senza pilota a bordo, ma gestiti da remoto e quelli pre-programmati e totalmente autonomi. Nondimeno, la parola drone è ampiamente impiegata nella prassi e richiamata in sede istituzionale, con l‘obiettivo di semplificare il linguaggio giuridico a vantaggio del pubblico non specialista del settore»[16].

Per quanto attiene alle fonti nazionali, il testo originario del codice della navigazione del 1942 non conteneva alcun riferimento alcuno ai mezzi aerei a pilotaggio remoto. Solamente a seguito della revisione[17] avvenuta grazie ai d.lgs. n. 96/2005 e 151/2006 gli aeromobili senza equipaggio sono stati ricompresi nella nozione di aeromobile ex art. 743 cod. nav[18]. Dal tenore della disposizione emerge che i SAPR sono assimilati agli aeromobili venendo qualificati come tali.

Si aggiunga a ciò che gli stessi sono altresì suscettibili di soddisfare il requisito funzionale della destinazione al trasporto determinante ai fini della nozione stessa di aeromobile[19]. Parte della dottrina, sul punto, sostiene, in maniera contrapposta, come l’art. 743 co. 2 cod. nav. non avrebbe assimilato i SAPR agli aeromobili sulla scorta di una fictio iuris. Più recisamente, questi ultimi non sarebbero ontologicamente aeromobili posto che non sono destinati al trasporto in quanto la loro unica funzione sarebbe quella di trasferire nello spazio aereo gli elementi che li compongono[20].

La dottrina più recente, invece, sostiene che, essendo alcuni SAPR capaci di trasportare cose o persone, essi integrerebbero l’eccezione ex art. 743 co.1 cod. nav[21]. Nonostante questa affermazione è doveroso osservare che «dell‘essere considerati aeromobili e non dell‘esserlo è un punto importante […], nel senso che può trarsi la conseguenza che lì ove non vi sia un espresso riconoscimento non vi è un mezzo aereo a pilotaggio remoto che sia di per sé aeromobile da un punto di vista giuridico»[22].

Con riferimento ai veicoli terrestri ‘autonomi’ è difficile rinvenire una definizione univoca accettata a livello internazionale. Le espressioni che si rinvengono per riferirsi a macchine terrestri senza guidatore sono: robotic-cars, self-driving cars, driverless car[23]. Sebbene quanto appena riportato possa, prima facie, irrilevante, è stato osservato che la terminologia assume un ruolo centrale nel momento in cui si vuole ci si vuole esprimere in modo chiaro e preciso rispetto a una determinata tematica[24].

Ulteriore applicazione di automazione è da riferire alle navi, o vascelli: l’International Maritime Organisation (IMO) sta iniziando a redigere un codice per quanto attiene alle navi autonome, il cd. MASS[25]. In questo documento si rinviene la definizione dei livelli di automazione delle navi a cui sono collegate le specifiche tecniche e le potenziali problematiche. L’aspetto che viene messo in evidenza concerne proprio l’assenza dell’equipaggio: si tratta di elemento di nevralgica importanza poiché impone che i programmatori adottino le opportune procedure e apparecchiature funzionali a evitare la collisione[26]. In altri termini, l’aspetto maggiormente problematico attiene alla circostanza che qualora la nave sia completamente autonoma, per tale intendendo l’assenza di qualsivoglia interferenza umana, significa che le decisioni vengono assunte da un sistema algoritmico senza conoscerne le modalità[27].

Per quanto attiene alle fonti normative, il riferimento va a: 1) Convenzione Marpol; 2) Convenzione di Ginevra del 1986; 3) COLREG del 1972. A questo si aggiunga che il Comité Maritime International ha sostenuto che le «unmanned ships» possono essere qualificate a tutti gli effetti come navi a condizione che esse siano dotate di tutti i requisiti per essere registrate come tali negli appositi registri di uno specifico Stato[28].

Sempre da una prospettiva terminologica, si deve precisare che in dottrina si è discorso di «drone finanziario» per indicare la SPV[29] quale “drone” o operatore remoto.  Quest’ultima, sebbene prima facie potrebbe sembrare una questione puramente di diritto societario, alla fine, potrebbe arrivare a realizzare un ponte tra le tematiche di diritto societario intimamente intese e il progressivo incremento delle tecniche algoritmiche.

Il punto di partenza è dato dalla considerazione secondo cui il veicolo, utilizzato per lo svolgimento di attività di finanza strutturata, potrebbe essere definito come «imprenditore remoto»[30]. Esso sarebbe differente rispetto all’imprenditore occulto[31] in quanto l’imprenditore remoto, definibile altresì come auto-pilota, verrebbe  identificato come un meccanismo complesso e dinamico che stabilisce ex ante, dunque pre-stabilisce, i termini dell’operazione. In tale direzione, la SPV sarebbe non solamente «pilotata» a distanza, ma avrebbe, altresì, delle connotazioni oggettive piuttosto che soggettive.

In conclusione, dunque, sempre da una prospettiva terminologica, il termine ‘drone’ indicherebbe qualsivoglia meccanismo tecnologico e remoto. Alla luce di quanto appena detto anche il sistema della giustizia, e soprattutto delle online dispute resolution, potrebbe essere affidato a un “giudice drone”[32]. Di conseguenza, il vero interrogativo attiene alla responsabilità del sistema di intelligenza artificiale e, quindi, alla possibile regolamentazione.

2. Una prima ipotesi di tassonomia

Nel precedente paragrafo si è dato conto della possibilità di qualificare come “droni” differenti tipologie di applicazioni tecnologiche totalmente autonome o controllate a distanza da un essere umano.

A partire da ciò è possibile proporre una prima ipotesi di tassonomia ricostruttiva delle fattispecie. In primo luogo, si potrebbero individuare i veicoli autonomi riferiti al settore dei trasporti e della logistica. Essi comprenderebbero le navi, le automobili e, infine, i velivoli aerei. Tra questi autonomous vehicles, la distinzione può avvenire non solo per quanto attiene alla porzione ‘territoriale’ in cui sono chiamati a operare ma, altresì, in base alla capacità di trasportare o meno persone. Di conseguenza, le navi[33] e le automobili a guida autonoma, anche da una prospettiva assicurativa, possono essere utilizzate sia nel trasporto di persone che di merci. A contrario, i veicoli autonomi aerei, al momento attuale, possono essere impiegati solamente per il trasporto di merci o per attività di sorveglianza o ricognizione.

Ulteriore classificazione, attiene all’applicazione dell’autopilota ai meccanismi di finanza strutturata: le cartolarizzazioni. Riprendendo la teoria dell’imprenditore-drone, si assisterebbe all’emersione di un diritto societario “nuovo”: «dallo shadow banking al techno banking, si potrebbe essere vicini ad una dimensione del diritto societario nuova. La cartolarizzazione ed il suo trasferimento del rischio per finalità di investimento può semplicemente segnare la conferma di un fenomeno già in atto: l’impresa “macchina”, tecnologica, rispetto ad un modello tradizionale di imprenditore individuale e collettivo»[34].

Andando oltre, la SPV potrebbe essere rappresentata dal drone, da intendere quale veicolo autonomo, il quale non solo sarebbe “remoto” – nel senso di controllato a distanza – ma potrebbe addirittura introdurre un nuovo concetto di cartolarizzazione, ossia, quello di «personal data securitisation». Partendo dalla considerazione secondo cui i dati personali stanno acquisendo sempre di più una connotazione economica è possibile che gli stessi confini dell’operazione di cartolarizzazione divengano sempre più sfumati. Non solamente si assisterebbe a una cartolarizzazione di dati personali, da intendere quali crediti, ma anche alla possibilità che il veicolo autonomo aereo (drone, appunto), fornisca esso stesso i “crediti” rappresentati dai dati personali arrivando a determinare una unione tra la figura dell’originator e quella del veicolo autonomo propria dello schema “classico” delle cartolarizzazioni[35].

Infine, la terza e ultima categoria di droni, è quella attinente alla erogazione, e dunque fruizione, dei servizi pubblici essenziali. Il riferimento va al giudice robot o al medico robot. La prima applicazione di industria tecnologica in medicina è stata nel 1985 quando un robot eseguì una biopsia al cervello[36].

Poste queste premesse classificatorie, il presente contributo è incentrato sull’analisi e disamina della prima categoria di ‘droni’ da un punto di vista di regolamentazione in tema di responsabilità. La peculiarità dell’analisi è data dalla attività di comparazione con il sistema legale per eccellenza del diritto assicurativo, cioè, il common law. A tal proposito, prendendo le mosse dalle «autonomous ships», si cercherà di capire se sia possibile estendere il ragionamento sottostante anche alle altre categorie di veicoli autonomi.

3. Ancora una classificazione: i livelli di automazione

Comune a tutte le categorie di veicoli autonomi sono i livelli di automazione. Con questa espressione ci si riferisce ai livelli di assistenza, o di ausilio, alla guida diventati una presenza costante nei veicoli[37].

Il livello 0 non è da riferire ad alcun livello di automazione perché il totale controllo è rimesso al conducente: tutta la responsabilità è rimessa al guidatore, appunto.

Il livello 1 di automazione fornisce un’assistenza al guidatore posto che il sistema include alcune modalità di guida circa il controllo dello sterzo e della velocità. La supervisione dell’ambiente circostante è rimessa all’uomo come la gestione delle situazioni dinamiche.

Solamente con il livello 2 ci si approccia a una parziale automazione poiché il sistema può controllare tutti gli aspetti dinamici della vettura grazie all’utilizzo delle informazioni sull’ambiente di guida e il guidatore supervisiona il resto.

Ancora differente è la cd. automazione condizionata con la quale il sistema controlla tutti gli aspetti dinamici di guida: il guidatore deve rispondere in modo tempestivo qualora vi fosse una richiesta di intervento. A contrario, il sistema può avere il controllo della velocità e dell’ambiente circostante. Con questo livello di automazione, il numero 3, è possibile che il veicolo proceda in modo autonomo senza necessità dell’intervento umano.

Solamente con i livelli 4 e 5 si entra nel campo della automazione. Con il primo vengono controllati tutti gli aspetti dinamici della vettura anche nell’ipotesi in cui il guidatore non dovesse intervenire in caso di richieste. L’ultimo, il numero 5, rappresenta la totale automazione: il sistema si sostituisce, infatti, in modo totale all’essere umano poiché controlla tutti gli aspetti normalmente gestiti dall’uomo.

4. Il caso ‘Uber’

Quando si affronta la tematica dell’applicazione dell’automazione ai veicoli, siano essi aerei o navali, i profili di responsabilità emergono qualora si realizzi una collisione o venga provocato un danno.

Per quanto concerne la casistica giurisprudenziale e la normativa, attualmente il materiale che si rinviene è da riferire solamente alle macchine a guida autonoma. Per quanto attiene al primo formante del diritto, il case-law, il riferimento va necessariamente al ‘caso-Uber’. Si tratta di un incidente provato da un veicolo a guida autonoma. I fatti risalgono al 18 marzo 2018 quando un veicolo a guida autonoma di Uber ha investito una donna mentre questa attraversava a piedi Mill Avenue, in Arizona[38]. Sebbene si trattasse di veicolo a guida autonoma, al suo interno vi era un soggetto “umano” quale «designated driver» nonché dipendente di Uber[39], Mr. Vaquez. Su quest’ultimo gravava il dovere di monitoraggio sui messaggi che provenivano dal veicolo e di intervento qualora si fosse realizzato un guasto del sistema[40]. Al momento dei fatti, però, Mr. Vaquez non vigilava sul funzionamento del veicolo poiché “impegnato” a guardare una trasmissione[41].

Secondo la ricostruzione fornita da Uber, la collisione ha avuto quale causa un problema di funzionamento del software il quale avrebbe “autonomia” circa le decisioni da assumere al momento in cui rileva la presenza di oggetti sul proprio percorso. È prevista, altresì, la possibilità che il veicolo possa ignorare i cd. «falsi positivi», ossia oggetti realmente esistenti ma non suscettibili di determinare incidenti; il riferimento è, ad esempio, a un sacchetto di plastica[42].

È proprio questo secondo elemento che emerge dal Report[43] della National Transportation Safety Board (NTSB)[44]: il sistema software ha qualificato il pedone come oggetto non riconosciuto. A ciò si aggiunga che «designated driver» era intervenuto pochi secondi prima della collisione. Un secondo rapporto, quella della polizia, conteneva la trasmissione degli atti al Procuratore affinché si accertasse l’eventuale responsabilità del «designated driver» da qualificare, almeno, quale omicidio colposo. Dalle indagini, infatti, era emerso che il «designated driver» era distratto, circostanza che non gli ha consentito di prendere il controllo del veicolo e, dunque, evitare la collisione[45].

L’aspetto di particolare interesse concerne la possibilità che accanto alla responsabilità della persona fisica e di quella giuridica si delinei lo spazio anche per quella della “persona elettronica”[46] o per il sistema di intelligenza artificiale. In tale direzione il nodo gordiano attiene alla possibilità di riconoscere il sistema artificiale come capace giuridicamente e, di conseguenza, la possibilità di attribuirgli una personalità anche se limitata ad alcuni aspetti soltanto[47].

Più precisamente, nel momento in cui l’essere umano e l’essere digitale interagiscono tra di loro, sarebbe equo che si realizzasse una ripartizione di colpa da imputare sia all’azione od omissione umana sia al non corretto funzionamento del veicolo a guida autonoma. Condicio sine qua non di tutto questo è la dimostrazione che l’evento lesivo è stato causato, appunto, da questa attività di cooperazione tra essere umano ed essere sintetico[48]. Sul punto, parte della dottrina ha discusso di «culpa in interagendo»[49].

5. Sunny spells from the ‘UK judicial sea’

Sebbene al momento attuale l’unico caso affrontato dalle Corti sia quello richiamato nel paragrafo precedente, a partire da Nautical Challenge Limited v Evergreen Marine (UK) Limited[50] è possibile desumere alcune indicazioni per quanto attiene al possibile ‘addestramento’ dei vascelli autonomi.

Il caso appena citato riguarda una collisione tra la nave Ever Smart, del ricorrente, e la nave Alexandra 1 (del convenuto) avvenuta in data 11 febbraio 2015 appena fuori dal canale dal quale entrano ed escono dal porto le navi di Jebel Ali (Emirati Arabi Uniti). La prima nave era diretta verso l’esterno mentre la seconda era in arrivo.

Secondo il decisum della Amdiralty Court, Ever Smart avrebbe dovuto sopportare l’80% della responsabilità per la collisione mentre, Alexandra 1 sarebbe stata responsabile solamente per una porzione pari al 20%. Più precisamente, non vennero ritenute applicabili le regole di attraversamento, precisamente le n. 15 e 17 del Collision Regulation) e che Alexandra 1 non avesse navigato in violazione della regola n. 16.

Avverso questa prima decisione, il ricorrente proponeva ricorso all’High Court la quale accoglieva all’unanimità le doglianze del ricorrente. Nel ragionamento dell’High Court, in modo più approfondito, le regole di attraversamento devono essere interpretate nel loro contesto che concretamente si è realizzato. Viene precisato che il Regolamento tratta di collisione, definendo le differenti tipologie di collisione che si possono realizzare, da distinguere dall’attraversamento.

La prima espressione è da riferire a tre situazioni, ossia: 1) sorpasso di navi; 2) navi che si avvicinano l’una all’altra frontalmente; 3) navi che attraversano in modo da comportare il rischio di collisione. Per “crossing”, invece, si fa riferimento alle rotte di navi che non sono parallele ma che si intersecano: in questo scenario, dunque, è possibile che si determini il rischio di collisione, rischio che può essere evitato in differenti modi.

Tuttavia, se i vascelli si avvicinano gli uni agli altri in base a un rilevamento costante, è possibile che si profili un rischio di collisione. In altri termini, le regole di attraversamento sono al centro dello schema per evitare delle collisioni nell’ipotesi in cui, appunto, due navi si avvicino l’una all’altra su di un costante rilevamento. Quest’ultimo, a sua volta, deve differire, dal sorpasso o dallo scontro frontale.

Nel caso di specie, lo scontro tra le due navi sembra essere stato determinato da un errore umano, ossia, dall’autorizzazione data all’arrivo anticipato di Alexandra I al canale di avvicinamento e l’approvazione dell’ufficiale del servizio di traffico navale per procedere a entrare nel canale in quel momento. Ulteriore elemento è dato dal mancato funzionamento dell’AIS di Alexandra I, circostanza che ha impedito di mantenere una sorveglianza adeguata.

Dalle circostanze riportate appare evidente che, probabilmente, se la nave fosse stata autonoma l’errore umano sarebbe stato evitato. Di qui verrebbe corroborata la tesi secondo cui, l’applicazione tecnologica potrebbe divenire funzionale a evitare piccoli errori umani che, sommati gli uni agli altri, determinano la profilazione di un disastro. Vi è da aggiungere che, sempre nel caso di specie, l’impatto non è stato evitato a causa di una mancata attività di sorveglianza adeguata. Appare evidente che il funzionamento dei vascelli autonomi avviene grazie a tecnologia Radar, GPS, AIS e sensori/telecamere a infrarossi, algoritmi di controllo predittivo per tracciare i movimenti delle navi.

Sempre dalla narrativa del caso, si ha contezza che la collisione è stata altresì determinata dall’alta velocità con cui Ever Smart percorreva il lato sinistro del canale, elemento che non le consentì di mantenere una buona visuale. Qualora le navi fossero state automatizzate totalmente sarebbe stato possibile assicurare una implementazione dei sistemi, già esistenti, attinenti alla cd. “safety speed”.

Sebbene l’impiego di vascelli autonomi sarebbe funzionale a evitare il rischio di collisione, è pur sempre vero che vi sono ancora aspetti da definire e che i programmatori dovranno prendere in considerazione. Proprio dal caso Nautical Challenge Limited è possibile individuare almeno due parametri che i programmatori delle ‘navi senza capitano’ dovranno cercare di riprodurre nella loro attività di programmazione, ossia il concetto di «sufficiently defined course» e «good seafarer behaviour».

Il primo è una questione di stretto diritto funzionale a mostrare la rotta che si sta seguendo all’altra nave al fine ultimo di evitare la collisione. Più precisamente, la rotta di una nave può dirsi sufficientemente definita quando è idonea a metterla in costante rilevamento con un’altra nave al fine di far comprendere la rotta intrapresa[51].

Con il secondo, si fa riferimento al canone della “prudente navigazione”[52] al fine di evitare rischi di collisione tra navi e che, nel caso di specie, ossia di entrata dal canale, richiede che la nave regoli la propria velocità e permanga nel canale il tempo strettamente necessario al transito. In altri termini, la nozione di «good seafarer behaviour» è da riferire al marinaio dotato di ordinaria capacità e intelligenza non richiedendo, dunque, che egli possa prevenire qualsivoglia incidente.

Al tempo stesso, non vi è una aspettativa a che un marinaio possa porre in essere una attenzione superiore a quella “ordinaria” qualora egli si trovi in circostanze eccezionali. In quest’ultima ipotesi è necessario che egli si conformi agli standard ordinari di diligenza e capacità in forza dei quali adottare precauzioni eccezionali. È anche vero che definire esattamente la figura del «good seamanship»[53] richiama una valutazione di fatto che, a sua volta, impone una analisi delle circostanze rilevanti concretamente realizzatesi[54].

6. Approdo alla ‘baia’ delle possibili risposte

Sebbene alcune indicazioni provengano dalla pronuncia esaminata nel paragrafo, permangono ancora dei dubbi. A titolo esemplificativo ci si chiede come i programmatori arriveranno a definire la discrezionalità degli autonomous vessels e, di conseguenza, come avverrà la fase di addestramento algoritmico.

In questo contesto, dunque, l’interrogativo attiene alle scelte che il meccanismo remoto dovrà adottare nei casi delle cd. scelte tragiche, ossia, qualora si dovrà assumere una decisione tra i danni alla nave autonoma e alla salvaguarda delle vite umane. Oppure, che cosa potrebbe accadere qualora il vascello autonomo dovesse subire un guasto elettronico completo. Infine, ulteriore interrogativo attiene alla responsabilità dei programmatori qualora venisse dimostrato che una programmazione non corretta ha provocato la collisione.

La sentenza Nautical Challenge Limited v Evergreen Marine (UK) Limited risulta essere anche dirimente poiché fornisce una regula iuris qualora la collisione sia determinata da una molteplicità di fattori causali.

La bussola, metaforicamente parlando, che deve seguire il Giudice è quella di aumentare la responsabilità della nave che procede a una velocità eccessiva a condizione che, dopo aver esperito una analisi dettagliata, si giunge alla conclusione che una velocità eccessiva sia un fattore che contribuisce alla realizzazione del danno[55].

Una possibile soluzione sembra provenire dall’ultimo Joint Report della Law Commission[56] contenente delle “raccomandazioni” che il Governo britannico dovrà seguire nella regolamentazione dei veicoli a guida autonoma. Si tratta di un documento frutto di tre tornate di consultazione avvenute tra il novembre del 2018 e il dicembre del 2020. Durante questo periodo l’attività è stata piuttosto intensa e caratterizzata da una intensa attività di ricerca come testimoniato dalla raccolta delle numerose risposte che sono pervenute a seguito delle consultazioni, ai “meeting” che sono stati organizzati.

L’aspetto che giustifica questa intensa attività è dato dalla circostanza che la tecnologia dei veicoli a guida autonoma determina un cambiamento dirompente rispetto al passato. Il guidatore “umano”, infatti, una volta installato il meccanismo ADS non è tenuto a prestare attenzione all’attività di guida poiché, questa, essendo “autonoma” non solo non richiede un suo coinvolgimento ma, addirittura, lo esenta da responsabilità[57].

Il Report della Law Commission rappresenta, al momento attuale, l’unico framework legislativo completo che dovrà fungere da modello per il legislatore britannico nella regolamentazione dei veicoli a guida autonoma.

La disciplina britannica, a contrario, al momento attuale, fa discendere una responsabilità, al momento attuale, solamente nell’ipotesi in cui vi sia una violazione del cd. «duty of candour»[58]. Si tratta di un particolare dovere che incombe sulla «nominated person» e dalla cui violazione scaturisce la disciplina sanzionatoria molto simile a quella contenuta nella Bribery Act 2010.

Il «duty of candour»[59] rappresenta una novità, nel panorama della disciplina in tema di AV, introdotta dall’ultimo Join Report della Law Commission. Nella sezione a esso dedicata viene precisato come l’obiettivo sia quello di promuovere una cultura della sicurezza fondata sulla consapevolezza di poter apprendere dagli errori che vengono commessi. Di conseguenza, il sistema che viene costruito concerne su di una attività di condivisione di informazioni fornite dall’ «Authorised Self-driving Entity» (ASDE)[60] e dall’operatore NUIC[61] al regolatore. Questo processo, dunque, deve essere “candido”, appunto: la conseguenza è la previsione di sanzioni penali qualora i soggetti in precedenza menzionati dovessero fornire delle dichiarazioni o, altrimenti, divulgare informazioni false.

Il «duty of candour», nel contesto della regolamentazione dei veicoli a guida autonoma, rappresenta una novità nonostante la sua origine antica, affascinante e di confine. Il «duty of candour», infatti, può assumere dei significati differenti a seconda che si riferisca alla riflessione etica o giuridica.

Partendo dalla prima, ossia, dall’etica, il «duty of candour» deve essere riferito ai concetti di trasparenza, onestà e chiarezza. Sebbene tutto questo sia vero, non si deve confondere il candore quale sinonimo di onestà o fedeltà poiché il significato risulta essere assai più ampio posto che comprende, altresì, completezza e franchezza[62].

Se, a contrario, la prospettiva prescelta è quella del diritto, il «duty of candour», invece, si deve distinguere tra diritto sanitario, più correttamente «medical law», e diritto amministrativo. Nella prima ipotesi, il «duty of candour» è un dovere che incombe sul National Healt Service, meglio conosciuto come NHS, che si sostanzia nell’offrire servizi che siano rispettosi della persona, trasparenti e accessibili. Nell’ambito del diritto amministrativo, invece, il dovere di candore è assimilabile al principio di trasparenza: più precisamente esso è da riferire al dovere di fornire una motivazione a qualsivoglia decisione proveniente dalla Pubblica Amministrazione[63]. In questa seconda accezione legale, ergo, il «duty of candour» diviene strumentale a perseguire l’interesse pubblico poiché non solamente consente di individuare gli errori commessi dall’organo pubblico e prevenire eventuali e futuri “incidenti” ma, altresì, impone di potenziare, nell’ambito del diritto sanitario, la conformità ai requisiti di accessibilità e trasparenza[64].

Volendo riassumere quanto fino a ora prospettato, il «duty of candour» è il dovere che dovrebbe essere posto alla base di quella della “cultura della sicurezza”: in dottrina è stato sostenuto, infatti, che «la cultura del candore è una cultura fondata sulla sicurezza»[65].

La violazione del «duty of candour», nel sistema giuridico britannico, legittima “la Corona”, ossia il responsabile dell’azione penale, a perseguire penalmente  la «company» nonché la «nominated person»[66], secondo la terminologia adottata dal Join Report. L’obiettivo dell’azione penale, più precisamente, concerne la necessità di accertare che i soggetti in precedenza nominati abbiano assunto tutte le precauzioni necessarie e che abbiano conformato il loro comportamento alle regole di correttezza («due diligence») nella prevenzione di illeciti.

Un altro soggetto che può essere destinatario dell’azione intentata dalla “Corona” è il «senior manager»[67], ossia, colui che ha acconsentito alla falsa dichiarazione o alla mancata divulgazione. In questa particolare fattispecie, è onere della “Corona” provare l’elemento psicologico, cioè, alternativamente, che il “dirigente” fosse a conoscenza dell’illecito o che l’abbia, in modo volontario e cosciente, ignorato[68].

7. La ‘tradizionale’ responsabilità in tema di collisione

Secondo la legislazione di common law, quando si realizza una collisione la responsabilità è determinata dalle regole generali in tema di imperizia e/o negligenza («tort of negligence»[69]). L’aspetto problematico, tuttavia, è strettamente connesso alla prova che l’attore riesce a fornire a titolo di responsabilità extracontrattuale («tort»)[70]. Di conseguenza, il vero problema è cogliere realmente quando la responsabilità sia da attribuire all’azione umana («human agency») e quando invece sia da attribuire al proprietario della nave («shipowner»).

La maggior parte della dottrina britannica[71] suggerisce di ricostruire la responsabilità dell’autonomous ship applicando il principio espresso in Donoghue v Stevenson[72]. In questa pronuncia venne stabilito non solamente che il successo di un’azione per danni derivante dalla collisione in mare dipende da un attore vittorioso nel dimostrare i fatti che ne danno origine ma, altresì, dalla dimostrazione che il danno subito è conseguenza della violazione del dovere. Il punto di partenza, in altri termini, è capire quale azione sia la vera causa e se il proprietario della nave sia veramente responsabile. In altri termini, si tratta di realizzare un’indagine in tema di vicarious liability.

Alla luce di questo è stato sostenuto che la responsabilità plasmata nel diritto del lavoro tra agency e indipendent contractor[73]. Di conseguenza, un proprietario di una nave autonoma che nomina una società per gestire le attività di tale nave realizza un rapporto di agenzia. In ipotesi di collisione, dunque, il proprietario risulterà essere responsabile[74].

L’aspetto problematico, tuttavia, sembra essere dovuto al fatto che, nel caso di veicoli autonomi, non vi è un rapporto che intercorre tra esseri umani ma tra essere umano ed essere sintetico. Sebbene sia vero che il proprietario di una autonomous ship si rapporti con un programmatore, e che potenzialmente sia quest’ultimo a programmare le attività e le decisioni che la nave assumerà, manca un potere di controllo diretto da parte del proprietario. Di conseguenza, questa potrebbe essere una circostanza idonea a non consentire una ricostruzione secondo le regole proprie del diritto del lavoro.

8. Tra cielo, terra e mare

La disamina condotta fino a questo momento dimostra come sia difficile, e non fruttuoso, non affrontare la problematica dei veicoli autonomi con un approccio settoriale e chirurgico[75].

Più precisamente, sebbene il Joint Report della Law Commissions sia da riferire solamente alle «driverless car» esso contiene dei riferimenti, quali ad esempio il duty of candour, da utilizzare anche nella regolamentazione degli altri veicoli autonomi.

A questo si devono aggiungere i principi inferibili da Nautical Challenge Limited v Evergreen Marine (UK) Limited, «sufficiently defined course» e «good seafarer behaviour». In altri termini, un approccio di ampio respiro e che si rifà a concetti giuridici generali ma precisi sembra essere preferibile proprio perché funzionale a rappresentare la ragnatela della regolamentazione giuridica di questo settore in continua evoluzione.

Si deve altresì aggiungere che il framework dovrebbe essere unico e compatto per tutti i veicoli (terrestri, aerei e navali) salvo poi differenziare la regolamentazione in base alle peculiarità proprie di ciascuno di essi. In altri termini, vi potrebbero essere delle ‘sovrapposizioni’ ma anche degli scostamenti dettati dalla necessità che di volta in volta il settore chiede di affrontare.

Il duty of candour e il good seafarer behaviour appaiono essere istituti giuridici di ampio respiro, non intrisi di una soffocante regolamentazione ma, piuttosto, ispirati a una attività di collaborazione e dialogo[76]. Quest’ultima sembra essere la strategia vincente proprio per la peculiarità dell’impiego dell’uso di questa tecnologia[77].

A titolo esemplificativo, vi sono almeno due aspetti comuni a queste tre diverse declinazioni di veicoli autonomi. Il riferimento va, necessariamente, alle ipotesi di trolley problem[78] e data protection.

Il primo aspetto impone una valutazione tra costi/benefici, ossia, se sia preferibile sacrificare la vita di in singolo individuo a favore dell’interesse della società. Nel momento in cui l’algoritmo venisse progettato nel senso di esprimere la preferenza alla tutela della società, andando quindi a sacrificare la vita del singolo soggetto, seguirebbe un approccio strettamente utilitaristico. Adottare l’impostazione appena descritta induce sia il programmatore che il produttore di veicoli autonomi a effettuare ex ante e in modo astratto una valutazione relativa alla massima utilità, valutazione che, appunto, risulta essere sganciata dalla concreta situazione che si potrebbe realizzare.

Si tratta di una soluzione che, da un punto di vista strettamente economico, sarebbe migliore. L’intelligenza artificiale, in altri termini il conducente del unmanned vehicles, al pari di qualunque altro conducente di automobile, deve rispettare il codice della strada, quindi le regole di precedenza, i divieti e i comportamenti imposti. La differenza è che il sistema di AI non possiede un istinto di sopravvivenza irrazionale consentendo, di conseguenza, di assumere la decisione migliore, ponderando anche la probabilità di vita dei propri passeggeri in caso di incidente, nonché il costo, in termini di incolumità fisica delle altre persone, nell’esecuzione di manovre preordinate a garantire la sopravvivenza dei propri passeggeri[79].

Nonostante quanto appena evidenziato, non si ritiene che questo sia l’approccio migliore da un punto di vista strettamente filosofico. Gli interrogativi che si porrebbero alla base attengono alla valutazione che l’AI deve effettuare per quanto attiene al valore della vita umana, sia della collettività che dei singoli soggetti, oppure di oggetti non suscettibili di valutazione economica, come, ad esempio monumenti, opere d’arte o lo stesso ambiente.

Si tratta di valutazioni che non attengono a mere disgressioni filosofiche ma possiedono un risvolto pratico poiché i giudizi etici appena menzionati vengono assunti dai programmatori e producono le loro conseguenza sul mondo reale. Si deve aggiungere che, i giudizi che vengono espressi in fase di progettazione potrebbero essere influenzati propri dai clienti. I potenziali clienti potrebbero desiderare che il veicolo funzioni in modo tale da proteggere pedoni o proprietà private e beni appartenenti al patrimonio artistico, altri, a contrario, potrebbero desiderare che il veicolo prediliga altri valori da salvaguardare in ipotesi di tragic choice[80].

Se si segue il ragionamento poc’anzi descritto, emerge un ulteriore problema. Se si parte dal presupposto che driveless car possiede un controllo totale sulla vita dei propri passeggeri, potenzialmente potrebbe avere un dovere, altresì, nei confronti dei propri produttori. Questo dovere potrebbe concretizzarsi nel proteggere i propri passeggeri, quindi le persone che trasporta, da eventuali danni alla loro incolumità fisica[81].

Si tratta di una soluzione non priva di aspetti negativi. In primo luogo, consentire che sistemi di IA possano assumere decisioni potenzialmente irrazionali impedisce il soddisfacimento del pieno beneficio economico alla società andando quindi a non eliminare il verificarsi di incidenti. In secondo luogo, vi potrebbe essere una riluttanza di programmatori[82] e assicuratori di, rispettivamente, produrre e assicurare veicoli che siano realizzati esclusivamente per proteggere la vita dei passeggeri. In terzo luogo, in base all’attuale stato di fatto, gli unici responsabili sarebbero i produttori di veicoli autonomi e si troverebbero, di conseguenza, a risarcire danni che altrimenti sarebbero stati supportati dagli assicuratori[83].

Strettamente connesso a questo profilo, è quello che attiene alla privacy[84] la quale diviene sotto attacco da numerosi profili. Ad esempio, gli AV possono influenzare l’autonomia individuale assumendo il controllo sulla vita delle persone posto che possono influenzare il modo e il percorso negli spostamenti, al tempo stesso generano informazioni personali relative agli utilizzatori al punto da poter monitorare, quasi completamente, il tragitto effettuato dall’utilizzatore. L’aspetto privacy è complicato da due circostanze: non poter, ancora, osservare l’interazione tra autonomous vehicle e le persone e, secondariamente, il fatto che il concetto di privacy[85] è un concetto complesso e multiforme.

La dimensione della problematica privacy dipenderà dalla progettazione nonché dal funzionamento del AV. Se l’aspetto comune è che essi sostituiranno il driver, persona fisica, con l’intelligenza artificiale, gli aspetti di programmazione potranno seguire percorsi differenti portando, potenzialmente, a risultati diversi.

Nel momento in cui l’AI sostituisce il conducente di un’automobile, i sistemi del veicolo adottano ed elaborano una serie di dati per valutare l’ambiente circostanze, il funzionamento e la presenza di altri veicoli presenti. Per valutare l’impatto sulla privacy è necessario declinare la riflessione su almeno tre aspetti: 1) chi controlla l’intelligenza artificiale; 2) che quantità di dati esterni (careggiata, presenza di altri veicoli e di persone) vengono raccolti e trasmessi al veicolo; 3) la propagazione dei dati ad altri veicoli[86].

I veicoli autonomi si basano su sensori sia esterni che interni che hanno l’obiettivo di raccogliere dati relativi alla presenza di ostacoli esterni, a rilevare la temperatura nonché il proprio funzionamento ma anche di segnalare eventuali malfunzionamenti o attivare meccanismi di sicurezza in caso di incidente o urto. La privacy diviene di centrale importanza quando un determinato veicoli è associato a un individuo, identificato o identificabile: in questo modo i dati assurgono al ruolo di informazioni personali.

Ulteriore riflessione da svolgere concerne la distinzione tra veicoli autonomi, i quali  possono definirsi come “autonomi”, e quelli che sono interconnessi. Per quanto attiene ai primi, essi utilizzano solamente le informazioni che vengono generate al proprio interno, senza che esse vengano comunicate all’esterno o ad altri veicoli. A contrario, i veicoli interconnessi comunicato, tramite wifi, con una rete di comunicazione maggiormente ampia avente lo scopo, appunto, di mettere in comunicazione tra di loro più autonomous vehicles. Di conseguenza, si assiste a un continuo scambio di informazioni relative all’ambiente stradale circostante, al percorso che sta percorrendo e che verrà percorso, ma anche i messaggi che vengono scambiati dagli altri passeggeri.

Questi due modelli di driveless car pongono differenti implicazioni in tema di privacy. Il primo modello non porrà alcuna problematica posto che i dati personali che vengono raccolti rimangono all’interno del veicolo medesimo. Il secondo, proprio perché pensato per interagire con una rete esterna, potrà, alternativamente, fornire solamente le informazioni ritenute come strettamente necessarie per determinare il modus operandi degli altri veicoli presenti, oppure, comunicare anche quanto avviene al proprio interno.

È evidente, quindi, il primo modello, ossia quello degli AV terrestri autonomi, possa essere ritenuto maggiormente sicuro sotto un profilo di privacy poiché gli altri divengono suscettibili di controllo esterno almeno attraverso due modalità differenti. In primo luogo, un veicolo può essere controllato attraverso la manipolazione delle informazioni che sono state inviate a un altro veicolo autonomo[87], in secondo luogo potrebbe essere la stessa Rete a imporre al veicolo un comando determinando un mutamento della destinazione inizialmente prescelta dall’utente. In quest’ultima ipotesi, l’autonomia decisionale del passeggero risulta essere annullata.

9. Non definitive riflessioni conclusive

Quanto sopra esposto  dimostra, ancora una volta, che problematiche analoghe richiedono una regolamentazione proattiva e tale da fornire un giardino sicuro all’interno del quale muoversi.

Vista la complessità della tecnologia e le sfide che devono essere affrontate è imperativo che il Legislatore, qualunque esso sia, fornisca delle certezze ai propri cittadini.

La Gran Bretagna, sebbene non faccia più parte dell’ordinamento giuridico dell’Unione Europea, non solamente rappresenta uno spiraglio di luce ma, potenzialmente, anche una “safe arbour” per quanto concerne la possibile definizione a livello europeo di framework legislativo per i veicoli autonomi. La peculiarità della disciplina britannica è quella di costruire il sistema della responsabilità per i danni provocati dalla circolazione di veicoli a guida autonoma imperniata su di un concetto di collaborazione tra «Authorised Self-diriving Entity» (ASDE) e l’operatore NUIC. Viene richiesto non solo che il processo di condivisione di informazioni tra questi soggetti sia ‘candido’ ma anche la previsione di sanzioni penali qualora questo venisse violato.

È lapalissiano come il Joint Report della Law Commissions sia solamente una proposta di regolamentazione e non esclude la possibilità di soluzioni differenti per quanto attiene la qualificazione della responsabilità dei meccanismi autonomi. Se si dovesse adottare una prospettiva di diritto europeo, proprio alla luce della frammentaria disciplina di origine euro-unitaria, l’approccio da seguire potrebbe essere quello di ritenere responsabile direttamente il sistema autonomo. Di tal via verrebbe garantita la nascita della persona tecnologica[88].

Questa seconda ipotesi ricostruttiva è stata adottata da una pronuncia della Corte Internazionale Commerciale di Singapore la quale ha ritenuto responsabile il sistema di intelligenza artificiale[89]. Si tratta solamente di un iniziale spunto di riflessione in quanto il caso non è direttamente applicabile ai sistemi di intelligenza artificiale ma agli algoritmi. Partendo dalla considerazione secondo cui questi ultimi devono rispettare le disposizioni legali, i Giudici sono arrivati a estendere questo assunto anche ai sistemi di Intelligenza Artificiale poiché anch’essa è formata da algoritmi.

In conclusione, dunque, per quanto attiene ai profili di responsabilità delle «autonomous ships» potrebbe essere simile a quello che la Joint Commissions ha redatto per le cd. «autonomous cars» a cui aggiungere i parametri del «good seafarer behaviour» nonché del «sufficiently defined course». Più precisamente, si ritiene preferibile realizzare una disciplina organica con la quale fornire delle linee-guida ma senza che questo si traduca in una iper-regolamentazione che, al momento attuale, potrebbe risultare controproducente[90].

La soluzione migliore atterebbe alla redazione di un unico documento, suscettibile di aggiornamento, con il quale fornire una disciplina organica per tutti i veicoli autonomi. Si precisa sin d’ora che quest’ultima dovrebbe, ovviamente, dare conto delle peculiarità dei differenti mezzi andando a differenziare ove necessario. Al momento attuale, la creazione di una cultura della sicurezza[91] sembra essere il miglior approccio possibile.

In questo senso è stato sostenuto[92], con riferimento alle «unmanned ships» che proprio per le loro peculiari caratteristiche tecnologiche, sia impossibile eseguire una operazione di ‘trapianto’ circa le regole tradizionali e attualmente esistenti in tema di responsabilità dettate per le tradizionali attività “umane”. Una possibile soluzione è quella di allocare la responsabilità tra colui che controlla dal programmatore del software, il proprietario e il pre-programmatore[93].

In conclusione, dalla nebbia si sembra scorgere il ben noto “Flying Dutchman”[94] i cui marinai fantasma, sospesi tra mare e cielo, forse, potrebbero lanciare alcuni messaggi.


Note e riferimenti bibliografici

[1] Orlando furioso, I, 1-4.

[2] Sul punto è stato rilevato che «the media uses the word "drone" to refer to a wide variety of unmanned flying machines». T.T. TAKAHASHI, Drones and Privacy, in Columbia Science and Technology Law Review, vol. 14, n.  1/2012, p. 81.

Già a partire dal 1944 l’esercito britannico aveva sperimentato l’utilizzazione di velivoli non pilotati raggiungendo un determinato livello di successo nei successivi anni. Durante il secondo conflitto armato la Germania aveva predisposto un cospicuo numero di «buzz bombs», cioè aerei carichi di bombe pre-programmate per il volo automatico da indirizzare verso un target specifico. R. FREEDMAN, The Wright Brothers: How They Invented the Aiplane,, Holiday House, 1991, 31, pp. 36-37. La parola drone, quindi, all’inizio, indicava grandi aerei radiocomandati a pilotaggio remoto.  La difficolta definitoria deriva anche dalla considerazione, secondo cui, nel concetto di drone rientrerebbero sia sistemi di intelligenza artificiale (SIAR), sia velivoli privi di intelligenza artificiale poiché dipendenti, in maniera quasi esclusiva, del controllo umano. Si rammenta che la parola drone, in inglese, indica il fuco, per l’etimologia vedasi G. COLLOT, N. LOZITO, F. PETRONI, P. VENTIMIGLIA, La guerra dei droni, in iMerica (in collaborazione con Limes- Riv. Ita. Geopolitica), 2013, p. 12.

[3] A tal proposito degli studi condotti sono pervenuti a prevedere che nel 2035 saranno presenti nel cielo europeo circa oltre 7 milioni di droni; a ciò si deve aggiungere la previsione secondo cui il mercato degli UAS (Unmanned Aircraft Systems) raggiungerà $100 miliardi in relazione ai settori del trasporto, della sicurezza e del monitoraggio. finnegan, UAV Production Will Total $93 Billion, in Teal Group News Briefs, 19.8.2015, in www.tealgroup.com. The Economist, Drones need to be encouraged and people protected, del 24.1.2019

[4] C. DELLA GIUSTINA, Meccanismi SAPR e diritto del lavoro: quali rischi, quali opportunità per il diritto? in Diritto e Lavoro nelle Marche, n. 2/2021, pp. 180 ss.

[5] È stato osservato che la prima “macchina che vola” della storia risale al IV sec. a.C definita come «colomba di Archita», descritta da Aulo Gellio quale «colomba di legno, vuota all‘interno, riempita d‘aria compressa e fornita d‘una valvola che permetteva apertura e chiusura, regolabile per mezzo di contrappesi. Messa su un albero, la colomba volava di ramo in ramo perché, apertasi la valvola, la fuoruscita dell‘aria ne provocava l‘ascensione; ma giunta ad un altro ramo, la valvola o si chiudeva da sé, o veniva chiusa da chi faceva agire i contrappesi; e così di seguito, sino alla fuoruscita totale dell‘aria compressa». A. GELLIO, Notti Attiche, lib. X, c. 12; K.P. VALAVANIS, K. KONTITSIS, A Historical Perspective on Unmanned Aerial Vehicles, in Advances in Unmanned Aerial Vehicles: State of the Art and the Road to Autonomy, edited by K.P. Valavanis, Dordrecht, 2007, 16.

[6] R. UNGARO, P. SARTORI, I velivoli a pilotaggio remoto e la sicurezza europea. Sfide tecnologiche ed operative, in Quaderni IAI, Roma, 2016, pp. 40 ss.

[7] G. Veruggio, F. Operto, Roboetica: focus sulle problematiche civili e militari dei droni, in Mondo digitale, 2015, pp. 3 ss.

[8] «Aeromobili senza pilota»: «nessun aeromobile manovrabile senza pilota può sorvolare senza pilota il territorio di uno Stato contraente, salvo autorizzazione speciale di detto Stato e conformemente alle condizioni di questa. Ogni Stato contraente si impegna a provvedere affinché il volo senza pilota di un tale aeromobile nelle regioni aperte agli aeromobili civili sia controllato in modo da evitare qualsiasi pericolo agli aeromobili civili».

[9] C. DELLA GIUSTINA, A spider in the sky saw me. Prime riflessioni sulla potenziale applicazione del modello 231 agli aeromobili a pilotaggio remoto, in Rivista231, n. 4/2021, pp. 311 ss.

[10] ICAO Circular 328-AN/190 «Unmanned aircraft systems» del 2011, la quale è stata in seguito sostituita dal «Manual on Remotely Piloted Aircraft Systems (RPAS)», 2015 (first edition), (ICAO Document 10019 AN/507).

[11] Si tratta della IV appendice attinente ai «Remotely Piloted Aicraft Systems». Si segnala l’emendamento n. 175 all’Annesso n. 1 «Personal Licensing» adottato il 7.3.2018 che diverrà applicabile a partire dal 3.11.2022 contenente delle disposizioni nuove in relazione alla licenza del pilota da remoto e concernenti le condizioni per il rilascio della stessa, le competenze richieste, l’adattamento pratico e i requisiti di idoneità medica.  L.M. SIA, Profili attuali della disciplina giuridica dei mezzi aerei a pilotaggio remoto ed il regolamento dell’Ente nazionale dell’aviazione civile italiana (ENAC), in Dir. trasp., 2014, pp. 751 ss.; A. MASUTTI, F. TOMASELLO, International Regulation of Non-Military Drones, Cheltenham UK, 2018, pp. 38 ss.

[12] Per definirli vengono spesso utilizzati diversi termini. D.A. DULO, Aeronautical Foundations of the Unmanned Aircraft, in ID, Unmanned Aircraft in the National Airspace. Critical, Issues, Technology and the Law, Chicago, Illinois, American Bar Association, Section of Science & Technology Law, 2015, pp. 21 ss.

[13] Y. WANG, H. XIA, Y. YAO, Y. HUANG, Flying Eyes and Hidden Controlloers: A Qualitative Study of People’s Privacy Perceptions of Civilian Drones in the US, in Proceedings on Privacy Enhanching Technologies, vol. 3/2016, p. 172.

[14] Queste ultime due espressioni si rinvengono nella normativa nazionale: a tal proposito si segnala che, con la nuova disciplina ENAC UAS-IT del 4.1.2021, le espressioni APR e SAPR sono state sostituite dall’espressione UAS la quale, a sua volta, risulta essere condivisa a livello internazionale. Alla luce di questo è possibile sostenere che l’espressione UAS sia qualificabile come il genus comprendente sia i sistemi a pilotaggio remoto sia gli «autonomous aicrcraft» cioè quelli progettati per volare in autonomia senza intervento del pilota remoto.

Per un approfondimento M.F. MORSELLO, Aspectos jurídicos principales de las aeronaves sin piloto, in Nuevos enfoques del derecho aeronáutico y espacial. XXXVIII Jornadas latino americanas de derecho aeronáutico y del espacio, a cura di M. C. Mayorga Toledano, Madrid, 2015, pp. 513 ss.,

[15] B. GOGARTY, M. HAGGER, The Laws of Man over Vehicles Unmanned: The Legal Response to Robotic Revolution on Sea, Land and Air, in J. Law Inf. Sc., n. 19/2008, pp. 73 ss

[16] F. GASPARI, La regolazione multilivello degli aeromobili a pilotaggio remoto e la disciplina «speciale» dell’ENAC nel contesto della pandemia COVID-19, in Rivista del Diritto della Navigazione, n. 1/2020, 140-141.

[17] E. TURCO BULGHERINI, La riforma del codice della navigazione parte aerea, in Nuove leggi civ. comm., 2006, pp. 1341 ss.; G. MASTRANDREA, L. TULLIO, La revisione della parte aeronautica del codice della navigazione, in Dir. mar., 2005, pp. 1201 ss.; S. BOTTACCHI, La riforma della parte aeronautica del codice della navigazione, in Dir. comm. internaz., 2006, pp. 215 ss.

[18] Esso, rubricato «nozione di aeromobile» recita «per aeromobile si intende ogni macchina destinata al trasporto per aria di persone o cose. Sono altresì considerati aeromobili i mezzi aerei a pilotaggio remoto, definiti come tali dalle leggi speciali, dai regolamenti dell’ENAC e, per quelli militari, dai decreti del Ministero della difesa».

[19] M. LAMON, M. BONAZZI, I droni a supporto della pubblica sicurezza, in Rivista di Diritto dell’Economia, dei Trasporti e dell’Ambiente, vol. XIX/2021, pp. 65 ss.

[20] U. LA TORRE, Gli UAV: Mezzi aerei senza pilota, in R. TRANQUILLI LEALI, E.G. ROSAFIO Sicurezza navigazione e trasporto, Giuffrè, 2008, pp. 112 ss. E.G. ROSAFIO, Considerazioni sui mezzi aerei a pilotaggio remoto e sul regolamento ENAC, in Riv. dir. nav., 2014, pp. 791 ss.

Si segnala che è stato sostenuto che i droni sarebbero in grado anche di trasportare oggetti in relazione alle dimensioni  e alla configurazione del velivolo stesso: molti di essi consentono di trasportare oggetti chiudendoli in un piccolo scomparto posizionato sul drone stesso, oppure mediante l’aggancio dell’oggetto al telaio o grazie alla predisposizione di un attacco esterno. C. SCHLAG, The New Privacy Battle: How the Expanding Use of Drones Continues to Erode Our Concept of Privacy and Privacy Rights, in Journal of Technology Law and Policy, vol. XII, Spring 2013, p. 8.

[21] F. GASPARI, La regolazione multilivello degli aeromobili a pilotaggio remoto e la disciplina «speciale» dell’ENAC nel contesto della pandemia COVID-19, op.,cit., pp. 139-192.

[22] B. FRANCHI, Aeromobili senza pilota (UAV): inquadramento giuridico e profili di responsabilità I parte, Responsabilità  civile e previdenza, 2010, p. 742.

[23] Alcuni Stati degli Stati Uniti d’America preferiscono utilizzare «autonomous vehicle», in Gran Bretagna si fa ricorso all’espressione «automated vehicle». Rispettivamente, State of Nevada Department of Motor Vehicles, Autonomous Vehicles (https://dmvnv.com/autonomous.htm, Online, Access Date: 20.02.2021), State of California Department of Motor Vehicles, Autonomous Vehicles (https://www.dmv.ca.gov/portal/dmv/detail/vr/autonomous/bkgd, Online) e Automated and Electric Vehicles Act, 2018 (http://www.legislation.gov.uk/ukpga/2018/18/contents/enacted, Online).

[24] Letteralmente «the terminology issues are important if one wants to be able to express oneself clearly and precisely», E. HILGENDORF, Automated Driving and the Law, in Robotics, Autonomics, and the Law eds. Hilgendorf, Eric/Seidel, Uwe, Baden-Baden, 2017, pp.171-195.

[25] Si tratta del «Outcome of the regulatory Scoping Exercise for the use of Maritime Autonomous Surface Ships», 3 giugno 2021.

[26] MASS UK Industry Conduct Principles and Code of Practice 2022 (V6), 6.10.2.

[27] Si tratta della cd. «AI black box». Cfr. F. PASQUALE, The black box society: the secret algorithms that control money and information, Harvard University Press, 2015; J. BURREL, How the machine thinks: Understanding opacity in machine learning algorithms, in Big Data & Society, June 2016, pp. 1 ss.; L.A. BYGRAVE, Automated profiling: minding the machine: article 15 of the EC data protection directive and automated profiling, in Computer Law & Security Review, vol. 17, n. 1/2001, pp. 17 ss.; G. MALGIERI, G. COMANDÈ, Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation, in International Data Privacy Law, n. 7/2018, pp. 243 ss.

[28] Il riferimento va all'art. 303, par. 2, reg. nav. mar., ai sensi del quale il proprietario della nave, ai fini dell'iscrizione della stessa negli appositi registri, deve «presentare all'ufficio del porto presso il quale intende ottenere l'iscrizione stessa: 1) la documentazione relativa alle caratteristiche della nave o del galleggiante da iscrivere, alle dotazioni e alle sistemazioni riservate all'equipaggio». Tale problematica è stata sollevata dall'Associazione Italiana di Diritto Marittimo (CMI IWG Questionnaire on Unmanned Ships – ITALY, 2).

[29] Special Purpose Vehicle, cioè veicoli a bassa capitalizzazione che operano in un mercato alternativo rispetto a quello tradizionale. Si tratta di «banche opache» che pongono in essere attività di trasformazione dei crediti e delle relative scadenze con l’emissione di titoli. Tuttavia, non offrono agli investitori la particolare garanzia del rimborso una volta sopraggiunta la loro scadenza, protezione che tradizionalmente viene assicurata ai depositanti. P. DE GIOIA CARABELLESE, Cartolarizzazioni semplici, trasparenti e standardizzate. Dallo shadow banking al techno banking, Bari, 2020, pp. 25 ss.

[30] P. DE GIOIA CARABELLESE, Cartolarizzazioni semplici, trasparenti e standardizzate. Dallo shadow banking al techno banking, Bari, 2020, passim.

[31] Parte della dottrina ha evidenziato che la figura oggetto di esame non potrebbe essere affiancata a quella dell’imprenditore occulto poiché quest’ultima figura fa riferimento alla presenza di un dominus molto vicino all’impresa poiché capace di influenzare gli atti societari. Nel caso dell’imprenditore remoto si deve alludere all’imprenditore remoto e, dunque, all’impresa remota e opaca. P. DE GIOIA CARABELLESE, Il veicolo della cartolarizzazione dal diritto (italiano) alla regulation (unionale) e dall’imprenditore commerciale all’imprenditore opaco, in Responsabilità d’impresa e antiriciclaggio, n. 2/2021, pp. 234-235.

[32] Con questa espressione si fa riferimento alla possibilità che un sistema di intelligenza artificiale possa arrivare a determinare l’esito di una determinata controversia. Cfr. N. IRTI, Il tessitore di Goethe (per la decisione robotica), in A. Carleo (a cura di), Decisione robotica, Bologna, 2019, pp. 17 ss.; M.R. MAGLIULO, L’Intelligenza Artificiale nel processo penale: progresso o rischio per la tutela dei diritti costituzionali?, in Il Processo, fasc. 2/2022, pp. 559 ss.; A. CARLEO (a cura di), Decisione robotica, Bologna, 2019; M.R. COVELLI, Dall'informatizzazione della giustizia alla decisione robotica, in Diritto Processuale Amministrativo, fasc. 3/2021, pp. 131 ss.; P. PIRAS, Il processo amministrativo e l’innovazione tecnologica. Diritto al giusto processo versus intelligenza artificiale? in Diritto Processuale Amministrativo, fasc. 3/2021, pp. 472 ss.; J. SACCOMANI, L’impatto della giustizia algoritmica sul diritto all’equo processo, in Cassazione Penale, fasc. 2/2023, pp. 628 ss. Quanto appena sostenuto trova conferma nella disciplina di segnalazione introdotta dal D.lgs. n. 24/2023 in tema di whistleblowing. Tutta la procedura di segnalazione avviene attraverso il ricorso a un sistema tecnologico che, a sua volta, risulta essere funzionale ad apprestare tutela al soggetto segnalante. Più precisamente, i suoi dati identificativi vengono separati dal contesto della segnalazione affinché quest’ultima risulti essere anonima. A questo si deve aggiungere che il sistema è capace di garantire un iter procedurale definito e trasparente. Il sistema di segnalazione telematico delle condotte illecite si articola in una serie di fasi che iniziano con l’autenticazione online del segnalante e che è che vede quale elemento peculiare il possibile e costante monitoraggio da parte del whistleblower. Quanto alla durata è previsto che tutto il procedimento di gestione dovrà essere concluso entro 90 giorni che decorrono dalla data di ricezione della segnalazione.

[33] Con riferimento alle navi è possibile rinvenire una distinzione tra «remotely operated vessels o Remote ships» e «Automated o Autonomous ships». Le prime sono navi senza equipaggio che vengono controllate a distanza da un operatore umano tramite tecnologia radiocomandata. Le seconde, invece, possono prescindere dall’operatore umano perché sono progettate per seguire una rotta già impostata. A ciò si aggiunga che le navi autonome possono essere, a loro volta, distinte in: «autonomous supervised vessels» e «fully autonomous vessels». Le prime sono sorvegliate a distanza da un personale addetto alla navigazione marittima mentre per le seconde l’operatore umano si limita solamente a pianificare la rotta. Cfr. G.M. BOI, «Navi-drone»: primi interrogativi in tema di disciplina giuridica, in Rivista di Diritto della Navigazione, 2017, pp. 175 ss.; P. Zampella, Navi autonome e navi pilotate da remoto, spunti per una riflessione, in Diritto dei Trasporti, num. spec. 2019, pp. 583 ss.; R. LOBIANCO, Navi senza equipaggio e profili di responsabilità, in Responsabilità Civile e Previdenza, fasc. 3/2021, pp. 756 ss.

[34] P. DE GIOIA CARABELLESE, Il veicolo della cartolarizzazione dal diritto (italiano) alla regulation (unionale) e dall’imprenditore commerciale all’imprenditore opaco, in Responsabilità d’impresa e antiriciclaggio, n. 2/2021, p. 241.

[35] Sul punto si rimanda a P. DE GIOIA CARABELLESE, C. DELLA GIUSTINA, La nuova banca dei dati personali. L’evoluzione del duty of confidentiality e nuove forme di esercizio dell’attività bancaria, Bari, 2023; P. DE GIOIA CARABELLESE, C. DELLA GIUSTINA, The law of Securitisations. From Crisis to Techno-sustainability, London and New York, 2023.

[36] R.A. FAUST (a cura di), Robotics in Surgery. History, Current and Future Applications, New York, 2007.

[37] IMO. (2018b). Working group report in 100th session of IMO Maritime Safety Committee for the regulatory scoping exercise for the use of maritime autonomous surface ships (MASS). MARITIME SAFETY COMMITTEE 100th session MSC 100/WP.8.

[38] È emblematico che il fatto sia accaduto in Arizona poiché l’agenda portata avanti dal Governatore Ducey ha consentito sia all’Arizona che a Phoenix di divenire un centro di innovazione e tecnologia. Una delle conseguenze di questo fu l’Executive Order in forza del quale veniva dichiarato che era nell’interesse dell’Arizona sostenere lo sviluppo di tecnologie per i veicoli a guida autonoma. Di conseguenza, veniva consentita la circolazione di veicoli a guida autonoma su di alcune strade pubbliche al fine ultimo di consentire a questa tecnologia di progredire. Arizona Leaders Form InvisionAZ to Accelerate Technology Growth, AZ BIG MEDIA (Mar. 16, 2018), https://azbigmedia.com/arizona-leaders-form-invisionazaccelerate-technology-growth/; OFFICE OF THE GOVERNOR DOUG DUCEY, Infosys to Open Technology and Innovation Hub in Arizona, Hire 1000 Workers, AZ GOVERNOR (Sept. 20, 2018), https://azgovernor.gov/governor/news/2018/09/infosys-open-technology-andinnovation-hub-arizona-hire- 1000-workers

[39] Uber, infatti, da un decennio circa ha iniziato a sviluppare la tecnologia dei veicoli a guida autonoma al fine di ridurre l’errore umano e di massimizzare i profitti attraverso una eliminazione dei costi.

[40] In forza dell’Executive Order no. 2015-09 del 25 agosto 2015 la circolazione dei veicoli a guida autonoma è consentita a condizione che: 1) il veicolo a guida autonoma sia utilizzato da un dipendente, un appaltatore o altra entità autorizzata a sviluppare questa tecnologia; 2) i veicoli a guida autonoma devono essere “controllati” da un operatore che sia in capace di assumere la guida qualora questo sia necessario; 3) l’operatore di veicoli a guida autonoma («self-driving vehicle operator») deve essere autorizzato a guidare negli Stati Uniti; 4) il proprietario del veicolo a guida autonoma deve dimostrare di avere una sufficiente capienza patrimoniale-finanziaria.

[41] NAT'L TRANSP. SAFETY BD., PRELIMINARY REPORT HIGHWAY HWY18MHO1O 1 (May 24, 2018), https://www.ntsb.gov/investigations/AccidentReports/Reports/ HWY18MH010-prelim.pdf; Chris Coppola & BrieAnna J. Frank, Report: Uber Driver Was Watching 'The Voice 'Moments Before Fatal Tempe Crash, AZCENTRAL (June 22,2018, 10:36 AM), https://www.azcentral.com/story/news/local/tempe-breaking/2018/06/21/uber-selfdriving-car-crash-tempe-police-elaine-herzberg/724344002/.

[42] A. DEARMAN, The Wild, Wild West: Case Study of Self-Driving Vehicle Testing in Arizona, in Arizona Law Review, vol. 61, n. 4/2019, pp. 983 ss.

[43] Press Release, Nat'l Transp. Safety Bd., Car with Automated Vehicle Control Crashes Into Pedestrian (Mar. 18, 2018), https://www.ntsb.gov/investigations/Pages/ HWY18FH010.aspx.

[44] Si tratta di un’agenzia federale indipendente che, qualora si verifichi un incidente, ha il compito di individuare le possibili cause nonché di promuovere la sicurezza dei trasporti, assistere le vittime degli incidenti e le loro famiglie. In modo ancora più preciso è possibile sostenere che il compito della NTSB sia quello di indagare su determinati incidenti per consentire il progresso della conoscenza in materia di sicurezza stradale.

[45] Si segnala che, al momento attuale, nessuna azione è stata posta in essere.

[46] S. BECK, Sinn und Unsinn von Statusfragen - zu Vor - und Nachteilen der Einfürung einer elektronischen Person, in E. HILGENDORF, P. GÜNTHER (a cura di), Robotik und Gesetzgebung, Baden-Baden, 2013, pp. 254 ss.; U. RUFFOLO, Il problema della “personalità elettronica”, in Journal of Ethics and Legal Technologies, vol. 2, n. 1/2020, pp. 76 ss.

[47] S. CHOPRA, L.F. WHITE, A Legal Theory for Autonomous Artificial Agents, Ann Arbor, 2011, 153 ss.; L.B. Solum, Legal Personhood for Artificial Intelligences, in N.C.L. Rev., n. 70/1992, pp. 1231 ss.; A. WURAH, We Hold These Truths to Be Self-Evident, That All Robots Are Created Equal, in J. Future Stud., n. 22/2017, pp. 61 ss.

[48] L. D’AMICO, Intelligenza Artificiale e auto a guida autonoma. Tra prevenzione primaria, colpa penale e rischio consentito, in Rivista Italiana di Medicina Legale (e del Diritto in campo sanitario), fasc. 3/2022, pp. 593 ss.

[49] V. MANES, L'oracolo algoritmico e la giustizia penale: al bivio tra tecnologia e tecnocrazia, in U. Ruffolo, Intelligenza artificiale. Il diritto, i diritti, l'etica, Giuffré, Milano, 2020, p. 549; cfr. S. BECK, Robotics and Criminal Law. Negligence, Diffusion of Liability and Electronic Personhood, in E. HILGENDORF, J. FELDLE, Digitization and the Law, Baden, 2018, p. 43.

[50] EWCA Civ 2173 (Evergreen).

[51]The Sestriere” per Brandon J at [1976] 1 Lloyd’s Rep 125, 130.

[52] “The Queen Mary” ([1949] 82 Ll L Rep 303, 341.

[53] Questa espressione viene utilizzata per indicare il dovere reciproco di diligenza «duty of care». In caso di collisione, dunque, la responsabilità dei proprietari dei vascelli coinvolti deve essere valutare in proporzione al danno riportato da ciascuno di essi. Questo concetto, dunque, estende la responsabilità, classicamente facente capo al produttore (Donoghue v. Stevenson [1932] AC 562 (HL) 564), al proprietario della nave.

[54] S. GAULT (a cura – General Editor), Marsden. Collisions at Sea, Sweet & Marwell, London, 2003.

[55] Il riferimento va al cd. «remoteness principles», A. FRAMER, The Law od Contract Damages, Oxford and Portland, Oregon, 2017, pp. 299 ss.

[56] Law Commission, Consultation Paper No 404, Scottish Law Commission, Discussion Paper No 258, Automated Vehicles: joint report, 26 January 2022.

[57] C. DELLA GIUSTINA, P. DE GIOIA CARABELLESE, The Automated Vehicles in the latest UK Regulation: The Joint Report of Law Commissions and the new “duty of candour”. The UK as the “Marco Polo” of Automated Vehicles?!, in Diritto e Politica dei Trasporti, n. 1/2023, in corso di pubblicazione.

[58] Per una disamina dello stesso si rimanda ampiamente a P. DE GIOIA CARABELLESE, C. DELLA GIUSTINA, La Stagione “Tecnologica” della Bribery Act 2010 della Disciplina degli “Automated Vehicles”. Prime Riflessioni sull’ultimo Joint Report della Law Commissions, in Rivista231, n. 2/2023, in corso di pubblicazione.

[59] Law Commission, Automated Vehicles: Summary of joint report, 26 gennaio 2022, par.5.

[60] Con questa espressione si fa riferimento al produttore del veicolo, o allo sviluppatore di software da installare sull’AV. In forza di quanto stabilito dalla Law Commission, con l’acronimo ASDE si può fare riferimento sia al produttore di veicoli, sia allo sviluppatore di software sia a un’ipotesi di commistione tra queste due figure. L’elemento cruciale attiene alla prova che deve essere fornita dall’ASDE: egli deve dimostrare che il veicolo, o il software, è in possesso di tutte le autorizzazioni richieste dalla legge. Il riferimento è a  Law Commission, Automated Vehicles: Summary of joint report, 26 gennaio 2022, par. 3.9.

[61] È l’organizzazione responsabile della vigilanza per quanto attiene ai veicoli senza che vi sia un “essere umano” quale guidatore, the NUIC operator - the organisation that oversees vehicles without a user-incharge). Law Commission, Automated Vehicles: Summary of joint report, 26 gennaio 2022, par. 1.13.

[62] A CAMPBELL, G. GILLET, G. JONES, Medical Ethics, OUP,  2001.

[63] P. DE GIOIA CARABELLESE, C. DELLA GIUSTINA, La Stagione “Tecnologica” della Bribery Act 2010 della Disciplina degli “Automated Vehicles”. Prime Riflessioni sull’ultimo Joint Report della Law Commissions, op. cit.

[64] E’ stato chiarito dalla giurisprudenza britannica che, in ipotesi di negligenza professionale, rectius negligenza medica, il professionista deve uniformare la propria condotta al cd. «duty of candour». Naylor v Preston [1987] 1 WLR 958, 967.

[65] Traduzione letterale dall’inglese da parte di chi scrive, letteralmente: «a culture of candour is a culture of safety, and viceversa». D. DALTON, N. WILLIAMS, Building a Czl'ure of Candour: A Review of he ThresholdJor the Duo of Candour and of the Incen-ivesfor Care Organisalions lo be Candid, in  Royal College of Surgeons, 2014, p. 12.

[66] Si tratta del soggetto che certifica la sicurezza del veicolo. Law Commission, Automated Vehicles: Summary of joint report, 26 gennaio 2022, par. 5.10.

[67] Si tratta del soggetto che assume un ruolo significativo poiché assume la decisione circa le modalità di gestione e/o organizzazione dell’operatore ASDE/NUIC, e/o è colui che si fa garante della sicurezza. Law Commission, Automated Vehicles: Summary of joint report, 26 gennaio 2022, par. 5.8.

[68] Nella versione inglese l’elemento da provare attiene a «mental element: either that the senior manager was aware of the wrongdoing or that they had deliberately closed their eyes to it». Join report 11.53.

[69] A.TETTENBORN, JOHN KIMBELL, Marsden and Gault on Collisions at Sea, London, 2021, para 6-075.

[70] J. STEELE, Tort Law: Text, Case, and Materials, Oxford, 2014. Si precisa che nel diritto scozzese si fa riferimento all’espressione «delict». G. Cameron, Delict, in G. Black (a cura di), Business Law in Scotland, Edimburgo, 2019, pp. 281 ss.

[71] L. Carey, Contractual and Tortius Maritime Liability Regimes and the Introduction of Autonomous Vessels, SSRN-id4403620.pdf.

[72] [1932] AC 562 (HL). Si tratta della decisione storica dei tribunali scozzesi relativa alla responsabilità civile e ha gettato le basi della moderna legislazione in materia di negligenza stabilendo, dunque, i relativi doveri di diligenza. Questa pronuncia è conosciuta, altresì, come ‘Painsley Snail’ o ‘Snail in the Bottle’. Più precisamente, riguardava il caso di una signora che, dopo aver bevuto una bottiglia di birra allo zenzero in un bar, si ammalò a causa della presenza di una lumaca decomposta contenuta nella bottiglia stessa. Di conseguenza, intentò un’azione nei confronti del produttore, il sig. Stevenson. L’House of Lords ritenne che quest’ultimo fosse responsabile in quanto aveva violato il dovere di diligenza: in altri termini, secondo una ricostruzione di ragionevolezza, egli avrebbe dovuto essere garante della sicurezza del prodotto senza comportare un danno ai consumatori.

[73] Il leading case nel common law è Mersey Docks & Harbour Board v Coggins Griffths Ltd [1947] A.C. 1. Coggins e Griffiths e, nell’ambito delle loro attività commerciali, avevano preso a noleggio una gru per scaricare le navi nel porto. Posto che questa attività sarebbe dovuta avvenire con cadenza giornaliera, avevano concluso un contratto con Harbour Board affinché la gru venisse noleggiata insieme all’operatore umano. In modo negligente, l’autista aveva fatto cadere un carico nella stiva della nave; la questione giuridica, dunque, atteneva all’identificazione del responsabile dell’azione. È stato ritenuto che Harbour Board fosse responsabile a titolo di vicarious liability: Harbour Board non aveva trasferito e nemmeno delegato a Coggins e Griffiths il dovere di esercitare un controllo pervasivo per far funzionare la gru.

[74] Altra parte della dottrina sostiene che, in assenza di una disciplina ad hoc, dovrebbero essere ritenuti responsabili sia il proprietario che il produttore. Si applicherebbe, dunque, il regime della cd. «strict liability». R. VEAL, Regulation and Liability in Autonomous Shipping: A Panoptic View, in Tulane Maritime Law Journal, vol. 45, n. 1/2020, pp. 101 ss.

[75] Il titolo del paragrafo richiama, ovviamente, il seguente libro: M. MORGAN, Il cielo, la terra, e quel che sta nel mezzo, Rizzoli, Milano, 1995.

[76] Parte della dottrina ritiene che sia possibile applicare la «doctrine of seaworthiness» anche alle navi totalmente autonome. L. K. SO, P. SOOKSRIPAISARNKIT, Seaworthiness and Autonomous Ships: Legal Implication in the 21th Century, in Maritime Law Journal, n. 325/2021, p. 29.

[77] Per quanto attiene alle possibili analogie tra la materia delle assicurazioni marittime e quelle automobilistiche, il riferimento va a Barrett v London General Insurance [1935] 1 K.B. 238. Nel caso di specie, il concetto di «roadwothiness» venne interpretato in modo analogico rispetto a quanto stabilito in materia di «seaworthiness» nelle assicurazioni marittime. In queste ultime, il «seaworthiness» viene richiesto solamente prima che la nave inizi la navigazione: lo stesso criterio venne applicato in tema di incidente stradale. Il ragionamento appena esposto non ha trovato un seguito giurisprudenziale. Il riferimento va a Trickett v Queensland Insurance & Co [1936] A.C. 159 e a Clark v National Insurance Corp [1963] 2 All  E.R. 375. In quest’ultimo caso, è stato evidenziato come l’analogia tra il settore marittimo e automobilistico sia sicuramente utile a condizione che l’interprete, nell’attuare l’analogia tra i due settori, si ricordi che «car is being driver».  

[78] «Il trolley problem viene utilizzato per descrivere, nelle lezioni di filosofia, l’utilitarismo e la deontologia, o moralità, fondata sul concetto di dovere. Tradizionalmente viene descritto nel modo seguente: un carrello sta sfrecciando lungo un binario verso cinque persone. Il soggetto si trova su un ponte sotto il quale passerà il carrello e il soggetto ha la possibilità di fermarlo mettendo davanti qualcosa di pesante. L’unico modo per realizzare questa seconda possibilità è quella di spingere un uomo molto robusto. L’interrogativo morale, dunque, è quale delle due alternative scegliere: se si dovesse adottare quella di posizionare l’uomo robusto per salvare le cinque persone, la prospettiva è quella dell’utilitarismo; a contrario la posizione deontologica richiederebbe di non interferire con il decorso causale», (traduzione non letterale da parte di chi scrive), N. BELAY, Robot Ethics and Self-Driving Cars: How Ethical Determinations in Software Will Require A New Legal Framework, in Journal of the Legal Profession, n. 40/2015, p. 121; W. BRADLEY WENDEL, Economic Rationality and Ethical Values in Design-Defect Analysis: The Trolley Problem and Autonomous Vehicles. in California Western Law Review, vol. 55, n. 1/2018, pp. 129 ss.; F. SANTONI, Killing by Autonomous Vehicles and the Legal Doctrine of Necessity, in Ethical Theory and Moral Practice, vol. 20, n. 2/2017, pp. 411 ss.; A. APPIAH, Experiments in Ethics, Cambridge MA, 2008. S. S. Wu, Autonomous vehicles, trolley problems, and the law, in Ethics and Information Technology, n. 22/2020, pp. 1 ss.

[79] Se l’IA di un veicolo ritiene che l’adozione di misure estreme per proteggere i propri passeggeri in caso di incidente comporterebbe un maggior danno alla proprietà o alla vita di un'altra persona o di altre persone, assumerebbe la decisione meno estrema ma che metterebbe in pericolo la vita dei propri passeggeri.

[80] Non si tratta di un fenomeno nuovo posto che la letteratura è copiosa sul punto. Con questa espressione si allude a scelte nelle quali risk assesment e risk management seguono logiche che ammettono la possibilità di comprimere diritti fondamentali come la salute, l’integrità fisica, la vita poiché conseguenze inevitabili dell’adozione di decisioni funzionali a garantire il più soddisfacente livello possibile di realizzazione di plurimi interessi ritenuti meritevoli di tutela. G. CALABRESI, The Future of Law and Economics, New Haven,  2016.

[81] L’IA presente nell’AV, potrebbe assumere qualsivoglia decisione per salvare la vita dei suoi passeggeri anche qualora questa decisione dovesse causare più danni e dovesse essere maggiormente costosa da un punto di vista economico.

[82] In tal senso è stato osservato che i produttori e programmatori predisporranno il software in modo in cui esso possa assumere decisioni che riducono al minimo il rischio di una esposizione legale a carico di produttore e programmatore, appunto. B. CASEY, Amoral Machines, or: How Roboticists Can Learn to Stop Worrying and Love the Law, in Standford Law Journal, vol. 111, n. 5/2017, pp. 231 ss.

[83] A.M. KUMAR, The Modern Trolley Problem: Ethical and Economically-Sound Liability Schemes for Autonomous Vehicles, in Case Western Reserve Journal of Law, Technology and the Internet, n.9/2018, pp. 1 ss.

[84] «If people were not involved with autonomous vehicles, privacy would not be an issue». D.J. GANCY, Privacy in Autonomous Vehicles, in Santa Clara Law Review, vol. 52, n. 4/2012, p. 1171.

[85] Si rammenta che esso non concerne solo «the right to be alone» ma anche il diritto alla protezione dei dati personali, l’aspettativa di riservatezza che un soggetto può vantare nel momento in cui si trova in un luogo pubblico, «the right to be forgotten».

[86] C. DELLA GIUSTINA, Unmanned Aerial Vehicle (UAV) e tutela della privacy dell’individuo nella nuova techno-society dell’Unione europea e oltre. Esiste un diritto alla riservatezza nei luoghi pubblici?, in  Studi sull’integrazione europea, n. 1/2022, pp. 163 ss.

[87] Ad esempio, il veicolo potrebbe cambiare percorso a causa delle informazioni inviate da un altro veicolo interconnesso relative alla chiusura temporanea di una determinata strada.

[88] Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica [2015/2013 (INL)]. In modo ancora più preciso, al n. 59, lett. f) viene sancito che «l'istituzione di uno status giuridico specifico per i robot nel lungo termine, di modo che almeno i robot autonomi più sofisticati possano essere considerati come persone elettroniche responsabili di risarcire qualsiasi danno da loro causato, nonché eventualmente il riconoscimento della personalità elettronica dei robot che prendono decisioni autonome o che interagiscono in modo indipendente con terzi». L'esigenza è sorta dalla necessità di apprestare una tutela ai diritti che potrebbero essere intaccati dall'impiego di forme robotiche che assumono rilevanza non solamente nelle attività che vengono svolte da parte della società dell'informazione ma, altresì, per quanto concerne l'applicazione ai processi di produzione dei beni ed erogazione dei servizi. Da qui, proprio alla luce di codesto «processo di robotizzazione dell'uomo e di umanizzazione del robot è necessario apprestare una nuova tutela ai diritti fondamentali». C. LEANZA, Intelligenza Artificiale e diritto: ipotesi di responsabilità civile nel terzo millennio, in Resp. civ. prev., 2021, 1011. Cfr. P. DE GIOIA CARABELLE, C. DELLA GIUSTINA, La crioconservazione umana verso il mercato non-regolamentato della vita. Una analisi giuridica ed “economica” tra Italia e sistema legislativo britannico, in Diritto di Famiglia e delle Persone (II), fasc. 4/2022, pp. 1792 ss.

[89] Quoine Pte Ltd v B2C2 Ltd. 6 [2020] SGCA(I) 03. Più precisamente, il caso riguardava degli scambi di criptovalute su di una piattaforma di cambio valuta (Quoine) che a causa di un errore dell’algoritmo sono state effettuate a un prezzo superiore di 250 volte rispetto a quello del mercato. I contratti sono stati successivamente annullati in modo unilaterale da Quione sulla scorta della considerazione che fossero nulli. Successivamente, B2C2 ha avviato un’azione legale nei confronti di Quione in quanto riteneva che la decisione assunta di invalidare le azioni costituiva sia una violazione dei termini contrattuali tra le parti sia un violazione del dovere di fiducia.

[90] L’attuale disciplina europea, oltre a essere frammentaria, è estremamente dettagliata. Come è avvenuto nel settore della regolamentazione delle cartolarizzazioni, una iper-regolamentazione del fenomeno dell’intelligenza artificiale potrebbe condurre a conseguenze difficilmente prevedibili ma potenzialmente catastrofiche. In tema di operazioni di finanza strutturata, si rimanda a P. DE GIOIA CARABELLESE, Securitization and structured finance: from shadow banking to legal harmonization?, in I. H.-Y. CHIU, I. G. MACNEIL, Research Handbook on Shadow Banking. Legal and Regulatory Aspects, Cheltenhma and Northampton, 2018, pp. 117 ss.

[91] Questo sembra essere confermato anche con riferimento alle navi “autonome”, M. PIJACAR, B. BULUM, Comparison of Problems Related to the Carriage of Goods by Sea Between Traditional and Autonomous Vessels, in International Journal of Marine Navigation and Safety of Sea Transportation, vol. 15, n. 1/2021, pp. 125 ss.

[92] CMI-Position-Paper-on-Unmanned-Ships.pdf.

[93] Si tratterebbe del soggetto che predispone la rotta che dovrà essere seguita dalla nave senza, tuttavia, avere il potere di interferire in modo diretto qualora vi fosse necessità.

[94] E. FITZBALL, The Flying Ducthman, 1826.