Pubbl. Lun, 29 Apr 2024
Esseri umani ed esseri sintetici: l´emersione del robotismo
Modifica pagina
Camilla Della Giustina
L´espressione ”crisi della democrazia” è da sempre al centro del dibattito giuspubblicistico. Rispetto all´ approccio ´tradizionale´, secondo cui crisi della democrazia è da riferire alla crisi della rappresentanza e dei partiti, in questo contributo l´attenzione verrà posta sull´interazione che si va profilando tra esseri umani e sintetici.
Sommario: 1.Introduzione; 2. Crisi della democrazia: cenni; 3. Gli esseri sintetici; 4. Dal personalismo al robotismo?; 5. Raccordo conclusivo: profili problematici
1. Introduzione
Ubi societas, ibi ius. È prendendo le mosse da questo brocardo latino che si introduce alla tematica della rappresentanza politica degli esseri sintetici. Si tratta di un tema affrontato in differenti occasioni dalla scrivente; tuttavia, solo recentemente ha trovato una applicazione “concreta”. Il riferimento è al “Syntetiske Parti”, un partito nato in Danimarca il cui leader è un(o/a) chatbot. Nonostante sia riuscito a raccogliere solamente 12 firme, su 20mila necessarie per presentarsi alle consultazioni, è significativo il fatto descritto, soprattutto ai fini della riflessione giuridica, di diritto costituzionale e, precisamente, parlamentare.
A partire da quanto poc’anzi descritto, è necessario interrogarsi sulla possibilità di riconoscere diritti a questi nuovi esseri, ossia, quelli robotici. La costituzione di un partito il cui leader è un essere non-umano, impone al giurista di iniziare a rapportarsi con questa nuova realtà giuridica. Di qui, ergo, la riflessione prende contorni maggiormente definiti e deve essere declinata su due fronti, interconnessi logicamente tra di loro. Il primo concerne l’esatta definizione delle “future people” e il secondo, connesso al primo, concerne la rappresentanza politica di questa generazione del futuro.
In altri termini, dinnanzi a un progressivo mutamento della composizione del corpo elettorale, che potrebbe essere formato da esseri sintetici e robotici, si assiste alla definizione di nuove maggioranze e minoranze, rispettivamente umane e non-umane. Alla luce di ciò, la domanda di ricerca è da riferire sia alla progressiva definizione di un principio robotista sia alla dialettica che potrebbe instaurarsi tra quest’ultimo e il principio personalista. Ancora: ci si chiede se questo principio, che viene definito come robotista, necessiti di una regolamentazione ad hoc o se, a contrario, questo possa essere inferito dai principi che animano la Costituzione italiana.
Il dilemma è se sia necessario, e/ opportuno, avviare un processo di revisione costituzionale o se, invece, proprio a partire dalle attuali e vigenti disposizioni costituzionali, sia possibile esperire una interpretazione ‘tecnologica’ della Carta fondamentale italiana.
Appare chiaro che sullo sfondo si scorge un’ulteriore tematica classica del diritto costituzionale, cioè, quella della crisi democrazia e della rappresentanza. L’espressione “crisi della democrazia” è da sempre è al centro del dibattito gius-pubblicistico con riferimento a differenti fenomeni. Proprio per il sempre più pregnante ricorso al concetto di “crisi”, la proposta che si avanza propone di affrontare la problematica dal punto di vista della sfida, della possibilità di azione.
Precisamente, ci si pone dalla parte – definibile come costruttiva – della crisi, ossia, quella attinente alla unione, all’unificazione della contrapposizione. Il background sociale dal quale si intende prendere le mosse allude al riconoscimento, avvenuto a opera della Risoluzione del Parlamento europeo, circa riconoscimento di soggettività giuridica ai Robot.
2. Crisi della democrazia: cenni
L’espressione “crisi della democrazia” è, da sempre, è al centro del dibattito gius-pubblicistico con riferimento a differenti fenomeni. Proprio per il sempre più pregnante ricorso al concetto di “crisi”, la proposta che si avanza propone di affrontare la problematica dal punto di vista della sfida, della possibilità di azione.
Precisamente, ci si pone dalla parte – definibile come costruttiva – della crisi, ossia, quella attinente alla unione, all’unificazione della contrapposizione. Il background sociale dal quale si intende prendere le mosse allude al riconoscimento, avvenuto a opera della Risoluzione del Parlamento europeo, circa riconoscimento di soggettività giuridica ai Robot[1].
In questa direzione, quindi, qualora si dovesse assistere alla proliferazione di questi individui sintetici che provvederanno a interagire con gli esseri “umani”, si porrà la problematica di apprestare adeguate tutele sia agli uni che agli altri[2]. Il riferimento va, soprattutto, alle esperienze comparatistiche che hanno apprestato un riconoscimento giuridico a entità sintetiche[3].
È evidente, ergo, che questa commistione risulti essere sempre più evidente e, proprio nell’ottica di un approccio democratico, essa pone delle nuove sfide che dovranno essere affrontate. A titolo esemplificativo, sarà necessario chiedersi se, questi individui artificiali dovranno essere rappresentati da altri individui artificiali in Parlamento, oppure se, per quanto attiene alla instaurazione di un giudizio preordinato ad accertare la responsabilità per un danno commesso da un robot, organo giudicante dovrà essere un simile.
In altri termini, è possibile assistere a una proliferazione di interrogativi poiché, si potrebbe assistere alla formazione di una nuova particolare categoria di minoranza a cui apprestare particolare protezione, cioè, gli esseri che non rientrano nella definizione di “umani” in quanto qualificabili come sintetici, appunto[4].
3. Gli esseri sintetici
In forza di quanto sostenuto nel precedente paragrafo, la progressiva intensificazione della relazione tra esseri umani ed esseri sintetici ha gettato i semi affinché in dottrina si iniziasse a discorrere di estensione della soggettività agli esseri non-umani[5]. Questa esigenza prende le mosse dalla circostanza in forza della quale le forme di intelligenza artificiale forniscono, poiché dotate di “autonomia” dall’essere umano, delle prestazioni che divengono incontrollabili sia dagli utilizzatori che dagli sviluppatori[6].
Parte della dottrina ritiene che dovrebbe escludersi il riconoscimento della qualifica di ‘soggetto’ in capo agli esseri sintetici poiché sarebbe sufficiente provvedere a estendere le disposizioni generali sulla responsabilità civile. Di tal via, gli esseri non-umani verrebbero assimilati alle macchine. Da qui, pertanto, l’applicazione in via analogica delle disposizioni contenute nel codice civile relative alla responsabilità del produttore e dell’utilizzatore[7].
Orientamento contrapposto, invece, riconosce una soggettività giuridica, seppur limitata, ai meccanismi robotici. La conseguenza logica di questa presa di posizione attiene alla possibilità di imputare, primariamente, le azioni dannose ai meccanismi sintetici e solo in un secondo momento agli sviluppatori e utilizzatori[8].
A livello di diritto europeo, la risposta è avvenuta attraverso la già citata Risoluzione del Parlamento Europeo concernente l’applicazione delle disposizioni di diritto civile sulla robotica. Attraverso questo primo intervento normativo si è assistito alla attribuzione della soggettività giuridica piena dei meccanismi ‘autonomi’ rilevando, al tempo stesso e quasi paradossalmente, l’urgenza di una specifica regolamentazione organica preordinata a limitare la progressiva autonomia degli esseri sintetici.
Più recentemente, il Parlamento europeo ha adottato una nuova Risoluzione[9] esortando la Commissione a riesaminare la documentazione già in suo possesso al fine di assicurare che quanto in precedenza stabilito possa dirsi funzionale allo scopo. In un momento successivo sono stati elaborati ulteriori documenti. In primo luogo, il riferimento va alla elaborazione di un report[10] attinente alle “implicazioni dell’intelligenza artificiale, dell’Internet delle cose e della robotica in materia di sicurezza e responsabilità” a sua volta allegato al Libro Bianco “sull’intelligenza artificiale – Un approccio europeo all’eccellenza e alla fiducia”[11].
In secondo luogo, si deve necessariamente richiamare la proposta di Regolamento elaborata dalla Commissione Juri[12] alla quale deve essere riconosciuto il merito di aver delineato una doppia responsabilità del sistema autonomo. Secondo quanto si legge in questa proposta, infatti, si potrebbe rinvenire una responsabilità di tipo oggettivo e una di colpa presunta. La prima sarebbe da riferire al danno provocato da un sistema di intelligenza artificiale ad alto rischio, ossia aeromobili a pilotaggio remoto (‘droni’), sistemi autonomi di gestione del traffico, ecc. Il secondo troverebbe applicazione in tutte quelle circostanze in cui il sistema di automazione non risulta essere dotato di un elevato grado di autonomia.
4. Dal personalismo al ‘robotismo’?
Sebbene sia la natura stessa della tecnica quella di essere protesa verso una evoluzione, incessante e non controllabile, il ruolo dell’essere umano diviene il perimetro entro il quale l’Intelligenza Artificiale deve spiegare i propri effetti. Quello che si impone, in modo imperativo, è il recupero della natura relazione e sociale dell’essere umano che, proprio in quanto forma di vita originaria, non può essere oggetto di sostituzione da parte di qualsivoglia altra forma[13].
Detto altrimenti, sebbene si assista a un cambiamento quasi epocale per le modalità di esecuzione della prestazione lavorativa, la bussola che deve orientare il cammino è rappresentata dalla massima secondo cui l’attività lavorativa, in qualsiasi forma venga resa, integra un’esperienza essenzialmente e necessariamente umana[14].
Proprio al fine di perseguire questo obiettivo viene imposto un impegno agli attori, siano essi pubblici che privati, delle relazioni industriali proprio perché la sfida da vincere è molto ambiziosa posto che l’obiettivo primario è quello di preservare la centralità dell’essere umano[15].
Dinnanzi al progressivo riconoscimento di uno status giuridico che potrebbe essere definito ‘elettronico’[16], è possibile che, in un futuro più o meno prossimo, anche gli esseri sintetici possano rivendicare dei diritti, tra cui, ad esempio, quello di non essere discriminati dagli esseri umani[17]. A questo si deve aggiungere che proprio la continua interazione destinata a svilupparsi tra esseri umani e robotici potrebbe portare i primi a trattare i secondi come persone o come animali in determinate circostanze e a determinate condizioni[18].
Posto che nel futuro più o meno prossimo potranno realizzarsi forme di interazione tra questi due esseri, umani e sintetici, è necessario addivenire a forme di collaborazione e non discriminazione. Le disposizioni costituzionali cui fare riferimento sono l’art. 3 Cost. e l’art. 9 co. 3 Cost.[19], rispettivamente, divieto di discriminazione e tutela degli animali. A partire da ciò, dunque, l’interrogativo è se sia necessario inserire una disposizione ad hoc al fine di apprestare tutela anche agli esseri sintetici.
Qualora la risposta dovesse essere affermativa, si assisterebbe non solo alla transizione dal principio personalista[20] al principio ‘robotista’, o meglio dal personalismo al ‘robotismo’. Tuttavia, ci si esporrebbe, altresì, sia a un rischio di moltiplicazione dei diritti[21] sia di accentuazione della dicotomia umano-non umano. Una possibile soluzione potrebbe essere quella di rispettare le differenze, sia umane che non umane, andando a istituire dei rappresentanti delle due compagini che si trovino a dialogare tra di loro in sede parlamentare[22].
Questo assume ancora più importanza soprattutto se il principio di legalità[23] viene interpretato quale aspetto irrinunciabile per garantire non solamente la democrazia ma anche quale legittimazione per il Parlamento nella limitazione e regolamentazione dei diritti fondamentali[24]-[25].
5. Raccordo conclusivo: profili problematici
Nei paragrafi precedenti si è dato atto di come lo sviluppo dell'intelligenza artificiale stia apportando delle modifiche a quelli che sono i tradizionali concetti del diritto costituzionale.
In tale direzione si deve dare conto del fatto che è stata avanzata la proposta di una Costituzione per gli esseri sintetici. Il riferimento va all'iniziativa promossa da Google di creare una Carta Fondamentale, Costituzione appunto, per gli esseri differenti da quelli umani, appunto, robotici. Il principio fondamentale che sembra sorreggere questa nuova Carta è quello del divieto di interazione tra esseri sintetici e esseri umani/animali. La giustificazione sembra essere quella del possibile rischio e danno che potrebbe derivare ai secondi.
Alla luce di ciò, appare chiaro come all'orizzonte sembra profilarsi non solamente una contrapposizione tra esseri umani ed esseri sintetici ma, addirittura, un conflitto tra Carte Fondamentali, ossia, due Costituzioni.
In conclusione, dunque, si pongono essenzialmente un paio di problemi. Il primo concerne non solamente il rischio per l'incolumità degli esseri umani dall''interazione con gli esseri sintretici ma anche di discriminazione degli uni nei confronti degli altri.
Il secondo, invece, attiene a un possibile contrasto tra fonti del diritto: tra la Costituzione repubblicana e la Costituzione di Google. La prima animata da un divieto di discriminazione, la seconda ispirata da un principio di precauzione/di divieto di interazione. L'interrogativo che permane, dunque, è come questo conflitto tra fonti del diritto debba essere risolto. E' possibile che la Costituzione di Google debba essere interpretata come fonte esterna all'ordinamento giuridico italiano oltre che fonte di soft law, dunque, soggetta non solamente alla Costituzione ma alla stessa legge.
Si tratta di una conclusione momentanea, rebus sic stantibus, ma non esclude che, in un futuro più o meno prossimo, i criteri di risoluzione delle antinomie possano, a loro volta, doversi rapportare con una Costituzione differente, quella degli esseri robotici.
[1] Risoluzione del Parlamento Europeo «concernenti norme di diritto civile sulla robotica» che ha proposto l’inserimento degli automi all’interno del mondo giuridico mediante l’attribuzione della capacità giuridica piena. Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica [2015/2013 (INL)].
[2] La tematica è stata affrontata anche con riferimento al diritto del lavoro: vedasi C. DELLA GIUSTINA, Il luogo di lavoro come luogo di interazione tra esseri umani e sintetici. Quali soluzioni per nuove forme di discriminazione?, in V. ANNIBALI, C. MARTINS dos SANTOS BENEVIDES, R. NEI BARBOSA de FREITAS FILHO, M. MOCELLA (a cura di), Il diritto del lavoro nell’era digitale O Direito do trabalho na era digital, Atti del Convegno Italo-Brasiliano – 26 e 27 maggio 2022 - Seconda edizione Anais do Congresso Ítalo-Brasileiro - de 26 e 27 de maio de 2022 - Segunda ediça͂o, Universitas Mercatorum Press, Giapeto Editore, Napoli, 2023, pp. 214-228.
[3] In Giappone, a titolo esemplificativo, sono stati concessi i diritti a uno chabot di sesso maschile, mentre, in Arabia Saudita, è stata riconosciuta la cittadinanza a un robot “donna”.
[4] C. DELLA GIUSTINA, Universalità dei Diritti Umani. Un chiasmo dialettico tra matrici di senso e di concetto? in Calumet, 13, 2021, pp. 116 ss.
[5] L. CALOGERO, Intelligenza artificiale e diritto: ipotesi di responsabilità civile nel terzo millennio, in Responsabilità civile e previdenza, 3, 2021, pp. 1011 ss.
[6] S. FIDOTTI, Nuove forme contrattuali nell’era del blockchain. Profili di responsabilità, in G. ALPA (a cura di), Diritto e Intelligenza artificiale, Pisa, Pacini Giuridica, 2020, pp. 335 ss.
[7]A. ALBANESE, La responsabilità civile per i danni da circolazione di veicoli ad elevata automazione, in Europa e diritto privato, 4, 2019, pp. 995 ss.; P. COMANDUCCI, Le tre leggi della robotica e l’insegnamento della filosofia del diritto, in Materiali per una storia della cultura giuridica, 1, 2006, pp. 191 ss.
[8] G. TEUBNER, Soggetti giuridici digitali? Sullo status privatistico degli agenti software autonomi, Napoli, Edizioni Scientifiche Italiane, 2019.
[9] Parlamento Europeo, Risoluzione del 12 febbraio 2019, Una politica industriale europea globale in materia di robotica e intelligenza artificiale, P8_TA-PROV (2019)0081.
[10] Liability for Artificial Intelligence and other emerging digital technologies, Report from the Expert Group on Liability and New technologies – New Technologies Formation, European Union, 2019.
[11] Commissione Europea, COM (2020) 65 final, 16 febbraio 2020, Libro bianco sull’intelligenza artificiale – Un approccio europea all’eccellenza e alla fiducia.
[12] Progetto di relazione recante raccomandazioni alla Commissione su un regime di responsabilità civile per l’intelligenza artificiale [2020/2014 (INL)].
[13] P. MORO, Intelligenza artificiale e professioni legali. La questione del metodo, in Journal of Ethics and Legal Technologies, 1, 2019, p. 24 ss.
[14]M. ISCERI, R. LUPPI, L’impatto dell’intelligenza artificiale nella sostituzione dei lavoratori: riflessioni a margine di una ricerca, in LavoroDirittiEuropa, 1, 2022, pp. 1 ss.
[15] E. BATTELLI, Necessità di un umanesimo tecnologico: sistemi di intelligenza artificiale e diritti della persona, in Diritto di Famiglia e delle Persone (II), 3, 2022, pp. 1096 ss.
[16] Si deve rammentare, infatti, che il riconoscimento della personalità ai sistemi di intelligenza artificiale rappresenta un aspetto problematico. In una sentenza d’Oltreoceano, un robot, secondo la ricostruzione di una delle parti, è stato qualificato come “un essere animato, un essere umano sintetico o qualcosa che può assomigliare all’essere umano”. Si tratta di una definizione che non è stata accolta dalla Corte la quale ha precisato che un robot è solamente “un supporto meccanico, un apparato, un automa che opera secondo le leggi della meccanica e delle scienze”. 40 Cust. Ct. 610, 610 (1958), traduzione non letterale dall’inglese da parte di chi scrive.
[17] È stato sostenuto in dottrina che nel futuro si avranno degli organismi sintetici aventi caratteristiche sempre più simili a quelle degli esseri umani. Da qui, ergo, sorge l’interrogativo se, seppur in assenza di una percezione mentale ed esperienziale, questo rappresenti un elemento sufficiente per giustificare un mancato riconoscimento di soggettiva nei confronti dei robot. Altra parte della dottrina ha evidenziato che nonostante si assista a una progressiva disumanizzazione del mercato del lavoro, questo non comporterà una eliminazione del fattore umano ma, a contrario, riaffermerà il ruolo centrale dell’Umanità. Tutta la regolamentazione che verrà sviluppata in relazione all’applicazione dell’Intelligenza Artificiale nei luoghi di lavoro, infatti, riaffermerà come primario beneficiario della tutela e della disciplina l’Essere Umano e non l’essere sintetico. L. GROZDANOVSKI, The Emergence of 4.0. Employment Contracts: on the Need to Redefine Employment in the Context of Automated Labour, in Catolica Law Review, 2, 2020, pp. 99 ss.; A. D’ALOIA, Il diritto verso il “mondo nuovo”. Le sfide dell’Intelligenza Artificiale, in Biolaw Journal – Rivista di BioDiritto, 1, 2019, pp. 3 ss.
[18] J. BALKIN, The Path of Robotics Law, in California Law Review, 6, 2016, pp. 46 ss.
[19] Si tratta di una delle modifiche apportate dalla l. cost. 11 febbraio 2022, n. 1.
[20] Il riferimento è all’art. 2 Cost.
[21] C. DELLA GIUSTINA, Universalità dei Diritti Umani. Un chiasmo dialettico tra matrici di senso e di concetto?, cit.
[22] Una proposta simile ma riferita al diritto del lavoro si rinviene in P. de GIOIA CARABELLESE, C. DELLA GIUSTINA, Diritto del lavoro e del techno-business law. Dal law of master and servant britannico all’Industry 5.0. Un research textbook, Pisa, Pacini, 2022. Per un parallelismo con il diritto societario, vedasi in P. de GIOIA CARABELLESE, C. DELLA GIUSTINA, Il Research textbook del diritto societario. Common law, metaverso e sostenibiltà, Cacucci, Bari, 2023.
[23] C. DELLA GIUSTINA, La dialettica tra Governo e Parlamento durante la gestione dell’emergenza sanitaria da Covid-19, in D. CASANOVA, A. DE NICOLA, M.C. GHIRARDI, P. VILLASCHI, Le fonti della crisi: prospettive di diritto comparato. Atti del Seminario di diritto comparato, 25 marzo 2022, Quaderno monografico abbinato al fasc. 3, 2022, in La Rivista del Gruppo di Pisa, pp. 209-222.
[24] Il riferimento è, chiaramente, a R. v Secretary of State for the Home Department Ex p. Simms [2000] 2 A.C. 115; [1999] 3 W.L.R. 328 at [131]–[132].
[25] Volutamente non si specifica quali siano i destinatari dei diritti fondamentali, si preferisce, dunque, assumere un approccio neutro soprattutto alla luce di quanto esposto in questo contributo.