• . - Liv.
ISCRIVITI (leggi qui)
Pubbl. Lun, 17 Giu 2024

L´algoretica: le nuove sfide verso una IA etica

Modifica pagina

Cristina Mingo
Praticante AvvocatoUniversità degli Studi Suor Orsola Benincasa



Il processo tecnologico e con esso gli ampi scenari aperti dall’intelligenza artificiale e dall’impatto che essa sta indubbiamente avendo sulla società, ha fatto sollevare da alcuni studiosi questioni riguardanti l’etica dell’IA, a cui la filosofia e la teologia sono chiamate a trovare risposte. I software e le macchine dotati di intelligenza artificiale saranno in grado di discernere il bene dal male, diventando soggetti con una propria responsabilità? Oppure l’etica e la morale resteranno l’appannaggio dell’essere umano?


ENG

Algoretics: the new challenges toward an ethical AI

The technological process, and with it the broad scenarios opened up by artificial intelligence and the impact it is undoubtedly having on society, has caused some scholars to raise questions regarding the ethics of AI, to which philosophy and theology are being called upon to find answers. Will AI-powered software and machines be able to discern right from wrong, becoming subjects with their own responsibility? Or will ethics and morality remain the preserve of human beings?

Sommario: 1. Nell’era della rivoluzione tecnologica 2. Questioni etiche poste dall’intelligenza artificiale 3. Agli albori del problema etico dell’intelligenza artificiale; 4. La necessità di una IA etica; 5. Un primo passo verso l’algoretica: il Codice etico sull’Intelligenza Artificiale; 6. L’intervento delle religioni nella richiesta di un’algoretica; 7. Cos'è la «Rome Call for AI Ethics»?; 8. Conclusioni e possibili scenari futuri: una IA a imago hominis?.

1. Nell’era della rivoluzione tecnologica

La rivoluzione tecnologica e gli innumerevoli progressi fatti grazie all’utilizzo dell’Intelligenza Artificiale, stanno alterando l’idea di cosa vuol dire essere umano, tanto da avere già oltrepassato il concetto di antropocentrismo, che tuttavia permane ancora all’interno della società, tanto da generare  molti interrogativi relativi al quomodo la macchina  influisce sulla possibilità di comprendere l’altro, rimodella la struttura delle relazioni interpersonali, ma soprattutto al quantum l’individuo sociale si sia trasformato in dipendente della macchina.

Marshall McLuhan definì la tecnologia “un prolungamento naturale de sistema nervoso dell’essere umano”[1]; Donna Haraway ha descritto la società artificiale, con l’ausilio della figura mitica di Chtulu, come “l’era delle connessioni sempiterne, della comunicazione invisibile, delle strutture digitali tentacolari, considerando la struttura-mondo come un sistema olistico che ha bisogno della persona come parte di un ingranaggio molto più complesso e che non si ponga al suo centro, assieme ad una
pervasività tecnologica che possa sostenere l’essere umano nella tutela del
pianeta”[2];  Edward Tenner ha stabilito, nella sua storia antropologica della scienza, che tutte le  creazioni tecnologiche e artificiali sono in grado di plasmare e modellare la struttura dell’individuo sociale e delle sue istituzioni, raggiungendo il culmine radicandosi nel suo modo di leggere il presente e di immaginare il futuro[3]. Questi sono solo alcuni studi che dimostrano come il rapporto tra individuo e macchina sia un unicum, mettendo in risalto quanto sovrapposizione e fusione tra i due siano sempre più preminenti.

Nella società del futuro caratterizzata dalla costruzione di un alter-ego automatizzato, l’essere umano sarà tenuto, inevitabilmente, al confronto con le macchine intelligenti, ma anche, sulla base del digital divide, a confrontarsi con l’assenza delle stesse. Il risultato sarebbe, dunque, una simbiosi tra essere umano e androide intelligente, che però ha iniziato a suscitare interesse e dubbi, ma anche il bisogno di comprende, da parte dell’essere umano,   la sua specificità e la sua non centralità nel mondo. Come ha affermato Ishiguro[4], solo con l’aiuto di queste creazioni macchiniche l’uomo potrà comprendere, sulla base delle differenze tra umano-artificiale, il suo posto nel mondo.

La società, nella sua forma attuale, è l'ambiente in cui si manifesta il progresso umano e può essere studiato mediante la storia degli strumenti che hanno consentito all'uomo di vivere sul pianeta, di migliorare i propri mezzi di sussistenza e di adattare la propria vita ai propri bisogni. Questi elementi appartengono alla sfera dell'indefinito e dell'ambiguo fino alla produzione di dispositivi meccanici, strutture interattive, strutture morali in grado di delineare le proprietà percettive dei limiti e la loro trascendenza.

Secondo Anassimandro, Apeiron (  ἀπείρων )  era il principio da cui tutto ha origine ed era caratterizzato dall'infinità fisica e dall'indeterminatezza qualitativa, per cui il mondo, la realtà, lo stato esistenziale possono essere limitati ad un campo vago e quindi indeterminato di possibilità. La portata di questi concetti porta alla manifestazione di paure e inquietudine, che possono essere analizzate mediante l'archeologia della conoscenza e della competenza etica. La necessità di quest'ultima è dichiarata dal desiderio di comprendere le relazioni reciproche collettive , ma soprattutto con l'opportunità che offre di oltrepassare i limiti, che mira a comprendere l'esistenza tramite un'altra categoria.

L'etica nella sua accezione più ampia non mira a creare regole, ma alla malleabilità dei principi umani, ad esprimere la simmetria dell'esistenza, che non è assoluta, ma può essere “spezzata” dall'introduzione di nuovi campi di ricerca. I confini definiti, che tolgono fiato all'identità camaleontica dell'individuo e la costringono a cristallizzarsi, devono diventare, con l’utilizzo l'etica, passaggi, intersezioni, spazi osmotici tra esistenze nomadi: i confini non devono essere sacralizzati nella loro staticità e preservati , ma grazie ad essi la possibilità della conoscenza, dell'immaginazione e della trascendenza. In questo quadro, è possibile anche comprendere ed incentivare un’etica dell'intelligenza artificiale e per l'intelligenza artificiale.

2. Questioni etiche poste dall’intelligenza artificiale

In quello che Aldous Huxley definì mondo nuovo, ancor prima che la domanda di Turing «Che cosa accadrà se una macchina prenderà il posto di A nel gioco?»[5] fungesse da sottofondo nei laboratori fino a trovare “ospitalità” nella già predisposizione all’accoglienza dalla Rivoluzione Digitale, la questione dell’uso “etico” dell’intelligenza artificiale non è stata sollevata solo da gruppi di pensatori più conservatori, i cui legami religiosi e politici personali spesso indeboliscono un giudizio più obiettivo, ma anche da individui di spicco in ambito tecno-scientifico, come Elon Musk, che ha spesso espresso il suo timore per le possibili conseguenze della proliferazione di alcune delle creature più promettenti create dalla tecnologia odierna. Gli esempi includono le auto assassine a guida autonoma o l’intelligenza artificiale in grado di minacciare interi settori economici.

Ma non basterebbe che lo Stato regolasse le questioni etiche che l’intelligenza artificiale solleva solo dal punto di vista giuridico? Ad esempio, con interventi a  tutela della privacy o del diritto d'autore o ancora delle norme esistenti a tutela dei minori? L’intento sarebbe, dunque, quello di evitare di esprimere opinioni su questioni “etiche” che non sempre possono essere definite in modo preciso ed unanime. La risposta a quanto pensano autorevoli esperti[6] è da ricercarsi nella visione kantiana secondo cui è impossibile immaginare una realtà esterna indipendente dai valori etico-politici. Secondo questo presupposto, la democrazia si muove tra il principio di giustificazione e quello di legittimità:  uno Stato è “legittimo” se rispetta i diritti umani, sulla base del presupposto dell’uguaglianza politica e della moralità ed è “legittimata” in forme che possono essere diverse se i cittadini stessi sono d'accordo. Ecco perché è necessario che lo Stato risponda alle esigenze di uguaglianza politica e morale appena menzionate e tuteli le questioni legali ed anche etiche poste dall'intelligenza artificiale.

Quando si parla di questioni etiche legate all’intelligenza artificiale, prima facie sovvengono  le precedenti innovazioni scientifiche e tecnologiche, le quali hanno sollevato questioni simili. Si pensi, a tal proposito ai dibattiti che scatenò la scoperta dell'energia atomica a metà del secolo scorso.

L’intelligenza artificiale, in primis, ha come caratteristica il duplice uso sia in ambito civile che militare; poi la natura innovativa capace di cambiare gli equilibri politici globali (game changers); ed ancora le questioni etiche derivanti dal suo utilizzo, tutti elementi questi che hanno sottolineato la necessità di controllo mediante trattati e istituzioni internazionali.

Per parlare del c.d dual use, però,  occorre proseguire lento pede e analizzare prima le questioni, non solo strettamente giuridiche, ma soprattutto etiche poste dall’IA in ambito civile. La dottrina (si ricordano in Italia Amidei, Amoroso, Caravita, Celotto, Crisci, Floridi, Frosini, Losapio, Pollicino, Severino, Tamburrini) ha definito diversi diritti che hanno forti implicazioni etiche e possono essere messi a rischio:

  • diritto alla vita; 
  • giusto giudizio;
  • privacy, sicurezza e protezione dei dati; 
  • libertà di parola e di opinione; 
  • libertà di riunione e associazione;
  • diritto all'uguaglianza e alla non discriminazione;
  • diritto a elezioni libere e informate.

Tutti diritti, questi, che vengono deliberatamente limitati per il bene della "sicurezza nazionale": un termine spesso ambiguo che include misure di intensa repressione politica e sociale da parte di vari regimi che superano a malapena i  test di legalità, legittimità e necessità. Confini che talvolta è possibile considerare giustificati in termini di sicurezza nazionale, ma che diventano problematici quando giustificati da esigenze di ordine pubblico. Appare chiaro che varie sono le sfide che la tutela dei sopraindicati diritti pone nell’era dell’IA e le implicazioni etiche ad essi relative. Si pensi, a titolo esemplificativo, all’intrusione nella sfera privata di un individuo effettuata con strumenti di IA o alle questioni delle c.d. black boxes, che rendono poco chiare le loro conclusioni  raggiunte da sistemi di IA o, ancora, alla necessità di mantenere l’antropocentrismo nel rapporto con la macchina, volto a  poter identificare ed azionare la catena delle responsabilità. La sfida più importante è evitare i bias (pregiudizi e discriminazioni fondati su genere, razza, condizioni sociali ed economiche, età, religione, convinzioni politiche) alimentati dall’IA nei dati e nelle risposte da essa forniti.

La duplice natura dell’IA porta inevitabilmente alla necessità di affrontare le questioni relative agli usi militari e bellici dell’IA. Il tema non è certamente lo jus ad bellum, cioè il diritto di entrare in guerra per risolvere i conflitti tra Stati. Si tratta di una questione millenaria che l'esperienza storica, a parte le considerevoli convinzioni di Ireneo, ha dimostrato non può essere risolta nemmeno con secoli controversi di argomenti di "guerra giusta". E’ evidente , dunque, che si fa riferimento allo jus in bello, ossia alla questione se sia eticamente corretto utilizzare tutti i mezzi possibili per sconfiggere il nemico durante la guerra. 

Nel  1139 vi era il divieto imposto dal Concilio Lateranense II di usare la balestra nei conflitti tra principi cristiani (ma non nei conflitti tra infedeli), al tempo d’oggi il tema si è aggiornato, con un percorso che ha  visto nel corso dei secoli, ogni volta che la tecnologia ha fornito ai concorrenti armi nuove e più letali, il passaggio dalla polvere da sparo alle armi atomiche. 

Senza voler entrare nel merito di un argomento controverso, in questa discussione è sempre presente la stessa domanda: è possibile rinunciare alle armi, magari nuove, che assicurerebbero la vittoria se l'avversario fosse invece disposto a sfruttarle?

La domanda che, recentemente, si sono posti i Paesi, riguarda le armi nucleari, che per la prima volta, anche se con il pretesto della mutua distruzione, in questo caso ha portato alla conclusione dei suddetti accordi internazionali restrittivi e alla creazione di istituzioni che ancora possiedono armi nucleari. Con l’intelligenza artificiale, il suo utilizzo diffuso e la potenziale perdita del monopolio della forza letale da parte degli Stati, la situazione sta cambiando. Non solo perché lo scenario che si prospetta è quello di una risorsa difficilmente gestibile, seppur brevemente, per le ragioni sopra citate, ma soprattutto perché, per la prima volta nella storia, esistono armi micidiali che, grazie all’intelligenza artificiale, possono funzionare efficacemente indipendentemente dal controllo e dalla volontà umana: le cosiddette Lethal Authonomous Weapons (LAWs). Un esempio notevole di tali armi è l’ATR (Automated Target Recognition): droni che non possono essere controllati da una persona dopo il lancio e sono in grado di decidere autonomamente quale bersaglio colpire, senza possibilità di intervento nella fase decisionale ed esecutiva finale. Droni utilizzati dalla Turchia contro le forze del generale Haftar in Libia, e forse più recentemente in Ucraina e Israele.

Come accennato, l’utilizzo dell’intelligenza artificiale nei sistemi politici autoritari solleva problemi specifici: si tratta di controllare le opinioni e i comportamenti dei cittadini, anche con il riconoscimento facciale e la profilazione; restrizione di varie libertà, tra cui la libertà di espressione, la libertà di associazione e la libertà di riunione; creazione di informazioni false o fuorvianti (fake news); manipolazione dei diritti politici e delle procedure elettorali; utilizzare funzioni preventive per garantire un controllo sociale più efficace. Tutto ciò che abbiamo detto ora ci porta alla domanda iniziale. Come è possibile intervenire per porre limiti all'intelligenza artificiale per evitare le conseguenze negative sopra menzionate? È possibile avere un’intelligenza artificiale che risponda alle domande etiche che sono alla base delle domande che poniamo? E con quali mezzi e con quali reali possibilità applicative e gestionali?

Sono evidenti le questioni etiche che l’uso di tali strumenti pone: senza soffermarsi a fondo su di esse, è importante sottolineare che nel panorama attuale, da una parte, vi è un tentativo di deresponsabilizzazione umana per le conseguenze finali che l’uso di tali strumenti letali comporta; e dall’altra, per la prima volta nella storia, il mondo ha di fronte un “nemico” implacabile, privo di qualsiasi elemento di una sia pur ambigua umanità che,  anche nelle guerre più atroci, poteva limitare in qualche modo gli effetti più dolorosi delle decisioni prese e delle armi usate. Ci si trova dinanzi a ad una vera e propria denuncia morale.

3. Agli albori del problema etico dell’intelligenza artificiale

Già nel 1942, Isaac Asimov nel suo romanzo Io, Robot decise di prospettare le c.d “leggi della robotica”, che avrebbero dovuto avere il compito di disciplinare il comportamento di ipotetici e futuri robot dotati di IA. Si trattava di 3 leggi:

Un robot non può recare danno a un essere umano, né può permettere che, a causa del suo mancato intervento, un essere umano subisca un danno;

Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché non siano in contrasto con la prima legge;

Un robot deve proteggere la propria esistenza, purché questo non contrasti con la prima o con la seconda legge.

Tuttavia, si tratta di una finzione narrativa, ma è pur vero che in queste leggi è ravvisabile un timido ed iniziale tentativo di porre a fondamento dell’agire dei  robot dotati di intelligenza artificiale, non il solo e mero calcolo utilitaristico del miglior risultato, ma quella che kantianamente parlando, è la legge morale, un vero e proprio senso del dovere che è proprio dell’essere umano.

Asimov aveva in un certo senso precorso i tempi, infatti solo nel 1956, nella conferenza di Dartmouth, in New Hampshire, un gruppo di ricercatori informatici parlò per la prima volta di Intelligenza Artificiale. Ma cosa si intendeva per IA? Se nel XXI secolo non si può dire ancora di essere giunti ad una definizione univoca di IA, il concetto di IA nel XX secolo si basava sull'idea che le macchine potessero non solo eseguire calcoli, ma anche emulare aspetti dell'intelligenza umana, come l'apprendimento, il ragionamento e la percezione.

Dopo sviluppi sempre più permeanti, è possibile collocare l’intelligenza artificiale, in una nuova categoria, quella delle “macchine sapiens”, che come è ben noto nell’ultimo decennio hanno dato vita a numerose invenzioni, si pensi ai sistemi di riconoscimento facciali, agli assistenti vocali, agli elettrodomestici smart e alle automobili con guida autonoma.

Questa enorme utilità dell’IA pur essendo vista di buon grado, rende piuttosto scettici se si pensa a quelle che potrebbero essere le sue ulteriori potenzialità e sviluppi futuri.

Ciò che nella sostanza divide gli studiosi è il problema sempre più imminente di una intelligenza artificiale che eguagli e competa con l’essere umano.

Semmai ciò dovesse realizzarsi, l’IA prenderebbe decisioni autonome al pari di un qualsiasi individuo ed addirittura sarebbe in grado di imparare ad agire in modo virtuoso, sviluppando dunque una personalità morale tipica  dell’essere umano. Certo è che questa visione solleva non poche e semplici perplessità. Da un lato c’è chi, come l’informatico statunitense Raymond Kurzweil, crede che sia arrivato il momento in cui l’IA raggiungerà il livello umano e avverrà così il «culmine della fusione fra il nostro pensiero e la nostra esistenza biologica con la nostra tecnologia», ma dall’altro c’è chi sostiene e fonda il proprio pensiero sulla differenza morale fra l’agire umano e l’IA. Partendo dal presupposto che è nella natura dell’uomo commettere errori ed ipotizzando che una IA prenda decisioni autonome, basate sui dati, imperfette o imparziali rappresentazioni della realtà, è conseguenziale pensare che queste macchine non possano non fare delle scelte prive di errori. Tuttavia, se l’essere umano è consapevole dei propri stati interiori, riconoscendo il proprio agire come libero ( c.d. “libero arbitrio”) ed è capace di discernere il bene dal male ed inoltre è dotato di  autoconsapevolezza per giungere a un giudizio morale sul proprio agire e non semplicemente in base a un calcolo di vantaggi e benefici, come si potrebbe mai dare all’operato di una macchina intelligente, che ,sì, agisce esteriormente in modo conforme al dovere morale, ma non agisce in quanto intimamente convinto che obbedire alla legge morale sia giusto, una valutazione morale?

Senza ombra di dubbio, dato il crescente sviluppo di sistemi dotati di intelligenza artificiale, l’unica risposta utile è il bisogno di etica o, citando Paolo Benanti, algoretica. Tale urgente bisogno di far imparare il comportamento morale all’IA e dotarla di ragione etica, nasce dal fatto che tali sistemi di IA agiscono e sollevano anche molti problemi ( si pensi a quelli sollevati dai veicoli a guida autonoma) e risulta necessario dotare la macchina, pur mantenendo la differenza uomo-macchina, di una “capacità di agire”, così da regolamentarla.

4. La necessità di una IA etica 

La questio critica sul rapporto difficile tra IA e valori umani, se da un lato pone le fondamenta di una delle future aree dell’etica, un ambito in cui senza dubbio la morale potrà farla da padrone, dall’altro persegue la costruzione di un futuro in cui le nuove tecnologie possano essere messe a disposizione della società e del benessere comune, ed è soprattutto in vista di tale futuro, rappresentato da un’IA in grado di migliorare l’esistenza umana, che risulta ovvio parlare di un’etica dell’IA, quale etica per il futuro. Ma perché utilizzare un aggettivo, “futura”, indicante il tempo che verrà,  se l’odierna è una società in cui l’Intelligenza Artificiale è passata dall’ambiente in vitro all’ambiente in vivo[7]?

In primis va spiegato che il processo di diffusione dell’intelligenza artificiale è ancora nelle sue fasi iniziali, quindi il futuro resta inevitabilmente una dimensione di riferimento temporale, ma anche perché è un punto di riferimento per la riflessione, anche guardando. alle tecnologie attuali e alla loro esistenza. Riguarda ancora la natura delle tecnologie di domani e il rapporto con esse.
L'etica dell'intelligenza artificiale è l'etica del futuro, perché esamina tecnologie e situazioni che già appaiono, ma che promettono di svilupparsi pienamente solo in futuro; e perché, sul piano normativo, cerca di agire sulle tecnologie di domani, a partire da una critica alle tecnologie di oggi. Pertanto, non vi è dubbio che l’etica dell’intelligenza artificiale sia saldamente intrecciata con il futuro; ma a quale visione del futuro attenersi invece è controversa. In effetti, diverse interpretazioni del futuro dell’intelligenza artificiale portano a posizioni diverse sugli argomenti e sulle iniziative in discussione. A questo proposito si può dire che è in atto una futuromachia, una battaglia tra futuri che incoraggiano approcci di pensiero opposti. I principi etici menzionati accanto ai diritti fondamentali fanno riferimento ad un ordine centrato sull’uomo[8] come garanzia di un’intelligenza artificiale affidabile e quindi competitiva (Trustworthy AI); l’obiettivo sembra essere quello di garantire la conquista del mercato piuttosto che la sovranità umana. L'uomo, però, non è destinato a galleggiare al di sopra della storia[9], ma a prendersi cura del suo incommensurabile valore. È ingenuo per un avvocato tenere il passo con i progressi tecnologici pensando che la tirannia di un algoritmo su un essere umano sia altamente improbabile e certamente non imminente. Se così fosse, perché la Commissione Europea[10] dovrebbe mettere in guardia sulle possibili zone grigie, per non dire oscure, che appaiono quando gli algoritmi diventano così complessi da prendere decisioni indipendenti dal controllo umano? Perché dovrebbe essere necessario promuovere un ordine incentrato sull’uomo, se non per evitare un nuovo sistema che contenga macchine che potrebbero sfidare la supremazia dell’uomo? Un nuovo problema sociale si apre prima della nuova rivoluzione industriale.


In un recente articolo il filosofo di Oxford Nick Bostrom, importante ex membro del movimento transumanista e fondatore del prestigioso Institute for the Future of Humanity, mette in guardia molto chiaramente sui pericoli dell'imminente sviluppo della superintelligenza: If some day we build machine brains that surpass human brains in general intelligence, then this new superintelligence could become very powerful. And, as the fate of the gorillas now depends more on us humans than on the gorillas themselves, so the fate of our species would depend on the actions of the machine superintelligence[11]. La sua tesi principale affonda le sue radici nella tanto discussa struttura teleologica, la legge di Moore, ma è interessante osservare come le argomentazioni di Bostrom si sviluppino formalmente mediante numerosi esempi e giochi mentali, bilanciati da una linea sottile che separa l'entusiasmo speculativo per queste macchine intelligenti dall'ansia per il futuro sconosciuto in cui esse, ormai incontrollabili, riservano l'umanità proprio come per secoli con gli altri animali. Il pericolo, per Bostrom, non è tanto che queste creature di circuiti e silicio possano prima o poi sviluppare ostilità nei confronti dei loro creatori, ma la possibilità più impellente che l’essere umano sia una creatura completamente indifferente e innocua nei loro confronti. Un capitolo senza voce, proprio come per l’uomo l’idea di separare una mucca da un neonato destinato a morire prematuramente e diventare cibo per la specie umana. Eppure tali indicazioni sarebbero di notevole beneficio per l’animale umano; in altre parole, le minacce di abbandono completo a favore di “nuove specie” potrebbero essere evitate, se e quando si tenesse conto della “virtualità” filigranata di ogni attività attuale[12].

Il futuro non va più inteso come un domani imprevedibile e aperto, ma come “il risultato di azioni intraprese oggi, che possono in qualche modo determinare la direzione – e la forma – del diverso spazio temporale e culturale dei futuri possibili” [13]. Analogamente, nel 2018 sono state redatte le Linee guida etiche per l'intelligenza artificiale dell'Unione Europea, che è un approccio fortemente antropocentrico che pone l'uomo dell'umanesimo classico – razionale, morale, cauto – al vertice della dimensione strettamente ontologica ed etica. Mentre il mondo accademico, religioso e intellettuale sta cercando di capire se l’intera questione e le sue possibilità possano avvantaggiarli a lungo termine – e cosa consentire e cosa non consentire in questo sviluppo – al contrario, i grandi laboratori di tutto il mondo, ingegneri ben finanziati, informatici, genetisti, gruppi di biologi e scienziati cognitivi lavorano da tempo per realizzare queste visioni, compresi interessi politici ed economici i cui obiettivi sono sempre trasparenti o addirittura oltre, con regole miti. Non sorprende che la tentazione o l'indifferenza verso queste forme di “umanesimo” sia diffusa. Si può facilmente obiettare che compito della filosofia è soprattutto comprendere e mediante la comprensione orientare l'attività umana nella direzione più opportuna. La questione non è solo, ma soprattutto,  quale metodo e quale posizione assume il ricercatore in un paese di cui non ha idea. Mentre per Harari il rifiuto dell'“alieno artificiale” dovrebbe essere sostituito da un atteggiamento di confusione[14], molti ritengono che la curiosità sia l'unico modo di pensare adatto a un approccio scientifico (la posizione di Daniel Dennett è esemplare[15]).  Ragionare per ipotesi, perché ogni soluzione preventiva, anche frutto di una mente razionale e morale, risulta generalmente più vicina al genere della fantascienza che alla scienza stessa. Inoltre, tali scenari alimentano paranoie e pregiudizi che minano una fruttuosa contaminazione tra campi di ricerca e, ovviamente, scoraggiano il corretto posizionamento di tali strumenti – anche se sono indubbiamente benefici per il benessere – nel tessuto sociale , a volte traumaticamente risultati per la psiche degli utenti meno preparati e più sensibili[16].
Tuttavia, se l'etica prevede metodi superati e incapaci di stare al passo con l'attualità, e letture critiche guidate da virtù come profondità e prudenza, bisogna fare i conti con pratiche che li ignorano o (anche positivamente) trascendono le idee più sfrenate, qual è il ruolo e il posto della filosofia oggi? La risposta a questa domanda può e deve partire dalla posizione umana nell’epoca della diversità meccanica, che è sempre radicata nella diversità ontologica. 

L'uomo ha identità e differenze con tutte le altre creature; con le sue caratteristiche, limitazioni e poteri, rappresenta solo una delle tante strutture viventi del mondo - animate e inanimate. L'uomo è una struttura né superiore né inferiore rispetto alle altre identità, ma in costante rapporto con tutto ciò che è diverso da lui e la cui esistenza lo rende possibile e contribuisce alla sua definizione. 

Dal punto di vista della filosofia e delle altre scienze, si tratta quindi di una comprensione dell'apertura costitutiva dell'uomo all'altro, senza la quale l'umanità diventa un mistero che può essere spiegato solo da pochi atti di fede. Uno è un animale, uno è una macchina, uno è un santo. Gli animali, le macchine e Dio sono le dimensioni da cui è emersa l'antroposfera. 

Il corpo umano condivide quasi tutti i suoi geni con le altre specie di primati, vive da sempre in un rapporto complesso ed estremamente ricco con gli strumenti che produce ed è radicato in un regno di simboli che permea tutte le culture. 

Rispetto alla pretesa isolazionista della specie umana, occorre una “nuova ermeneutica dell’alterità”[17], che possa occuparsi simultaneamente e profondamente sia della dimensione animale che di quella artificiale, perché la natura umana non è solitaria e autosufficiente, meno che mai padrona del mondo[18]

Quindi, se il paradigma postumanista può certamente essere espresso come iperumanesimo antropocentrico, è molto più fruttuoso se si esprime come postumanesimo antropocentrico[19].

Ma la prospettiva in cui la teoria deve essere collocata: è fuori della persona. È sterile, infatti, porre barriere preconcette – siano esse religiose, etiche o teoriche – sugli eventi e sui processi che compongono la realtà. 

Eventi e processi che non sono apparsi dal nulla e dal vuoto del presente, ma si sono basati sul continuum che la cultura greca ha riconosciuto e posto tra ciò che chiamiamo uomo e tutti gli esseri viventi. Per i Greci, compreso Platone, l'uomo è Ζῷον come tutti gli altri esseri viventi. Come tutti gli altri, è un corpo vivente[20]. Pertanto, anche sul piano epistemologico è necessario collegare ciò che è ontologicamente unificato: il corpo-mente umano in continuità con la materia, la natura e tutti gli altri elementi del mondo.

In un articolo pubblicato da Giuseppe Vitiello[21], professore di fisica teorica, si è cercato di definire con precisione lo statuto ontologico dei sistemi autonomi di intelligenza artificiale come agenti morali artificiali, giustificando così l'esistenza di una nuova disciplina di MEM. 

Se, però, la natura dell’uomo è frutto di una ibridazione macchinica,  frutto dell’imperfezione, che non è un errore da attuare (Gehlen), ma un’opportunità da sperimentare, allora l'antropo- poiesi, la continua costruzione di sé da parte dell'uomo, è una delle premesse del progetto di ibridazione, dello scambio costante dell'uomo con gli esseri naturali e artificiali, della sua connessione tra animali, oggetti, protesi e simboli, una delle caratteristiche della specie fin dall'inizio. La pratica dell’ibridazione mette in crisi il paradigma antropocentrico, come tutti gli altri punti di vista che separano ingenuamente uomo e natura, pensando di poter preservare quest’ultima nella sua purezza originaria. È la contaminazione reciproca e costante che caratterizza i rapporti tra la specie che è l’uomo e l'alterità che costituisce l’uomo.

Nulla sarebbe possibile per l’essere umano senza questa natura poietica: una macchina è uno strumento, ma in realtà non è solo uno strumento. La macchina, infatti, costituisce anche una struttura metabolica che riceve e trasforma gli "input" materiali statici di ogni processo, guidato dall'intenzione. In questo senso la macchina è dedicata agli obiettivi, ha una propria finitura interna. È proprio questa complessità ed essenzialità della macchina con l'uomo che rende insufficiente una visione “solo” strumentale o antropocentrica della tecnologia, che sia anche la prova che l'uomo è un dispositivo che ha la sua origine nella natura,  dove si trova e dove si integra e vive e anche grazie all’ artificio sopravvive.

L’immagine kubrickiana dell’ osso utilizzato da una scimmia e poi gettato tra le stelle per realizzare un'astronave è forse la rappresentazione più chiara dell'"arcaismo" filogenetico e storico delle protesi e della loro relativa omogeneità del corpo, perché fin dalle origini la fisicità umana è un'unità inscindibile di natura, cultura e tecnologia.

Muovendo dalla sterile distanza tra sapere tecnico e sapere umanistico, alla luce di questa epoca tanto definita dalle conquiste della scienza tecnologica, la riflessione critica sulla relazione che intercorre tra tecnologie digitali e morale rappresenta il vicolo cieco dal quale occorre uscire.

5. Un primo passo verso l’algoretica: il Codice etico sull’Intelligenza Artificiale

Con l’intento di sollecitare una riflessione etico-umanistica sul progresso tecnologico mondiale[22], l’Unione europea ha assunto un approccio etico volto a far sì che i benefici dell’IA superino i suoi rischi[23]. È proprio muovendo da tale necessità, che nel 2019 la Commissione Europea ha previsto un Codice etico sull’AI, a supporto dello sviluppo e dell’impiego dell’intelligenza artificiale rispettando i principi dell’etica; il gruppo indipendente AI HLEG (High-Level Expert Group on Artificial Intelligence) individua nel documento 5 principi sui quali deve fondarsi l’operato delle macchine intelligenti:

fare del bene (beneficence);

non fare del male (non-malefiecience);

autonomia (autonomy);

giustizia (justice);

trasparenza (explicability).

L’obiettivo che ha mosso questo Codice non è considerare i robot intelligenti «avversari evolutivi dell’homo sapiens bensì strumenti (artefatti) che devono essere pensati come cooperativi alla persona» e garantire al tempo stesso che l’AI proceda nel suo lavoro rispettando al massimo l’etica. L’AI per avere una maggiore eticità deve basarsi sia sulle leggi che sui regolamenti in vigore all’interno dell’Unione Europea, ma per essere “affidabile”, “sicura”, “degna di fiducia” deve seguire i 3 principi presenti nel Codice:

Essere legale: rispettare leggi e regolamenti in vigore a livello nazionale, sovranazionale e internazionale;

Essere etica: compatibile con i principi e i valori umani;

Essere solida: sia dal punto di vista tecnico che sociale

Il Codice etico con le sue linee guida pone al centro insieme al concetto di dignità umana quello di autonomia dell’essere umano, pensando ad una IA che non danneggi mai gli esseri umani (una tutela della dignità, della sicurezza fisica, psicologica e finanziaria), ma che intervenga in loro aiuto per valorizzare l’autonomia e non ridurla.

Muovendo da tale assunto, 7 sono i punti da seguire:

Supervisione umana

No ad una intelligenza artificiale che possa “ridurre, limitare o fuorviare l’autonomia umana”; al centro vi deve esser sempre il controllo dell’uomo che supervisioni l’operato della macchina;

Solidità tecnica e sicurezza

Devono essere previsti solide protezioni dei sistemi di AI in modo che risultino affidabili; deve inoltre essere previsto un piano di emergenza, in caso di eventuali attacchi al sistema;

Privacy e governance dei dati

Relativamente ai dati di cui l’AI usufruisce, deve essere assicurato un ampio controllo e rispetto della privacy;

Trasparenza

I sistemi di AI e i loro dati, compresi gli algoritmi, devono essere documentati: solo così può essere permesso un controllo ex ante, ove si verifichino problemi circa le decisioni prese sulla base dell’AI;

Diversità, non discriminazione ed equità

L’IA deve tenere conto dell’ inclusione, della partecipazione e del rispetto della diversità poter permettere un equo utilizzo del sistema;

Benessere sociale e ambientale

Importante è che l’IA sia al servizio della società e dell’ambiente, per valutare l'impatto delle attività umane sull'ambiente e per agire in maniera preventiva;

Accountability

Per la costruzione di sistemi affidabili è necessaria l’ “accountability” dei sistemi di IA; ossia la raccolta di dati che dimostrino che le scelte adottate e le strade intraprese sono compliant con il panorama normativo ma soprattutto l’attribuzione di responsabilità ex ante.

Risulta evidente come il documento, redatto in osservanza della Carta Europea dei Diritti, si traduce in paletti ben precisi per i casi concreti ( si pensi, ad esempio, alla creazione di sistemi auto-coscienti capaci di provare sentimenti, i quali potranno avere solamente coadiuvare l’uomo nel prendere decisioni eticamente responsabili). Si dovrà pensare e progettare una IA che permetta sempre un intervento dell'uomo sia sulle decisioni prese automaticamente sia, se del caso, sull'algoritmo stesso, apportandovi modifiche.

Queste linee guida, punto di partenza (e di arrivo) di valori quali l'individuo, la dignità umana, il rispetto dell'uguaglianza e della democrazia, manifestano la volontà che l’IA debba avere l’uomo al centro e che non debba mai sostituirvisi.

La storia è maestra e come insegna, il superamento di queste regole è all'interno delle regole stesse e tutto ciò che mira a mantenere i robot al servizio dell'uomo, porta indubbiamente e paradossalmente alla ribellione nei confronti dell'uomo stesso.

L’obiettivo primario che ha mosso il Codice Etico sull’IA e che fa sorgere la domanda etica e antropologica (se le macchine intelligenti un giorno davvero disporranno di una coscienza simile a quella umana, saranno in grado di autodeterminarsi e di scegliere fra bene e male? ) è orientare i progressi dell’intelligenza artificiale (AI) al bene dell’umanità e della casa comune e cercare di rendere quanto più etico l’operato dell’IA in un mondo che non può fare a meno della stessa.

6. L’intervento delle religioni nella richiesta di un’algoretica

Fredric Brown nel famoso racconto, Sentry, scritto nel 1954, immaginava che lo scienziato alieno Dwan Reyn fosse finalmente riuscito a collegare “tutte le gigantesche calcolatrici elettroniche di tutti i pianeti abitati dell’universo […] a un’unica macchina cibernetica racchiudente tutto il sapere di tutte le galassie”. Dopo che il Supercomputer fu finalmente assemblato, Dwan, rivolgendo il suo sguardo verso la macchina, chiese: “esiste Dio?” Una voce, senza esitazione, rispose: “sì. Ora Dio esiste”. Terrorizzato dalla risposta, lo scienziato tentò di azionare la leva di spegnimento, ma “un fulmine sceso dal cielo senza nubi lo incenerì, e fuse la leva inchiodandola per sempre al suo posto”.

Sono passati settanta anni dalla voce poderosa che terrorizzò Fredric Brown, ma nulla meglio di questo romanzo può descrivere le paure più significative che accompagnano oggi lo sviluppo dei sistemi d’intelligenza artificiale.

Il libro “Anima digitale. La Chiesa ha messo alla prova l'intelligenza artificiale" (Tau Editrice, 2022), di Giovanni Tridente, comunicatore e docente di comunicazione alla Pontificia Università della Santa Croce, è utile per comprende come la religione guardi da sempre alla tecnologia con grande attenzione e interesse per un fair use della stessa. Un utilizzo che mira a promuovere i diritti umani, proteggere i diritti delle persone vulnerabili, costruire società giuste ed eque e promuovere la pace e la riconciliazione.

Se Umberto Eco[24] parlava di una dicotomia  tra “apocalittici e integrati” sulla divisione tra chi vede la cultura popolare come cattiva e chi la vede come buona, oggi bisogna scegliere se sostenere o meno una crescita tecnologica responsabile.

L’atavico e persistente timore del progresso tecnologico incontrollato, è evidente che attanaglia tutti, tanto che il tema del bilanciamento tra dimensione etica e dimensione giuridica, che calibrano le scelte in tema di innovazione tecnologica, non è risultato divisivo, anzi ha coinvolto anche il mondo delle religioni. Particolare rilevanza ha, infatti, assunto l’iniziativa della Pontificia Accademia per la Vita, tenutasi nel 2020, manifestazione che ha portato alla firma della Rome Call for AI Ethics, firma storica  che contribuisce ad arricchire le già numerose questioni etiche sull’IA.

Il 10 gennaio 2023 è stato compiuto un ulteriore passo in avanti sul piano culturale e religioso per la creazione della c.d. algoretica,  infatti il percorso avviato nel 2020 con la firma della Rome Call for A.I. Ethics ha visto la firma di tre rappresentanti delle tre religioni abramitiche. L’estensione a rappresentanti delle fedi musulmana ed ebraica rende ancor più universale l’obiettivo di garantire un approccio etico all’intelligenza artificiale ed evitare usi discriminatori dei sistemi di AI.

Un’altra illustre firma sulla Rome Call for Al Ethics è stata, nell’aprile del 2024, quella dell’arcivescovo di Canterbury, Justin Welby. Prendendo in prestito le parole di Padre Paolo Benanti, Professore di Etica delle tecnologie presso la Pontificia Università Gregoriana e direttore scientifico della Fondazione RenAIssance, « con questa nuova espansione della Rome Call possiamo guardare con rinnovata fiducia all’algoretica, ovvero al contributo positivo dell’approccio etico all’intelligenza artificiale. Non è mai un mero problema di innovazione. Si tratta piuttosto di trasformare quest’ultima in sviluppo umano. È altresì molto importante il fatto che il patrimonio di sapienza umana rappresentata dalle religioni parli all’intera umanità, valorizzando ciò che è condiviso per affrontare le sfide della contemporaneità».

7. Cosa è la «Rome Call for AI Ethics»?

La Rome Call for AI Ethics è un documento firmato il 28 febbraio 2020, a Roma , dalla Pontificia Accademia per la Vita, Microsoft, Ibm, Fao e dal ministero dell’Innovazione; non costituisce né una dichiarazione congiunta, né un accordo, né un trattato, ma, come ha sottolineato Monsignor Vincenzo Paglia è «un appello a riconoscere e poi ad assumere la responsabilità che proviene dal moltiplicarsi delle opzioni rese possibili dalle nuove tecnologie digitali».

Il documento si sviluppa secondo tre grandi direttrici: l’etica, l’educazione e il diritto. 

Relativamente all’aspetto etico, si sottolinea l’importanza di algoritmi che non operino in modo discriminatorio sulla base di caratteristiche personali, proprio perché  ciò mette in luce bias e discriminazioni che poi si consolidano grazie alla reiterazione di questi modelli. Inoltre si chiede di non utilizzare per scopi negativi e/o malevoli i sistemi di IA, soprattutto ove ci sia la presenza di gruppi sociali deboli. Importante poi è garantire un uso e uno sviluppo delle tecnologie di Intelligenza Artificiale socialmente orientati e che abbiano un impatto positivo sia individuale che collettivo. A tal fine poiché le generazioni future e la loro istruzione sono centrali nel processo di ricerca e sviluppo di tali tecnologie, occorre diffondere uniformemente le AI nelle diverse materie di studio.  Al tempo stesso è d’obbligo abbattere il “digital-divide” tra le varie fasce sociali per permettere l’accesso alle AI a tutti, anche ad anziani e disabili. Infine la direttrice del diritto individua i principali aspetti che dovrebbero essere tutelati.

Nel documento, oltre ad essere elencati i questi principi fondamentali, sono indicati i principi che enti pubblici e privati, dovrebbero far propri nel ricorso a modelli di intelligenza artificiale e su cui potrebbe basarsi una possibile algoretica:

  • TRASPARENZA:  è necessario innanzitutto che i sistemi di IA siano spiegabili;
  • INCLUSIONE: i sistemi di IA devono portare benefici a chiunque indistintamente;
  • RESPONSABILITÀ: la progettazione e l’implementazione dell'uso dell’IA devono basarsi sulla responsabilità e trasparenza;
  • IMPARZIALITÀ: non bisogna agire sulla base di pregiudizi, in modo da salvaguardare l'equità e la dignità umana;
  • AFFIDABILITÀ: i sistemi di intelligenza artificiale devono essere in grado di funzionare in modo affidabile;
  • SICUREZZA e PRIVACY:  alla base dell’utilizzo dei sistemi di IA deve il rispetto della privacy degli utenti.

Senza ombra di dubbio risulta chiaro che l’idea alla base della Rome Call for AI Ethics è promuovere l’algoretica, muovendo dall’assunto che, seppur i sistemi di intelligenza artificiale possano essere utili al raggiungimento di molteplici benefici, si deve pur sempre trattare di “sistemi cibernetici umano-centrici”[25], guardando ad un futuro progresso tecnologico che cammini a braccetto con l’uomo e la sua centralità. 

8. Conclusioni e possibili scenari futuri: una IA a imago hominis?

Nel lungo e tortuoso cammino verso l’algoretica, ma anche urgente dal momento che “robots are a new kind of entity, not quite alive and yet something more than machines[26], la Chiesa potrebbe avere un ruolo chiave, quantomeno nel delineare i principi etici che devono essere alla base dell’Intelligenza, ponendo l’accento sull’importanza della dignità umana, della giustizia sociale e del bene comune.

Non deve però trattarsi di un dialogo limitato alle religioni e agli esperti di intelligenza artificiale, ma per trovare la giusta strada da percorrere per giungere all'algoretica è necessario un dialogo multidimensionale che includa tutte le parti interessate ( cittadini, politici, informatici, giuristi), al fine di mettere sul tavolo rischi e problematiche ed individuare con chiarezza le possibili soluzioni.

In conclusione, in questa affannosa ricerca di un’algoretica, aveva ragione Albert Einsten con il suo aforisma “un giorno le macchine riusciranno a risolvere tutti i problemi, ma mai nessuna di esse potrà porne uno” oAbbiamo creato una macchina intelligente e consapevole e l’abbiamo gettata nel nostro mondo imperfetto” come scriveva Ian McEwan in Macchine come me?


Note e riferimenti bibliografici

[1] M. McLuhan, Gli strumenti del comunicare, Il Saggiatore, Milano. 2015

[2] J. D. Haraway, Staying with the Trouble. Making Kin in the Chtthulucene, Duke University Press, Durham,2016

[3] E. Tenner, Our Own Devices: The Past and Future of Body Technology, Vintage Books, New York City,2004

[4] H. Ishigur, Hiroshi Ishiguro: "Vi racconto il mio gemello androide", Repubblica, 21 novembre 2016, https://www.repubblica.it/tecnologia/2016/11/21/news/hiroshi_ishiguro_il_mio_gemello_androide-152498178/

[5] A.M. TURING, Macchine calcolatrici e intelligenza (1950), in: A.M. TURING, Intelligenza meccanica, a cura di G. LOLLI, traduzione di N. DAZZI, Bollati Boringhieri, Torino 1994, pp. 121-157, qui p. 122.

[6] Tra i vari si ricordano Benanti e Maffettone

[7] A.S. Rao, Una nueva etapa de la globalización, in Integración & Comercio, Ed. Planeta, Buenos Aires 2018, 1ª ed.,  51-52. 

[8] Nel mese di giugno del 2018 la Commissione Europea ha individuato un gruppo di 52 esperti, provenienti dal mondo accademico, dell’industria e della società civile, con l’obiettivo di supportare l’implementazione della strategia europea sull’intelligenza artificiale. Lo scorso 18 dicembre, con la European AI Alliance, è stata pubblicata la bozza conclusiva delle linee guida etiche “Progetto di orientamenti etici per un IA affidabile” (Draft Ethics Guidelines for Trustworthy AI) da utilizzare in Europa per la progettazione, lo sviluppo e l’uso di applicazioni di intelligenza artificiale. Tale bozza è stata aperta per un mese a commenti e suggerimenti volti al suo miglioramento, in modo da emettere la versione definitiva dopo la consultazione dei portatori di interessi tramite l’Alleanza europea per l’IA. Le linee guida etiche individuano cinque princípi di base che devono sorreggere lo sviluppo e la diffusione dell’intelligenza artificiale. Ai tradizionali quattro principi della bioetica, ovvero il fare del bene (beneficence), il non fare del male (non-malefiecience), l’autonomia (autonomy) e la giustizia (justice), se ne aggiunge uno specifico, quello della «esplicabilità» (explicability). Quest’ultimo è stato inserito poiché l’intelligenza artificiale agisce come agente esterno e quindi è necessario che essa operi in modo trasparente, sia nello spiegarne il funzionamento (principio di intellegibilità), sia nel chiarire chi è responsabile del suo funzionamento, il che include anche la comprensibilità del suo risultato. Il documento non si prefigge solo lo scopo di elencare i diritti fondamentali e i corrispondenti princípi e valori alla base di un approccio etico, come fa nel primo capitolo, ma quello di fornire linee guida per lo sviluppo e l’operatività delle applicazioni di intelligenza artificiale, tramite la definizione di un framework completo. Pertanto, al primo capitolo ne segue un secondo che, dopo aver individuato i dieci requisiti necessari per rendere applicativi i princípi etici di base, propone metodi sia tecnici sia non tecnici a supporto dello sviluppo e dell’implementazione di applicazioni di intelligenza artificiale affidabili. I dieci requisiti sono la responsabilità (accountability), la data governance, la progettazione inclusiva (design for all), aperta ad ogni categoria sociale, che include i requisiti di usabilità ed accessibilità, il governo dell’autonomia dell’intelligenza artificiale, la non discriminazione, il rispetto (ed il potenziamento) dell’autonomia umana, il rispetto della privacy, la robustezza, la sicurezza e la trasparenza. Il terzo capitolo, infine, propone una lista di controllo, in forma di un set di domande o di indicazioni per ciascuno dei dieci requisiti di cui sopra, a supporto della verifica di operatività delle applicazioni di intelligenza artificiale.

[9] P. Grossi, La odierna ‘incertezza’ del diritto, in Giust. civ., 2014, 4, p. 921 ss.

[10] Vedi il punto 10 della “Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica”, che afferma: «le possibilità di realizzazione personale che derivano dall’uso della robotica sono relativizzate da un insieme di tensioni o rischi e dovrebbero essere valutate in modo serio dal punto di vista della sicurezza delle persone e della loro salute, della libertà, la vita privata, l’integrità, la dignità, dell’autodeterminazione e la non discriminazione nonché della protezione dei dati personali».

[11] N. BOSTROM, Superintelligence. Paths, dangers and strategies, Oxford University Press, Oxford 2014, p. VII.

[12] Il concetto di virtualità va qui inteso così com’è proposto in R. MARCHESINI, Post-human. Verso nuovi modelli di esistenza, Bollati Boringhieri, Torino 2002

[13] I. CORAZZIARI, C. FACIONI, F. MAGGINO, R. PAURA, Costruire futuri oggi: una sfida etica, in: M. DI BERARDO (a cura di), Il futuro delle organizzazioni. Lavoro e creatività, report del III incontro dei Futuristi italiani, Roma 23-24 Maggio 2019, p. 16

[14] Y.N. HARARI, 21 Lessons for the 21st Century, Jonathan Cape, London 2018, p. 41 (trad. it. 21 Lezioni per il XXI secolo, traduzione di M. PIANI, Bompiani 2019, p. 40).

[15] D.C. DENNETT, From bacteria to Bach and back. The evolution of minds, W.W. Norton & Company, New York/London 2017, p. 14 (trad. it. Dai batteri a Bach. Come evolve la mente, traduzione di S. FREDIANI, Raffaello Cortina, Milano 2018, p. XIII).

[16] Si pensi al caso della blue whale, che ha colpito la generazione degli 11-15enni, o alla dipendenza dai social network, osservata nelle fasce di età più mature.

[17] R. MARCHESINI, Post-human. Verso nuovi modelli di esistenza, Bollati Boringhieri, Torino 2002.

[18] Una riflessione sistematica sullo statuto dell’animalità – compresa quella umana – si può trovare in A.G. BIUSO, Animalia, Villaggio Maori, Catania 2020.

[19] Sull’ibridazione umano/animalità/macchine si vedano R. MARCHESINI, Contro i diritti degli animali? Proposta per un antispecismo postumanista, Edizioni Sonda, Casale Monferrato 2014; R. MARCHESINI, Etologia filosofica. Alla ricerca della soggettività animale, Mimesis, Milano 2016.

[20] G. MORMINO, R. COLOMBO, B. PIAZZESI, Dalla predazione al dominio. La guerra contro gli animali, Edizioni Libreria Cortina, Milano 2017.

[21] G. Basti - G. Vitiello, Deep-learning opacity and the ethical accountability of AI systems, in R. Giovagnoli - R. Lowe (eds.), The Logic of Social Practices, vol. II, Springer, Berlin-New York 2024 (in stampa).

[22] Sul binomio uomo-robot vedi: I.R. NOURBAKHSH , Robot fra noi. Le creature intelligenti che stiamo per costruire, Torino, 2014, passim; R. CINGOLANI e G. METTA, Umani e umanoidi. Vivere con i robot, Bologna, 2015, passim; L. DE BIASE, Homo pluralis. Esseri umani nell’era tecnologica, Torino, 2015, passim; B. HENRY, Dal golem ai cyborgs. Trasmigrazioni nell’immaginario, Livorno, 2013, passim. Più di recente, L. PALAZZANI , Il potenziamento umano. Tecnoscienza, etica e diritto, Torino, 2015, passim. L’impiego di agenti robotici, proprio in rapporto al contesto prettamente umano, suscita preoccupazioni di matrice etica; la Roboetica, infatti, altro non sarebbe che l’etica applicata alla robotica. Interessanti riflessioni in tal senso, ex multis, da parte di P. LIN, K. ABNEY e G.A. BEKEY, Robot Ethics. The ethical and social implications of robotics, Cambridge, 2012; R. BOGUE , Robot ethics and law, in Industrial Robot, An International Journal, 2014; A. SHARKEY, Robots and human dignity: a consideration of the effects of robot care on the dignity of older people, in Ethics and Information Technology, 2014; G. TADDEI ELMI e F. ROMANO, Robotica: tra etica e diritto. Un seminario promosso dal Dipartimento Identità Culturale e dall’ITTIG del CNR, in Inform. e dir., 1-2/2010, pp. 145-152.

[23] Il documento, tuttavia, soffermandosi sugli algoritmi di profilazione con finalità di scoring, sui c.d. robot killer e sui software che consentono il riconoscimento facciale, sottopone ad una attenta revisione tale auspicio.

[24]U. Eco, Apocalittici e integrati: comunicazioni di massa e teorie della cultura di massa, Milano, Bompiani, 1964

[25] A. ALPINI, Sull’approccio umano-centrico all’intelligenza artificiale. Riflessioni a margine del “progetto europeo di orientamenti etici per una IA affidabile”, in Comparazione e Diritto Civile, aprile 2019.

[26] D.J. GUNKEL, Robot Rights, MIT Press, Cambridge-London, 2018.