RCD


Attendere prego, caricamento pagina...
Normatività giuridica e intelligenza artificiale. Princìpi, politica, gestione tecnologica
ISCRIVITI (leggi qui)
Pubbl. Gio, 10 Apr 2025
Sottoposto a PEER REVIEW

Normatività giuridica e intelligenza artificiale. Princìpi, politica, gestione tecnologica

Modifica pagina

Jacopo Volpi
Dottore di ricercaUniversità degli Studi di Parma



Il presente articolo esplora il rapporto tra normatività giuridica, intelligenza artificiale e dinamiche tecnologiche. Ci si sofferma, in primo luogo, sulla regolamentazione europea e sui princìpi giuridici che concernono la materia. In secondo luogo, si analizzano le sfide etico-politiche che l’impatto della tecnologia produce sulla democrazia e sui diritti fondamentali. Si affronta, poi, il problema della ‘fine’ del diritto secondo alcune recenti prospettive presenti nella filosofia giuridica contemporanea. Si conclude evidenziando l’intrinseco legame che sussiste fra le ultime frontiere dell’intelligenza artificiale e i processi di globalizzazione economica, esaminando le ripercussioni che tali fenomeni producono sulle relazioni fra ‘pubblico’ e ‘privato’.


ENG

Legal Normativity and Artificial Intelligence. Principles, Politics, Technological Management

This article explores the relationship between legal norms, artificial intelligence and technological dynamics. We focus, first, on European regulations and the legal principles concerning the matter. Secondly, we analyze the ethical and political challenges that the impact of technology produces on democracy and fundamental rights. We then address the problem of the ‘end’ of law according to some recent perspectives in contemporary legal philos-ophy. It concludes by underlining the intrinsic link that exists between the latest frontiers of artificial intelli-gence and the processes of economic globalization and examines the repercussions that these phenomena produce in the relations between ‘public’ and ‘private’.

Sommario: 1. Introduzione; 2. Regolare l’IA e la realtà digitale: princìpi giuridici e attuazione del diritto;  3. Produzione normativa e democrazia algoritmica; 4. Fine del diritto?; 5. Conclusioni. Economia e sfera digitale, fra pubblico e privato.

1. Introduzione

Il presente lavoro prende avvio da una sorta di 'paradosso', che sembra alimentare, dall’interno, i rapporti fra diritto e intelligenza artificiale. Da una parte, infatti, la dimensione giuridica si trova, ormai, soprattutto sul piano della disciplina sovranazionale, a séguito dell’entrata in vigore dell’AI Act[1], a stabilire dei criteri di tollerabilità e di ammissibilità negli sviluppi delle dinamiche informatiche[2], tecnologico-digitali e di intelligenza artificiale[3].

D’altra parte, però, queste stesse dinamiche, grazie alla loro struttura e alla loro teleologia intrinseca, minano alla base quel presupposto concettuale che legittima e offre senso alla sfera del ‘giuridico’: il momento normativo. In effetti, al di là di quale nozione o idea di giuridicità si decida di assumere, sembra difficile dubitare che il concetto di regola non sia messo virulentemente in crisi dalla tendenziale ‘evaporizzazione’ del normativo che i dispositivi algoritmici[4] sono in grado di produrre. In gioco, insomma, è la capacità delle regole di governare le condotte.

Come è possibile, allora, che le dinamiche tecnologico-digitali siano regolamentate e ‘domate’ da una realtà (come quella giuridica) che esse stesse, però, riescono a ‘ingabbiare’, minacciandone l’esistenza? Necessario è salvare la norma, e il suo senso[5], per salvare il diritto.

Solo in questo modo, ci sembra di poter sostenere, sarà possibile anche garantire tutele reali ai diritti fondamentali del cittadino, che risultano naturalmente minacciati dall’incremento e dall’espansione delle tecnologie più avanzate. 

D’altronde, i progressi digitali, lo sviluppo tecnologico, le frontiere ultime dell’intelligenza artificiale (aspiri quest’ultima a lambire lo human-level – sostituendo l’attività umana –, o, più semplicemente, il machine usefullnes – un grado di mero ausilio all’attività dell’essere umano) non paiono configurarsi come qualcosa di meramente transitorio, una moda passeggera destinata ad essere superata da nuovi bisogni ed esigenze, o da nuove ricerche o àmbiti di conoscenza: essi costituiscono, effettivamente, e risulta piuttosto arduo sostenere altrimenti, un fatto sociale totale, che ha (s)travolto, e sta (s)travolgendo, «tutti i settori dell’esistenza collettiva»[6]; un fenomeno, cioè, che «mette in moto, in certi casi, la totalità della società e delle sue istituzioni»[7], incidendo su ogni aspetto della vita pratica, in modo trasversale a qualsivoglia esperienza sociale: nei rapporti di potere e in quelli giuridici, nelle relazioni familiari e lavorative, nelle forme della conoscenza.

La sua trasversalità è stata certamente alimentata e sostenuta grazie all’intrinseco legame che lo sviluppo tecnologico-digitale presenta rispetto alla globalizzazione economica e alla visione ideologica della governamentalità neoliberale[8]. Al contempo, però, è proprio la strutturale conformazione di questi fenomeni che lascia emergere una capacità degli stessi di intervenire (o, quantomeno, provare potenzialmente ad intervenire) in ogni forma espressiva della realtà, umana e non umana. Tanto che, forse, la domanda che ormai sembra sorgere spontanea è che cosa, tale realtà, non possa più lambire e influenzare. 

2. Regolare l’IA e la realtà digitale: princìpi giuridici e attuazione del diritto

Il primo punto che è nostro interesse sottolineare si incentra sul fatto che, rispetto al passato, i progressi tecnologico-digitali e di IA hanno trovato una loro canalizzazione entro una disciplina sovranazionale, che costituirà, indubbiamente, un esempio su scala globale[9], grazie alla completezza con cui i fenomeni sono regolamentati e alla puntualità delle prescrizioni.

Ad ogni modo, è utile partire da una previa demarcazione normativa. Sono molte, infatti, le definizioni, che, fin dai primi sviluppi della cibernetica e dalle pioneristiche ricerche di Alan Turing[10], si è cercato di fornire circa la nozione di intelligenza artificiale[11]. Per i nostri fini, di natura filosofica e teorico-giuridica[12], tuttavia, è utile assumere come guida concettuale proprio la nozione di “sistema IA” che ci viene offerta dall’art. 3 del Regolamento UE 1689/24. Ai sensi dell’articolo in parola, rubricato Definizioni, si chiarisce che, per intelligenza artificiale (“sistema IA”), si deve intendere un «sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali»[13].

In quest’ottica, le modalità procedimentali dei sistemi di IA si fondano su due elementi salienti: in primo luogo, su una dimensione statico-correlazionale, che viene impiegata «per anticipare con valutazione prospettica l’accadimento di certe situazioni secondo l’id quod plerumque accidit»[14]; in secondo luogo, su una capacità di influenza prescrittiva: i sistemi di IA mirano, a livello di effetti, a «conformare o almeno orientare la condotta di collettività di soggetti»[15]. In ragione di questa prospettiva, dunque, la sfera dell’IA opera sulla base di un c.d. training set, che viene fornito dall’ingegnere dell’IA, sulla base del quale il meccanismo sviluppa i suoi “ragionamenti”, articolando future risposte e reazioni.

Come è noto, proprio tale componente di natura statistica ha segnato, da alcuni anni a questa parte, una tappa decisiva nell’àmbito della storia dell’intelligenza artificiale, avendo favorito il passaggio da una dimensione prettamente logico-deduttiva, ad una dimensione statistico-inferenziale e di apprendimento automatico[16], fondata altresì su processi di machine learning[17], in virtù dei quali il sistema riesce ad operare in modo ‘indipendente’, derivando dall’enorme mole di informazioni e di dati – da qui l’emergere del sempre più importante problema della profilazione e del rilevamento statistico dei cc.dd. big data[18] – decisioni autonome che, oltre a dare origine a profili eticamente e politicamente problematici (si pensi alla questione della c.d. black box[19]), non è immune da ingenerare la sensazione, per le persone ‘digiune’ di conoscenze tecniche specifiche, di trovarsi di fronte a realtà di natura quasi magico-sacrale[20], od ‘oracolare’[21]. In un certo senso, questa forte dimensione predittiva è figlia di una fiducia, forse un po’ illusoria, che rinviene la sua idea guida nella possibilità di determinare con certezza gli sviluppi futuri degli eventi.

Proprio in ragione delle sopracitate precarietà strutturali, il Regolamento europeo sull’IA ha sancito quattro livelli di rischio, in base ai quali poter valutare, differenziando le diverse ipotesi concrete, il grado di pericolosità a cui i sistemi di IA espongono la realtà sociale, nelle le sue dinamiche economiche e culturali, e il terreno giuridico-politico. Il primo livello valutativo è quello di riconosciuta inaccettabilità, e comprende tutti quei sistemi, che, in virtù del loro funzionamento, minacciano la sicurezza, i mezzi di sussistenza e i diritti delle persone: per tale motivo, il loro utilizzo è integralmente escluso.

Il secondo livello è qualificato ad alto rischio. In tali ipotesi, il ricorso ai sistemi di IA è consentito, purché nel rispetto di rigorose norme regolatrici[22]: fra questi casi, possiamo ricordare il settore delle infrastrutture critiche (trasporti), formazione scolastica o professionale, componenti di sicurezza dei prodotti, occupazione e gestione dei lavoratori, servizi pubblici, privati ed essenziali, attività di contrasto che possono incidere sui diritti fondamentali, gestione della migrazione e del controllo delle frontiere e – aspetto per noi di estremo interesse – l’amministrazione della giustizia e processi democratici. Il terzo livello concerne i sistemi di IA il cui utilizzo è configurato a rischio limitato: è la circostanza, ad esempio, in cui si fa appello ai Chatbot per l’esercizio di attività quotidiane, o in cui si fa ricorso a software IA per dare vita a testi artificiali destinati ad essere letti dal pubblico (in tale evenienza, è obbligatorio inserire l’avvertenza che tale testo è stato generato in via artificiale mediante tali strumenti).

L’ultimo livello è qualificato in termini di rischio nullo o minimo, ed è il caso del ricorso ad applicazioni, per fare soltanto un esempio, come quelle che offrono un servizio di filtraggio ‘antispam’ nelle caselle e-mail.

Come è agevole notare, l’amministrazione della giustizia[23] entra a far a parte di questa regolamentazione generale come un àmbito caratterizzato da ‘alto rischio’, e quindi meritevole di peculiare trattamento normativo, che ne limiti e definisca gli spazi di operatività (l’altro punto riguarda, invece, i ‘processi democratici’, e lo vedremo nel prossimo paragrafo). In quest’ottica – in merito ai margini di tutela su cui l’individuo può fare affidamento laddove si trovi ad essere destinatario di una decisione giuridica munita di un grado, minimo, di ultimatività –, è opportuno richiamare, seguendo autorevole dottrina, tre princìpi giuridici, basilari, che esibiscono una peculiare pregnanza (anche costituzionale) e la cui validità è da ritenersi necessaria per un sufficiente grado di tutela sotto il profilo dei diritti fondamentali.

Il primo principio che assume valore centrale è quello di conoscibilità[24]. Questo implica che «ognuno ha diritto a conoscere l’esistenza di processi decisionali automatizzati che lo riguardino ed in […] [tal] caso a ricevere informazioni significative sulla logica utilizzata»[25]. Tale diritto è configurato, in termini generali, come ‘assoluto’, e sancisce una «pretesa, giuridicamente riconosciuta e tutelata, alla conoscenza dell’esistenza di decisioni che ci riguardino prese da algoritmi e, correlativamente, come dovere da parte di chi tratta i dati in maniera automatizzata, di porre l’interessato a conoscenza»[26]. Tale principio giuridico riguarda sia i privati che la pubblica amministrazione (in tale ultimo caso si delinea come un’ulteriore articolazione dell’art. 42 della Carta di Nizza). Peraltro, la semplice possibilità della conoscenza di un algoritmo non produce, ipso facto, effetti concreti sul piano delle tutele soggettive, se, appunto, la logica dell’algoritmo non può essere effettivamente decifrata. Per tali ragioni, il principio di conoscibilità si completa con il principio di comprensibilità[27]

Il secondo principio giuridico essenziale, e di rango europeo, in materia di decisioni basate sull’IA, è quello di non esclusività[28]. In tali ipotesi, laddove una decisione automatizzata produca esiti normativamente rilevanti in capo alla sfera giuridica del soggetto, quest’ultimo ha diritto a che la decisione eventualmente assunta non sia unicamente basata «su tale processo automatizzato»[29], ma che sia supportata da un «contributo umano capace di controllare, validare ovvero smentire la decisione automatica»[30]. Tale principio, se può apparire contraddistinto, quantomeno in linea ipotetica, da una condivisibile ragionevolezza, è forse quello che, all’atto pratico, genera maggiori criticità, nel momento in cui dalla dimensione teorica si scenda a quella più schiettamente applicativa.

In che termini è infatti possibile articolare forme di cooperazione fra uomo e macchine, senza per questo cadere nel rischio di una fagocitazione, graduale, della decisione algoritmica ai danni della decisione umana? Un caso, celebre, che ha fatto emergere, in modo decisivo, questa dinamica interazionale è Loomis v. Wisconsin (2016), circa l’utilizzo del software Compas[31] in merito alle ipotesi di recidiva: la questione risiedeva proprio nel fatto di comprendere se l’algoritmo consultato dal giudice avesse rappresentato, o meno, l’«unico motivo della decisione»[32] o solo uno dei motivi, assieme ad altri. In rapporto a questo elemento della collaborative intelligence, si è parlato di una sorta di forza pratica dell’algoritmo: l’idea è quella per cui le pratiche decisionali umane che si trovano ad operare con processi algoritmici di natura tecnologica, tenderanno, progressivamente, ad essere “catturate” dal sistema algoritmico stesso, segnatamente per ragioni di convenienza pratica[33]: l’attrattiva di una deresponsabilizzazione in capo al decisore umano è talora troppo forte per non essere abbracciata, ed il rischio è, quindi, che la dimensione etico-normativa non sia in grado di svolgere una funzione limitante per preservare il naturale spazio decisionale (discrezionale, eppure imprescindibile, nei limiti costituzionali) dell’operatore giuridico. Da una parte, vi sarebbe la necessità di assumere l’impegno, spesso drammatico[34], della responsabilità giuridica e morale della decisione, che si associa alla possibilità dell’errore. Dall’altra, l’orizzonte di un processo decisionale, quello algoritmico, libero «dal peso dell’esame e della motivazione» e munito di un crisma di (apparente o reale) «“scientificità” ovvero “neutralità”»[35]. La scelta fra una delle due opzioni rischia di contrassegnarsi come un dilemma ricco di conseguenze pratiche, anche di natura esistenziale.

Un ultimo principio che entra in gioco è, infine, quello che si potrebbe definire come principio di non discriminazione algoritmica[36]. Ebbene, in questo caso, anche ammettendo che l’algoritmo si riveli conoscibile e comprensibile, e che non rappresenti il fondamento esclusivo della decisione, è possibile che la pronuncia, o il provvedimento, basati sull’algoritmo, si rivelino egualmente discriminatori (e, dunque, incostituzionali, e/o contrari ai valori e princìpi dell’Unione europea[37]). Il problema principale è qui riconducibile alla tipologia di input che il sistema riceve, e che può risultare ‘viziato’ ab origine. La vexata quaestio, si potrebbe dire, non concerne tanto gli errori che possono presentarsi durante il processo decisionale, ma, piuttosto, le premesse da cui il processo decisionale prende avvio. L’andamento logico-consequenziale del sistema può anche rivelarsi inappuntabile, epperò può affiorare una discrezionalità, se non arbitrarietà, alla radice dei dati statistici delineati da principio e ‘immessi’ all’interno del procedimento algoritmico. Emblematico, in tal senso, il case-study svolto negli Stati Uniti, in Florida, dove un gruppo di esperti, scegliendo un campione di 10.00 imputati, si è affidato, interamente, in merito alla valutazione circa le potenzialità di recidiva, al già citato software Compas: l’analisi successiva effettuata da ProPublica[38] ha dimostrato come il sistema sovrastimasse «il rischio per gli imputati neri ed altrettanto sistematicamente [sottostimasse] il rischio per i bianchi»[39]. Il problema aggiuntivo che si impone, quindi, riguarda le modalità delle scelte, inevitabilmente etico-politiche, in merito ai dati che dovranno essere forniti al sistema, e al modo con cui tali dati vengono orientati. Il tal senso, dunque, non è disutile gettare uno sguardo alla dimensione ‘politica’.

3. Produzione normativa e democrazia algoritmica

Ciò che difatti emerge da quanto abbiamo visto, in ordine ai tentativi di intervento regolativo nel terreno dei meccanismi operativi dell’IA, ci ha consentito di tratteggiare alcuni princìpi normativi, idonei per orientare una possibile disciplina di controllo con riguardo ai dispositivi ‘artificialmente intelligenti’, soprattutto in relazione all’àmbito della sfera decisionale ultima: quella, cioè, che si situa al termine del processo normativo e che incide sulle situazioni giuridiche dei singoli consociati[40]. In questa chiave, abbiamo dipanato, seguendo autorevole dottrina, quelli che sembrano i tre princìpi forse più importanti, che consentono, sul piano regolativo, di articolare un possibile discorso teorico, criticamente orientato. Si è però da ultimo notato come uno dei problemi cardine non risieda tanto, e soltanto, nel monitoraggio del processo di decisione algoritmica, quanto, piuttosto, nella questione concernente la discrezionalità nella scelta dei dati di partenza. Sotto questa angolatura, perciò, affiora la dimensione politica come terreno tipico in cui tale discrezionalità trova la sua estrinsecazione più primigenia.

La definizione che abbiamo visto nel paragrafo precedente, infatti, fa rientrare nei meccanismi, degni di peculiare attenzione perché implicanti un ‘alto rischio’, anche i ‘processi democratici’. Ora, il tema tocca àmbiti delicati, che concernono, specificamente, il più ampio legame fra intelligenza artificiale e politica[41], o quello, più particolare, relativo all’educazione digitale dei cittadini, e meriterebbero, quindi, un approfondimento mirato. Su questo fronte, si pensi al dibattito sulla c.d. ‘IA generativa’, e a quanto il ricorso a tali strumenti possa mutare negli effetti (essi sono dual-use, appunto)[42] laddove il loro utilizzo sia incanalato entro regimi democratici, oppure entro regimi autocratici e autoritari; o si pensi, ancora, alla questione della concentrazione globale della ricchezza, e al problema degli interessi economici che ruotano attorno al contesto delle cc.dd. Big Tech[43], e al fatto che tutta la fase di «progettazione, […] realizzazione, […] diffusione e […] utilizzo dei dispositivi di IA sono nelle mani di un ristretto numero di aziende»[44], e, perciò, solo queste sono in grado di conoscere il funzionamento interno delle loro ‘creazioni’ e di garantire anche gli adeguati mezzi di supervisione e controllo.

Ai nostri fini, tuttavia, è utile semplicemente evidenziare come la dimensione dell’intelligenza artificiale e dei suoi principali strumenti applicativi non trovano peculiare collocazione soltanto dal punto di vista giurisdizionale ed esecutivo-attuativo, ma, altresì, a livello legislativo (e, dunque, pur anco sul fronte della discrezionalità iniziale di matrice deliberativa). Qui, anche per ragioni di spazio argomentativo, riconduciamo, kelsenianamente[45], l’àmbito esecutivo ed attuativo proprio della funzione amministrativa all’interno dell’attività rivolta alla applicazione delle norme, sia perché i princìpi esposti nel paragrafo 2 (principio di conoscibilità, principio di non esclusività, principio di non discriminazione) assumono rilievo anche qualora il soggetto debba confrontarsi non solo con una decisione giurisdizionale, ma, altresì, con un provvedimento amministrativo, e sia perché ciò che in questa sezione è nostro desiderio approfondire è il ricorso all’IA e ai suoi paradigmi per cercare di fornire un ausilio alla fase di produzione delle norme (sfera di pertinenza tipicamente ‘politica’), e, nello specifico, l’applicazione dell’IA al campo della produzione legislativa a carattere democratico (si lascia sullo sfondo, quantunque molto rilevante, l’utilizzo dell’IA nel contesto di regimi di impronta autocratica, fondati su una strutturale ‘eteronomia’, rispetto alla ‘autonomia’ dei regimi democratici[46]).

È il tema, complesso, della democrazia algoritmica, frutto maturo (o evoluzione naturale?) della c.d. democrazia digitale[47]. Con ‘democrazia algoritmica’ ci si riferisce a quella «serie di trasformazioni» che hanno coinvolto la democrazia rappresentativa, a séguito e in forza «dell’utilizzo di applicazioni dell’intelligenza artificiale […] di varia natura nell’esercizio dell’attività politica»[48]. Dal momento che l’organo principale, deputato alla produzione normativa, negli ordinari regimi democratici, è il parlamento, è facile ipotizzare come l’IA possa fungere, per l’assemblea, sia da strumento d’ausilio nella redazione del testo legislativo, sia come strumento d’integrazione del testo normativo stesso[49]. Ma l’IA può altresì facilitare e favorire la canalizzazione di proposte da parte del pubblico, oppure, e ciò forse rappresenta lo scenario al contempo più ‘inquietante’ e problematico, farsi essa stessa “promotrice” di veri e propri (ed autonomi) progetti di legge[50]. Insomma, l’IA non sembra soltanto capace di coinvolgere, tipicamente, l’attività giudiziario-applicativa, ma il ‘mito’ della delega alle macchine[51] pare intaccare anche la fase legislativa come momento centrale della vita democratica e come parte nevralgica per la creazione politica di regole collettive[52].

I vari gradi appena delineati[53], che passano da mere modalità di ausilio ‘tecnico’ alla redazione del testo legislativo e che, attraverso stadi intermedi, arrivano a ipotizzare forme di autonomia in capo ai meccanismi di IA generativa, pongono dilemmi evidentemente diversificati. L’idea, in effetti, di un assistente IA è forse lo scenario meno critico[54], e configura la possibilità di un ricorso ad «algoritmi, da parte di apposite strutture parlamentari, per l’elaborazione dei dati da offrire all’iniziativa legislativa dei parlamentari e all’istruttoria nel procedimento di formazione della legge, e perfino per redigere alcune parti dei testi di legge»[55]. L’incidenza dell’attività dell’essere umano è qui chiaramente preminente, e i meccanismi di IA svolgono, quindi, solo un ruolo di natura sussidiaria.

Un’altra ipotesi è quella in cui ai dispositivi di intelligenza artificiale venga demandata un’attività più propriamente ‘di dettaglio’: in tale evenienza, «l’IA […] agisce in virtù di un potere normativo delegato, sostituendosi al potere […] di ministeri e autorità indipendenti a cui spesso si fa ricorso nella definizione di prescrizioni di dettaglio»[56]. Rispetto alla situazione descritta in precedenza, i margini di partecipazione dell’essere umano sono qui più limitati, ma tuttavia sempre presenti. In tale contesto, cioè, si preannunzia uno scenario in cui vi è «ancora una certa supervisione della decisione da parte degli esseri umani (i membri del parlamento), ma la macchina è in grado di agire per prima»[57]. I rischi che tale ipotesi porta con sé fanno emergere profili critici specialmente con riguardo alla ipotetica preclusione, in capo al cittadino che si vede investito del provvedimento attuativo della legge-delega, di un ricorso di fronte al giudice amministrativo: elemento di rischio che si combina con aspetti ulteriori, come la carenza della motivazione, l’opacità dell’algoritmo, le eventuali discriminazioni, le difficoltà di contestazione, e via dicendo[58]

Un altro fenomeno presentato in letteratura, ma che, invero, si pone, in qualche modo, a latere delle ipotesi prospettate in precedenza, è quello del crowdsourcing legislativo[59]: la convinzione, in altre parole, che sia possibile costituire delle consultazioni aperte, in specifiche piattaforme online, attraverso le quali «i cittadini possono esprimere […] la propria opinione su ipotesi di interventi legislativi, che vengono poi sintetizzate da sistemi informatici che restituiscono l’orientamento finale che risulta dalla sommatoria dei contributi individualmente dati»[60]. In un certo senso, tale meccanismo incarna quella visione generale che ha alimentato l’idea che sta alla base delle esperienze di democrazia digitale, le quali, però, si sono scontrate con fallimenti più o meno corposi[61]

Infine, il caso estremo – in gergo: out of the loop (ovvero strutturalmente escludente ogni margine di intervento in capo ai soggetti umani) – è quello in cui l’attività legislativa va incontro ad una integrale riconduzione entro paradigmi (a tutt’oggi piuttosto ‘distopici’) di matrice virtuale. Gli orizzonti preconizzabili, anche qui, si articolano in ipotesi più o meno radicali. Lo scenario meno drastico sarebbe quello della creazione di una ‘democrazia dell’avatar’, in sostituzione della ‘antiquata’ democrazia diretta: una forma di democrazia aumentata, in cui «ogni cittadino possiede un software che gli suggerisce le scelte politiche da compiere»[62]. La traiettoria più estrema, invece, si sostanzierebbe nella possibilità di «sostituire i politici in carne e ossa con algoritmi di intelligenza artificiale»[63]

Queste ultime ipotesi, coltivano, nota correttamente Lucia Corso[64], una serie di illusioni: la realizzazione di una integrale e totale data democracy, in cui ad assumere rilievo per la decisione legislativa è la registrazione, costante e perpetua, di dati statistici, desunti da una presunta volontà popolare e quindi estratti per essere implementati, senza filtri particolari, nella normativa di legge; la completa messa in forma di una tecnocrazia pura, in cui gli apparati decisori siano solo il frutto di processi algoritmici di origine statistica, e distanti da interessi che, interferendo, possano turbare il procedimento decisionale; il superamento, con conseguente conciliazione, fra partecipazione democratica e competenze tecnocratiche.

Ma la prospettiva di un parlamento virtuale, la visione per cui la sfera istituzionale e le procedure giuridico-politiche possano essere sostituite da dispositivi tecnologico-digitali sostenuti dai nuovi meccanismi di intelligenza artificiale, nasconde un dilemma addizionale, che si pone, in realtà, alle radici della questione, generando il paradosso a cui nel paragrafo introduttivo si faceva esplicito riferimento. 

4. Fine del diritto?

L’ultimo problema accennato, infatti, quello della possibilità di un parlamento ‘informatico’, integralmente digitalizzato attraverso il ricorso a figure virtuali che svolgono, sostituendola del tutto, l’attività politica dei cittadini democratici e dei loro rappresentanti, ci offre il fianco per una considerazione ulteriore, la quale schiude uno scenario che, se appare certamente il maggiormente distopico, nondimeno riesce a proiettare delle suggestioni che sembrano in parte già iscritte nel paradigma della tecnica e nei suoi elementi fondativi[65]: ci riferiamo all’idea, cioè, che tali dispositivi di intelligenza artificiale, in congiunzione con gli sviluppi tecnologico-digitali, non solo informino metodiche e modalità d’ausilio per l’attività pratica e, nel caso di specie, normativa, degli individui e delle istituzioni, ma che, altresì, si approprino, interamente, di quegli spazi, comportandone una completa sostituzione.

A questo punto, la tematica diviene di carattere necessariamente più generale, e impone una riflessione urgente e, a nostro avviso, indifferibile: possono i meccanismi di IA, grazie alle capacità gradualmente acquisite nel corso degli anni (e decenni), decretare la fine[66] (o la ‘morte’) del diritto? È la domanda che si sono posti vari teorici del diritto britannici, fra i quali, negli ultimi anni – sulla scorta delle osservazioni, più risalenti, di Lawrence Lessig[67] –, Roger Brownsword[68] e William Lucy[69].

I riferimenti sopra riportati, relativi ad un transito verso una giustizia aumentata(dalle potenzialità tecnologiche), o verso una progressiva facilitazione e implementazione delle procedure di produzione legislativa, grazie all’assistenza di ‘ordigni’ digitali che liberano l’essere umano dal problema della decisione (giurisdizionale e amministrativa) e della deliberazione (politica), non sono che un probante indizio delle difficoltà a cui, dinanzi agli sviluppi tecno-pratici e algoritmico-digitali, il paradigma tradizionale del ‘giuridico’ fondato sulla centralità della norma e sulla assunzione di un punto di vista interno di matrice hartiana va incontro[70]. Ancor prima di pensare ad un ausilio da parte dell’IA nei confronti dei tre poteri tradizionali – legislazione, amministrazione, giurisdizione –, che aprirebbe, in fondo, scorci plausibili a livello organizzativo (e che, quantunque forieri di potenziali nodi critici, non escluderebbero modalità, plausibili, di conciliazione e risoluzione, come abbiamo visto brevemente nelle pagine precedenti), viene da domandarsi se la questione non sia, in fondo, più profonda, e non riposi, propriamente, in una sorta di genetico vizio ontologico di cui l’informatizzazione e digitalizzazione del mondo sembrerebbe ‘affetta’.

Forme di assistenza, per tramite dell’IA, nel campo della redazione dei testi legislativi, così come procedure algoritmiche – monitorate dall’essere umano – dirette ad assistere il giudice e l’operatore giuridico, o, più in generale, il giurista, teorico e pratico, esistono già[71]. Ma la questione è, in un certo senso, prospettica. Proprio in quanto fatto sociale totale, proprio in quanto manifestazione fenomenica ubiquitaria, la gestione tecnologica[72] (così la denominano Brownsword e Lucy) non rischia di condurre alla estinzione, tout court, della dimensione giuridica, e non già ad una sua semplice implementazione tecnica mediante strumenti di supporto? Ecco qui che il parlamento virtuale, a cui abbiamo fatto cenno nel paragrafo 3, diviene emblematicamente rappresentativo di un rischio più grave, che fa affiorare un sentore diffuso: lo sviluppo tecnologico-digitale sembra inarrestabile, e, laddove si decidesse di lasciargli spazio, assorbirebbe, potenzialmente, ogni settore dell’attività umana[73]

Secondo Roger Brownsword, il dominio del diritto è destinato, in virtù di queste evoluzioni tecnologiche, a cadere[74]. In termini generali, la norma (e la sua centralità) saranno soppiantate da un nuovo paradigma, che egli denomina “regulatory environment”, il quale sarà contrassegnato da meccanismi correttivi che intervengono nel momento in cui il contesto esterno fornisce indicazioni e segnali fondamentali (cruciale, qui, evidentemente, è il passaggio verso gli sviluppi di machine learning IA ambientale, e verso la capacità degli apparati di IA di ‘intercettare’ i segnali esterni, a guisa di input, per fornire poi soluzioni e risposte in sede di output): «abitazioni dove la temperatura è regolata automaticamente, alberghi dove i piani più alti sono raggiungibili soltanto attraverso ascensori, […] aeroporti» muniti di «dispositivi di identificazione e sicurezza piazzati sui tornelli di controllo»[75], sono esempi, già ad oggi pienamente pensabili e replicabili, di ‘ambiente regolativo’. Esso si strutturerà, quindi, come «una sfera d’azione regolamentata che includerà, almeno in una prima fase del processo evolutivo, strumenti normativi insieme a meccanismi non-normativi»[76], per poi, in un secondo momento, soppiantare questi ultimi per affidare la regolazione delle condotte alle procedure algoritmiche e alle attività dei codici informatici, mediante impianti tecnologici. Al fondo di questo processo risiede lo ‘scopo’, implicito, di rimuovere ogni margine di conflitto o dilemma pratico e il problema della scelta delle condotte da adottare, per indirizzarsi verso una integrale obliterazione della responsabilità.

Dal momento che la norma (anche giuridica) necessita di uno spazio entro cui il soggetto possa manifestare la propria ottemperanza o inottemperanza, obbedienza o disobbedienza, se i presupposti per la inottemperanza e la disobbedienza, per l’opportunità della violazione, vengono superati, e se il diritto trova nella sfera della normatività il proprio carattere precipuo, allora anche la dimensione giuridica sembra destinata ad essere oltrepassata.

Ad avviso di Lucy[77], infatti, che segue in buona parte le posizioni di Brownsword, il diritto europeo-occidentale è fondato sulla nozione di ‘giudizio astratto’ (law’s abstract judgment)[78], che egli identifica nella tendenza a «ignorare molto circa i propri soggetti, trattandoli, al contempo, in modo indifferente, come se fossero identici»[79]. Segnatamente, il c.d. ‘giudizio astratto del diritto’ è contrassegnato dalla sussistenza di tre componenti essenziali e di un presupposto generale. La prima componente è la identità presuntiva, la quale implica che il diritto moderno «non considera i propri soggetti in tutte le particolarità, ma come identiche entità astratte»[80]. La seconda è quella della uniformità, la quale impone, nel complesso, che il diritto miri a qualificare «i suoi soggetti riferendosi», precipuamente, «a norme generali e oggettive, egualmente applicabili a tutti»[81].

La terza componente è quella che Lucy denomina limitata evitabilità, che si fonda sull’idea per cui «negli ordinamenti giuridici moderni l’uniforme applicazione delle regole sia generalmente mitigata solo da un numero tassativo e da una varietà limitata di scriminanti»[82]

Alla base di queste tre componenti riposa, come accennato, un presupposto generale, il quale consiste in una determinata configurazione della soggettività giuridica[83]. In cosa si compendia tale visione della soggettività? In primo luogo, essa si sostanzia nella concezione per cui, affinché il modello, fondato su tali tre componenti, possa funzionare, occorre che i destinatari delle norme giuridiche possiedano la «capacità di comprendere le norme generali e oggettive in base alle quali il diritto cerca di governarli»[84]; in secondo luogo, essa esige che i cittadini, destinatari delle regole giuridiche, dimostrino la «capacità di modificare i comportamenti alla luce di tali norme»[85]. Da questo punto di vista, nota Lucy, nell’ipotesi in cui i soggetti di diritto difettassero di queste caratteristiche cruciali, «allora la regolamentazione giuridica non avrebbe alcun senso»[86]. Tale modello delinea, quindi, una forma di qualificazione giuridica, che, tuttavia, per Lucy, è destinata ad essere messa in crisi (e, probabilmente, definitivamente superata) dall’emergere della gestione tecnologica delle condotte individuali.

L’idea che attribuisce sostanza a questa Weltanschauung complessiva è quella per cui l’insieme dei processi di automazione, di controllo tecnologico, di monitoraggio sistematico, di valutazione statistico-inferenziale in forza di criteri algoritmici, l’onnipresenza di meccanismi di digitalizzazione, ci avrebbero ormai catapultato in un mondo in cui la distinzione tra sfera offline e sfera online perde senso: onlife, è il termine coniato da Luciano Floridi per denotare questa costante oscillazione e indistinzione fra mondo reale e mondo virtuale, tra contesto analogico e ambiente digitale[87]; mentre di “Everyware” faceva riferimento, a suo tempo, Adam Greenfield, per alludere a tale dimensione immersiva e totalizzante dell’àmbito cibernetico[88]. Così, ancora, lo stesso Floridi ha parlato della vigenza di una iperstoria globale, per designare l’oltre passamento di modelli improntati alla documentalità analogica e alla sussistenza di strutture fisiche stabili[89]: la digitalizzazione ed informatizzazione del mondo hanno determinato – e stanno determinando – un nuovo momento di trapasso, in cui le stesse coordinate di spazio e tempo sono rimodulate secondo schemi inediti. L’informatica e l’ICT hanno dato avvio, dunque, ad una vera e propria ‘quarta rivoluzione’[90]. È in questo processo che si inseriscono, appunto, i paradigmi del technological management (gestione tecnologica): giacché tali fenomeni oltre ad aver generato mutamenti strutturali, ad esempio, nel campo medico e sul terreno economico, nei settori del turismo e dei trasporti, hanno altresì inciso, radicalmente, sul mondo giuridico e sul governo pratico delle condotte[91].

Il nòcciolo fondamentale del punto di vista della gestione tecnologica (che mina e mette in discussione quelle tre componenti salienti e quel presupposto generale a cui abbiamo fatto riferimento sopra) si rintraccia nella concezione per cui, nel tentativo costante di monitoraggio e di governo delle condotte umane, «la forma migliore di risposta normativa a qualsivoglia problema sociale è garantire che il problema stesso non si presenti affatto»[92]. In sostanza, anziché farsi carico della necessità di emanare determinate norme giuridiche, vòlte a vietare o proibire atti e condotte, nella prospettiva patrocinata dalla gestione tecnologica dell’esistente la via più adeguata è quella «di precludere ogni alternativa tramite l’architettura e la progettazione»[93]: «barriere che possono essere attraversate in un’unica direzione e personal computers che non funzionano a meno che non si accettino i termini di utilizzo sono esempi quotidiani di gestione tecnologica»[94].

In luogo di sobbarcarsi il compito oneroso che esige l’imposizione di modalità di regolamentazione implicanti l’adozione e la dichiarazione di una qualificazione normativa, la supervisione della stessa in merito ai canoni deontici che prescrive, e, infine, l’attuazione di eventuali misure di coazione, sanzione e/o coercizione, nel caso in cui la regola non venga obbedita[95] – invece, appunto, di impegnarsi in tale complessa e strutturata attività (giacché esigente un articolato sistema di apparati istituzionali), il paradigma della gestione tecnologica preferisce sopprimere, ab origine, ogni possibilità di violazione[96], incanalando le condotte dei consociati entro una direzione necessariamente prestabilita, grazie al flusso informativo e ai segnali prodromici che i comportamenti e gli eventi antecedenti sono in grado di fornire al sistema di riferimento.

Esempio classico, e, per certi versi, emblematico, è quello relativo alla regolamentazione del traffico stradale: perché mai – si chiede Lucy – adoperarsi per fissare un limite di velocità, stabilire delle sanzioni e garantire che tale limite venga rispettato, con tutto l’insieme di costi e spese che tali attività comportano, se le automobili, oggi, «possono essere progettate in modo da non superare il limite di velocità in una determinata zona» e l’‘obiettivo normativo’ può essere «“confezionato” all’interno degli strumenti (i veicoli) tramite i quali l’infrazione di tale obiettivo […] risultava precedentemente possibile»[97]? Che cosa difatti «potremmo mai obiettare a questo modo di garantire la conformità al diritto?»[98]. In tal senso, il “fascino” della gestione tecnologica sembrerebbe irresistibile, tanto ovvi appaiono «i benefici […] e i costi così bassi»[99]: benefici sia economici, sia in termini di vite umane, poiché, nel caso della circolazione stradale, il ricorso a tale modello consentirebbe di evitare molti incidenti gravi.

Senza considerare, inoltre, come tali ipotesi implicherebbero – rimarca Lucy – il venire meno della centralità dei principali organi legislativi (statali e locali) – con un conseguente risparmio dei costi economici e una riduzione dei tempi –, cosicché il tutto potrebbe essere direttamente rimesso alla attività dei produttori (in questo caso automobilistici, ma gli esempi potrebbe davvero moltiplicarsi)[100].

Lucy correla, poi, tale fenomeno della gestione tecnologica (oltreché ai processi di c.d. “patologizzazione del diritto” e alla ottimizzazione economica dei costi[101]) al modello della governamentalità neoliberale di Michel Foucault[102]. In che termini? Nei termini per cui, ad avviso di Lucy, la gestione tecnologica non sarebbe altro che un episodio della governamentalità contemporanea[103]. Quest’ultima, succeduta alle forme di potere sovrano – il cui carattere cruciale consisteva nello “ius vitae ac necis” –, e alle manifestazioni del biopotere – che, integrando il potere sovrano, ha avviato un paradigma vòlto alla gestione delle vite dei soggetti (dimensione dei corpi individuali) e della collettività (popolazione) –, è una «rete di relazioni di potere che include ma al contempo si estende al di là, sia dell’esercizio del potere di vita e di morte, che della regolamentazione dei corpi e delle popolazioni»[104], configurando delle modalità di gestione ed esercizio del potere che vanno ben oltre il «semplice lavoro dello Stato, per estendersi anche al Sé individuale, alla famiglia, alla massa, alla congregazione e all’economia», tramite il ricorso a «vari mezzi, razionalizzazioni e mentalità attraverso cui il governo opera»[105].

Le istituzioni statali iniziano, così, a prendersi cura della popolazione, in fogge inedite, più sotterranee e melliflue, eppure costanti e pervasive, in forme analoghe alle modalità operative della gestione tecnologica: «la pura pervasività del potere, così come disvelata dalla nozione di governamentalità, riesce a fornire un fruttuoso contesto esplicativo all’interno del quale comprendere […] la dimensione della gestione tecnologica»[106]. L’elemento cardinale, pertanto, che consente una riconduzione della seconda alla prima, è la comune e tendenziale pervasività e pluralità delle loro forme di manifestazione[107]. Entrambe, cioè, sembrano tratteggiare modalità, costanti, di controllo capillare e ‘orizzontale’: cosicché, la gestione tecnologica diviene uno degli strumenti con cui il governo fa mostra, a tutti gli effetti, delle proprie ambizioni governamentali, mediante il ricorso a calcoli, tecniche, programmi algoritmici, codici, ed apparati tecnologici. 

5. Conclusioni. Economia e sfera digitale, fra pubblico e privato

Il paradosso che abbiamo delineato in sede introduttiva è lungi, quantomeno ad una prima approssimazione, dall’essere completamente risolto. Nondimeno, quanto abbozzato nelle pagine precedenti ci consente di pervenire a due pur brevi conclusioni. 

In primo luogo, la congiunzione offerta da Lucy vòlta a far convergere gestione tecnologica e traiettoria governamentale neoliberale impone una considerazione in merito a ciò che si viene prefigurando nell’attuale scenario globale, il quale vede procedere, strettamente congiunte, sfera digitale ed economia. Gli sviluppi algoritmico-digitali sembrano infatti presentarsi come l’esito ultimo di una tendenza generale, che trova nella law and economics il suo naturale antecedente. Il diritto, ricorrentemente, necessita di una sorta di «polmone esterno» su cui fondare la propria (talora fragile) legittimità, che, in un certo senso, costituisce, e ha costituito, il viatico, ogni volta, e al contempo, o per una messa in crisi del paradigma del ‘giuridico’, o per una sua ‘rifioritura’ teorica (gli esiti di tale processo sono il frutto, evidentemente, del modo di concepire le connessioni fra tali due realtà): questo «polmone esterno di legittimità» è stato cercato dapprima «nella storia (pensiamo alla scuola storica tedesca), nei costumi e nella società stessa e nei suoi rapporti di forza (law and society), poi nell’economia intesa come ragionamento per gestire la scarsità e spiegare le scelte razionali (law and economics), e perfino nella letteratura (law and literature[108].

Da tale punto di vista, oggi l’exemplum a cui il diritto aspira è quello identificabile nel «paradigma determinista della prevedibilità», derivante da «un certo modello di scienze informatiche»[109]. L’ambizione, in altre parole, è (anche) quella di garantire al diritto una efficienza integrale, capace di assicurare, con certezza e prevedibilità, il ‘fluire’ ordinato delle condotte. Tale garanzia di efficienza, inizialmente rappresentata dalla inclusione del ‘giuridico’ nell’‘economico’[110], è ora inglobata all’interno della digitalizzazione e informatizzazione dell’esistente, con tutto ciò che ne consegue sul piano organizzativo e sotto il profilo della gestione, appunto, delle condotte.

La rivoluzione algoritmica sembra avviata verso una piena presa di possesso delle forme di governo delle azioni individuali, aspirando ad un controllo pervasivo delle condotte dei soggetti, la cui agency si manifesta ‘statica’ e bloccata, in ragione della impossibilità di mutare l’orizzonte pratico entro cui i cittadini si trovano a vivere ed operare.

Gli esiti che questa situazione produce sulla tutela e sulla garanzia dei diritti fondamentali sono stati messi in luce in numerose sedi[111]. La questione meriterebbe, invero, un’analisi specificamente dedicata, tanti sono i temi e le questioni fatalmente emergenti, e le sfide che uno scenario di tal fatta è in grado di prefigurare. Uno dei problemi – e ciò è il secondo punto cardinale –, che, tuttavia, è nostro desiderio sottolineare, al fine di fornire una possibile chiusura a queste riflessioni, si lega strettamente al tema della emersione del dato economico e ai suoi effetti. La globalizzazione economica e lo sviluppo della visione neoliberale dell’esistente hanno in realtà favorito, soprattutto sul piano istituzionale, una sempre minore differenziazione (e conseguente intersezione) tra sfera del ‘pubblico’ e sfera del ‘privato’.

La stessa ascesa delle Big Tech (nei fatti aziende private, quantunque di interesse pubblico, tantoché vi è chi ha prospettato la possibilità, nonostante la loro carente legittimazione democratica, di includerle nei grandi consessi e tavoli internazionali per una discussione inter pares con i principali Capi di Stato e di Governo degli Stati nazionali[112]), il predominio delle agenzie indipendenti, la aziendalizzazione delle istituzioni pubbliche (sia nelle loro forme, che nelle loro funzioni), sono alcuni dei processi in atto che l’estensione dell’economia ad ogni settore della società ha inesorabilmente prodotto (lo stesso Lucy vi allude, quando accenna al plausibile superamento dei «parlamenti nazionali, [e dei] consigli degli enti locali»[113]). Ora, il manifestarsi della gestione tecnologica, l’espandersi della informatizzazione, la crescente centralità del digitale, oltre a favorire un’elisione fra pubblico e privato sotto il profilo istituzionale, provocano un’elisione fra pubblico e privato anche a livello soggettivo individuale[114].

L’essere umano corre il pericolo, infatti, di essere soggetto ad un riduzionismo statistico: ogni azione, comportamento, condotta quotidiana entrano a far parte di una mole di dati, che servono poi a monitorare ed orientare le condotte future, in un processo costante dove ciò che è dominio privato personale diviene elemento di interesse per la gestione ‘pubblica’ delle condotte.

Dinanzi a queste insidie, in cui la norma rischia di essere detronizzata per lasciare spazio al puro dominio del ‘dato’, statisticamente quantificabile, è forse utile richiamare l’attenzione e rivolgere importanti sforzi programmatici verso l’urgenza di preservare ancora un valore qualitativo all’esistenza individuale e collettiva, (quantomeno) interrogandosi sulla matrice ‘umanistica’ del diritto[115]. Valore qualitativo che non può non passare da una esigenza di regolamentazione che possa perlomeno frenare, o ridurre, la tendenza ad un accesso pervasivo nella volontà ‘psicologica’ e morale del soggetto agente, attraverso la statuizione di limiti normativi, che, se orientati a giustizia, possono restituire un orizzonte valoriale e un senso comune, fondamentale per il rispetto degli altri, e, quindi, di noi stessi.


Note e riferimenti bibliografici

[1] Regolamento UE 2024/1689 del 12.7.2024. L’UE ha iniziato ad occuparsi, in modo diretto, del problema dell’IA a partire dal 2018, con la costituzione del Gruppo di esperti sull’IA e alleanza europea per l’IA. A questo primo impulso, faranno séguito, poi, dichiarazioni formali, comunicazioni e comunicati, riunioni, comitati consultivi, gruppi di lavoro, valutazioni d’impatto, consultazioni, proposte di intervento normativo, che condurranno, nel 2024, all’adozione dell’AI Act. L’iter storico è agevolmente consultabile online: https://digital-strategy.ec.europa.eu/it (ultimo accesso: 7 marzo 2025). Cfr., sul tema: D. MARTIRE, Intelligenza artificiale e Stato costituzionale, in Diritto pubblico, 2022, 2, 397-444, 402 ss. Per un primo approfondimento giurisprudenziale, cfr. A. CORRERA, Il ruolo dell’intelligenza artificiale nel paradigma europeo dell’E-justice. Prime riflessioni alla luce dell’AI Act, in Quaderni AISDUE, 2024, 2, 1-30.

[2] Per una panoramica dei rapporti fra informatica e diritto, cfr. M.G. LOSANO, Scritti di informatica e diritto. Per una storia dell’informatica giuridica, a cura di P. Garbarino e M. Cavino, 2 voll., Milano, 2022. 

[3] Si assume, qui, l’idea per cui l’intelligenza artificiale rappresenti l’ultimo (o penultimo?) passo, preceduto dall’avvento, negli anni Ottanta, dei personal computers, e, negli anni Novanta, di Internet. Cfr. G. SARTOR, L’intelligenza artificiale e il diritto, Torino, 2022, XI. 

[4] Algoritmi che costituiscono forme di applicazione dell’IA, le quali, però, non sono di esclusiva pertinenza di quest’ultima. In quanto «procedure suscettibili di applicazione automatica», esse hanno un campo di utilizzo che si estende ad «ogni sistema informatico» (G. SARTOR, L’intelligenza artificiale e il diritto, cit., 9).

[5] M. LA TORRE, Il senso della norma. Filosofia fragile del diritto, Bologna, 2023.

[6] A. GARAPON, J. LASSÈGUE, La giustizia digitale. Determinismo tecnologico e libertà (2018), a cura di M.R. Ferrarese, Bologna, 2021, 79.

[7] M. MAUSS, Saggio sul dono. Forma e motivo dello scambio nelle società arcaiche, introduzione di M. Aime, trad. it. di F. Zannino, Torino, 2002, 134.

[8] A. GARAPON, J. LASSÈGUE, La giustizia digitale, cit., 79-80. Cfr. infra, § 4.

[9] Cfr. Regolamento UE 2024/1689, cit.

[10] Cfr. A.M. TURING, Intelligenza meccanica, a cura di Giovanni Lolli, trad. it. di G. Lolli e N. Dazzi, Torino, 2014.

[11] Per una introduzione al concetto di IA, cfr. G. SARTOR, L’intelligenza artificiale e il diritto, cit., 1 ss. 

[12] In quest’ottica, sulle diverse nozioni giuridiche di IA cfr., ancora, G. SARTOR, L’intelligenza artificiale e il diritto, cit., 7 ss.

[13] Tale definizione si contraddistingue per una precisione superiore – dovuta ad esigenze di natura giuridica – rispetto a quella, più generale, offerta da uno dei pionieri di questa disciplina, John McCarthy: cfr. G. SARTOR, L’intelligenza artificiale e il diritto, cit., 7.

[14] G. DE MINICO, Giustizia e intelligenza artificiale: un equilibrio mutevole, in Rivista AIC, 2024, 2, 85-108, 86.

[15] Ibid.

[16] La centralità dei big data ha favorito la nascita di un nuovo paradigma caratterizzato non più da un approccio logico-deduttivo, ma da un approccio statistico (G. ZACCARIA, Mutazioni del diritto: innovazioni tecnologiche e applicazioni predittive, in Ars interpretandi, 2021, 1, 29-52, 34). Sul tema, cfr. N. CRISTIANINI, On the Current Paradigm in Artificial Intelligence, in AI Communications, 2014, 27, 1, 37-43. Sul problema dei big data e lo spazio di conoscibilità, cfr. M. PALMIRANI, Big Data e conoscenza, in Rivista di filosofia del diritto, 2020, 1, 73-92.

[17] Si è soliti, infatti, distinguere tre tecnologie di utilizzo dell’IA: a) approcci di apprendimento automatico; b) approcci basati sulla logica e/o sulla conoscenza; c) approcci statistici. Cfr. G. SARTOR, L’intelligenza artificiale e il diritto, cit., 7-8.

[18] Esse costituiscono grandi masse di dati, «spesso raccolt[e] automaticamente, da dispositivi che raccolgono informazioni dal mondo fisico […] o che mediano attività economiche e sociali collegando gli individui facendoli partecipare a organizzazioni socio-tecniche» (G. SARTOR,L’intelligenza artificiale e il diritto, cit., 12). Sono contraddistinte dalle cc.dd. ‘tre V’: enorme Volume, alta Velocità, grande Varietà (ibid.).

[19] F. PASQUALE, The Black Box Society: The Secret Algorithms that Control Money and Information, Harvard University Press, Cambridge (Mass.), 2015.

[20] D. TAFANI, Intelligenza artificiale e impostura. Magia, etica e potere, in Filosofia politica, 2023, 1, 129-148.

[21] Cfr. A. ROMEO, Bad man e Puzzled Man davanti ad un chatbot. Il bisogno di accesso cognitivo al diritto e le promesse dell’intelligenza artificiale, in Dirittifondamentali.it, 2024, 1, 22-47, p. 38.

[22] In particolare, i sistemi di IA che riguardano i settori ad alto rischio sono subordinati a controlli rigorosi prima di essere immessi nel mercato. La valutazione è, dunque, in prima istanza anche di natura preventiva.

[23] In cui assume speciale riguardo il campo della ‘giustizia predittiva’, da intendersi come «la capacità attribuita alle macchine di mettere in moto rapidamente in un linguaggio naturale il diritto pertinente per trattare un caso, di contestualizzarlo secondo specifiche caratteristiche […] e di anticipare la probabilità delle decisioni che potrebbero essere prese» (A. GARAPON, J. LASSÈGUE, La giustizia digitale, cit., 171).

[24] D. MARTIRE, Intelligenza artificiale e Stato costituzionale, cit., 409 ss.

[25] A. SIMONCINI, L’algoritmo incostituzionale: intelligenza artificiale e il futuro delle libertà, in BioLaw Journal – Rivista di BioDiritto, 2019, 1, 63-89, 77-78.

[26] Ivi, p. 78.

[27] Ibid.

[28] Cfr. D. MARTIRE, Intelligenza artificiale e Stato costituzionale, cit., 418.

[29] A. SIMONCINI, L’algoritmo incostituzionale, cit., 79.

[30] Ibid.

[31] D. MARTIRE, Intelligenza artificiale e Stato costituzionale, cit., 414-416.

[32] A. SIMONCINI, L’algoritmo incostituzionale, cit., 81 (corsivo nel testo).

[33] Ibid.

[34] Cfr. A. LO GIUDICE, Il dramma del giudizio, Milano-Udine, 2023.

[35] A. SIMONCINI, L’algoritmo incostituzionale, cit., 81.

[36] D. MARTIRE, Intelligenza artificiale e Stato costituzionale, cit., 420 ss.

[37] A. SIMONCINI, L’algoritmo incostituzionale, cit., 84.

[38] Cfr. J. LARSON, S. MATTU, L. KIRCHNER, J. Angwin, How We Analyzed the COMPAS Recidivism Algorithm, in ProPublica, 23 maggio 2016, consultabile online: https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm (ultimo accesso: 7 marzo 2025)

[39] A. SIMONCINI, L’algoritmo incostituzionale, cit., 85.

[40] Cfr. A. GARAPON, J. LASSÈGUE, La giustizia digitale, cit., 137 ss.

[41] Sul tema cfr. il numero monografico Intelligenza Artificiale e politica, in Storia del pensiero politico, 2024, 3, 349-444.

[42] S. DE LUCA, Intelligenza Artificiale e politica: l’ultima frontiera, in Storia del pensiero politico, 2024, 3, 349-378, 356-357.

[43] Sovente identificate con l’acronimo GAFAM (Google, Apple, Facebook, Amazon, Microsoft; invero: Alphabet, Amazon, Apple, Meta, Microsoft). La regolamentazione europea è risultata, in tal senso, ancora più urgente, dal momento che l’àmbito della c.d. infosfera è stata per «troppi anni delegata ai c.d. giganti del web, refrattari ad ogni controllo e regolazione da parte dello spazio pubblico» (G. ZACCARIA, Mutazioni del diritto, cit., 30).

[44] S. DE LUCA, Intelligenza Artificiale e politica, cit., 357.

[45] Cfr. H. KELSEN, Lineamenti di dottrina pura del diritto (1934), trad. it. di R. Treves, Einaudi, Torino, 2000, 109-110.

[46] Seguendo una dicotomia di scaturigine kelseniana: cfr. H. KELSEN, Teoria generale del diritto e dello Stato (1945), trad. it. di S. Cotta e G. Treves, Milano, 2000, 288 ss.; ID., La dottrina pura del diritto (1960), a cura di M.G. Losano, Torino, 2021, 365.

[47] G. GOMETZ, Democrazia elettronica. Teoria e tecniche, Pisa, 2017.

[48] L. CORSO, L’avvenire di un’illusione. Legislatori bot, democrazia algoritmica e fine della politica, in Storia del pensiero politico, 2024, 3, 379-398, 379.

[49] Ivi, 381.

[50] Ibid.

[51] A. GARAPON, J. LASSÈGUE, La giustizia digitale, cit., 241 ss.

[52] Ivi, 167-168.

[53] Gradazioni analoghe possono essere delineate anche in merito alla sfera giudiziaria. Infatti, nell’àmbito delle attività di amministrazione della giustizia, si può passare da un modello improntato alla giustizia predittiva, che cerca nei precedenti la soluzione per i casi futuri attraverso un ricorso ‘intelligente’, e staticamente puntuale, alle opzioni giurisprudenziali passate, ad una giustizia tecnologicamente assistita, in cui la macchina offre un semplice sostegno e un mero ausilio all’attività del soggetto giudicante, fino ad una giustizia aumentata, in cui la macchina costituisce «un supporto affinché il giudicante possa, da un lato orientarsi nel labirinto di un ordinamento multilivello, dall’altro garantire la più piena, efficace e meglio motivata tutela dei diritti» (A. PUNZI, Difettività e giustizia aumentata. L’esperienza giuridica e la sfida dell’umanesimo digitale, in Ars interpretandi, 2021, 1, 113-128, 125).

[54] E, in un certo senso, correlato alla consapevolezza della “umana difettività”, la quale impone la premessa di «aprirsi senza timore […] ad una reciproca contaminazione tra l’uomo e l’intelligenza artificiale» (A. PUNZI, Difettività e giustizia aumentata, cit., 123)

[55] L. CORSO, L’avvenire di un’illusione, cit., 387.

[56] Ivi, 388.

[57] Ibid..

[58] Ivi, 389.

[59] Ibid.

[60] Ibid.

[61] Ibid.

[62] Ivi, 390.

[63] Ibid.

[64] Ivi, 391.

[65] M. HEIDEGGER, La questione della tecnica (1953), in ID., Saggi e discorsi (1957), a cura di G. Vattimo, Milano, 1976, 5-27. Fondamentali spunti in tal senso si ravvisano in: G. ANDERS, L’uomo è antiquato. Considerazioni sull’anima nell’epoca della seconda rivoluzione industriale, vol. 1, trad. it. di L. Dallapiccola, Torino, 2007; ID., L’uomo è antiquato. Sulla distruzione della vita nell’epoca della terza rivoluzione industriale, vol. 2., trad. it. di M.A. Mori, Torino, 2007.

[66] In generale, il tema della ‘fine’ del diritto è argomento che impegna, da tempo, anche il pensiero giuridico e filosofico italiano, sebbene in prospettive differenti e secondo orientamenti diversificati. Cfr., ad esempio: F. CARNELUTTI, La morte del diritto, in Aa.Vv., La crisi del diritto, a cura della Facoltà di Giurisprudenza dell’Università di Padova, Cedam, Padova, 1953, 177-190; P. ROSSI, a cura di, Fine del diritto?, Bologna, 2009.

[67] L. LESSIG, Code: Version 2.0, Basic Books, New York, 2006. Ma di “Death of Law” parlava già Owen M. Fiss nel 1986: cfr. O.M. FISS, The Death of the Law?, in Cornell Law Review, 1986, 72, 1-16.

[68] Cfr. R. BROWNSWORD, Law, Technology and Society: Re-imagining the Regulatory Environment, Routledge, Abingdon, 2019; ID., Law 3.0: Rules, Regulation and Technology, Routledge, Abingdon, 2020; ID, Rethinking Law, Regulation, and Technology, Cheltenham, 2022; ID., Technology, Governance and Respect for the Law: Pictures at an exhibition, London, 2023.

[69] W. LUCY, La morte del diritto. Ancora un necrologio (2022), trad. it. di J. Volpi, Napoli, 2023.

[70] Cfr. A. ROMEO, La norma non può morire. Brevi riflessioni critiche sugli ultimi necrologi del diritto e sulla gestione tecnologica della condotta umana, in Diritto & questioni pubbliche, 2024, 1, 81-99.

[71] Cfr. A. CONDELLO, Il non-dato e il datoRiflessioni su uno «scarto» fra esperienza giuridica e intelligenza artificiale, in Ars interpretandi, 2021, 1, 97-112, 99.

[72] Gestione tecnologica che presenta profili di similitudine, peraltro, con la emergente intelligenza ambientale, che delinea contesti in cui aspetto fondamentale diviene proprio l’interazione essere umano-ambiente esterno, e in cui i dispositivi elettronici sono sensibili alle esigenze delle persone: cfr. G. SARTOR, L’intelligenza artificiale e il diritto, cit., p. 14.

[73] Si pensi, sotto questa angolatura, alle ricadute decisive che hanno avuto e stanno avendo le nuove tecnologie e le implementazioni di IA nel settore, ad esempio, dei rapporti di lavoro, e, quindi, sul diritto del lavoro. Cfr. M. BIASI, a cura di, Diritto del lavoro e intelligenza artificiale, Milano, 2024.

[74] Brownsword articola questa progressiva perdita di centralità del diritto in tre tappe, che egli scansiona, giustappunto, a partire dalla simbolica data di pubblicazione – il 1961 – del celebre volume di Herbert L.A. HART, The Concept of Law (cfr. H.L.A. HART, Il concetto di diritto (1961), a cura di M.A. Cattaneo, Torino, 2002). La prima fase sarà ancora caratterizzata da una ‘strategia’ mista, in cui meccanismi preventivi di natura tecnopratica saranno accompagnati da procedure dissuasive. La seconda fase, ‘di mezzo’, sarà contrassegnata da un margine di sviluppo importante dei meccanismi correttivi di natura algoritmica, che renderanno molte condotte, nei fatti, impossibili. La terza fase, finale, decreterà l’emergere, definitivo, del nuovo paradigma, e la gestione tecnologica sarà realtà. Cfr. R. BROWNSWORD, In the Year of 2061: from Law to Technological Management, in Law, Innovation and Technology, 2015, 7, 1, 1-51, 30 ss.

[75] A. ROMEO, La norma non può morire, cit., p. 89.

[76] Ibid.

[77] Per un commento delle posizioni filosofiche di Lucy, cfr. M. RICCIARDI, Cronaca di una morte annunciata. Prime riflessioni su “The Death of Law”, in Notizie di Politeia, 2022, 38, 148, 3-10.

[78] W. LUCY, La morte del diritto, cit., p. 11.

[79] Ibid.

[80] Ibid.

[81] Ibid.

[82] Ivi, 12.

[83] Ibid.

[84] Ibid.

[85] Ibid.

[86] Ibid.

[87] Cfr. L. FLORIDI, Soft Ethics and the Governance of the Digital, in Philosophy & Technology, 2018, 31, 1-8. Più in generale, di Floridi, si vedano: L. FLORIDI, La quarta rivoluzione. Come l’infosfera sta trasformando il mondo, Milano, 2017; ID., Etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide, Milano, 2022. L’uso del termine ‘onlife’ è divenuto così pervasivo, da essere adottato in vari contesti: «Happy Onlife», ad esempio, è un gioco-progetto promosso dall’Unione europea per sensibilizzare i bambini all’uso responsabile di Internet (si veda: https://learning-corner.learning.europa.eu/learning-materials/happy-onlife_it, ultimo accesso: 7 marzo 2025)

[88]A. GREENFIELD, Everyware. The Dawning Age of Ubiquitous Computing, Berkeley, 2006.

[89] L. FLORIDI, La quarta rivoluzione, cit., cap. 1.

[90] Ivi, passim.

[91] A. D’ALOIA, Il diritto verso “il mondo nuovo”. Le sfide dell’Intelligenza Artificiale, in BioLaw Journal – Rivista di BioDiritto, 2019, 1, 3-31, 4. Cfr., altresì, A. CONDELLO, Il non-dato e il dato, cit., 99.

[92] W. LUCY, La morte del diritto, cit., 16.

[93] Ibid.

[94] Ibid.

[95] R. BROWNSWORD, Code, Control, and Choice: Why East is East and West is West, in Legal Studies, 2005, 25, 1-21, 8.

[96] Cfr. M. RICCIARDI, Cronaca di una morte annunciata, cit., 7.

[97] W. LUCY, La morte del diritto, cit., 18.

[98] Ivi, 20.

[99] Ibid.

[100] A conclusioni simili giungono T. ENDICOTT, K. YEUNG, The Death of Law? Computationally Personalized Norms and the Rule of Law, in University of Toronto Law Journal, 2022, 72, 373-402.

[101] Cfr. M. RICCIARDI, Cronaca di una morte annunciata, cit., 7.

[102] Cfr., fra le varie opere, M. FOUCAULT, Sicurezza, territorio, popolazione. Corso al Collège de France (1977-1978), trad. it. di P. Napoli, Milano, 2020.

[103] W. LUCY, La morte del diritto, cit., 45.

[104] Ivi, 37.

[105] Ivi, 38.

[106] Ivi, 41.

[107] Ivi, 45.

[108] A. GARAPON, J. LASSÈGUE, La giustizia digitale, cit., 94.

[109] Ibid.

[110] Sulla critica della Law and Economics come primo passo per la messa in crisi del modello giuridico, cfr., ancora, O.M. FISS, The Death of the Law?, cit.

[111] Cfr.: A.C. AMATO MANGIAMELI, Intelligenza artificiale, big data e nuovi diritti, in Rivista italiana di informatica e diritto, 2022, 1, 93-101; A. FORMISANO, L’impatto dell’intelligenza artificiale in ambito giudiziario sui diritti fondamentali, in Federalismi.it, 2024, 22, 112-149; D. Martire, Intelligenza artificiale e Stato costituzionale, cit.

[112] Cfr. I. BREMMER, M. SULEYMAN, The AI Power Paradox: Can States Learn to Govern Artificial Intelligence Before It’s Too Late?, in Foreign Affairs, 2023 (September/October). Sul punto si rimanda alle riflessioni contenute in S. DE LUCA, Intelligenza Artificiale e politica, cit., 364-366.

[113] W. LUCY, La morte del diritto, cit., p. 19; ma cfr. supra, § 4.

[114] A questi problemi ha recentemente dedicato un’attenzione peculiare il filosofo sudcoreano Byung-chul Han: cfr. B.-C. HAN, Nello sciame. Visioni del digitale, trad. it. di F. Buongiorno, Milano, 2023, 12.

[115] Cfr. M. RICCIARDI, Cronaca di una morte annunciata, cit., p. 9.