RCD


Attendere prego, caricamento pagina...
Vige ancora principio per cui il consenso negoziale delle parti è elemento essenziale del contratto nell’epoca dell’intelligenza artificiale?
ISCRIVITI (leggi qui)
Pubbl. Gio, 15 Gen 2026

Vige ancora principio per cui il consenso negoziale delle parti è elemento essenziale del contratto nell’epoca dell’intelligenza artificiale?

Modifica pagina

Sebastiano Cascio
NotaioUniversità della Campania Luigi Vanvitelli



L’articolo parte dall’esegesi della disciplina del contratto come da codice civile italiano alla luce dell’impiego crescente dei sistemi di intelligenza artificiale (IA) nei processi negoziali tra umani. Dopo aver esaminato la struttura codicistica della formazione dell’accordo, si indagano le principali criticità derivanti dalla mediazione algoritmica della volontà: delega decisionale, asimmetrie informative, errori e manipolazioni digitali, responsabilità per fatto degli ausiliari e imputazione delle dichiarazioni negoziali prodotte da agenti autonomi. La dottrina e la giurisprudenza (in particolare Cass. Sez. Un. 21850/2017 e Cass. 16485/2017) vengono mutuate nei principi per ricostruire il modello dell’“ausiliarietà digitale”.


Sommario: 1. Il contratto di diritto comune come paradigma ontologico dell’autonomia privata; 2. Manifestazione della volontà mediata da IA; 3. Agenti autonomi e imputazione della dichiarazione negoziale; 4. Comparazione giuridica: esperienza degli altri Stati; 5. Conclusioni

1. Il contratto di diritto comune come paradigma ontologico dell’autonomia privata

In via del tutto preliminare occorre che l’analisi parta dall’art. 1321 c.c.

Detta norma, forse la più importante in tema di contratto, definisce lo stesso come «l’accordo di due o più parti per costituire, regolare o estinguere tra loro un rapporto giuridico patrimoniale».

Emerge anche solo da una lettura veloce della norma che, per il legislatore vi è una perfetta sinergia fattuale tra accordo delle parti e contratto, ovvero emerge come il contratto è il precipitato giuridico dell’accordo.

Già solo dalla lettura dell’incipit di detto articolo dunque sarebbe da ripudiare una ricostruzione di contratto scevra di accordo tra due o più parti, nella misura in cui, se non c’è accordo non c’è contratto.

Al fine di rimarcare il concetto in chiave dottrinale, per farne comprendere la portata non solo teorica ma pragmatica, si segnala come la dottrina classica ovvero gli autori che sul contratto hanno scritto le più diffuse monografie: Bianca[1], Roppo[2], Rescigno[3] hanno a lungo interpretato tale disposizione come espressione dell’autonomia privata, in cui il consenso è manifestazione razionale della volontà individuale.

Esemplificativamente, è proprio a mezzo del contratto che il cittadino esercita i poteri che l’ordinamento lui riconosce e soprattutto è proprio a mezzo dello stesso che l’umano, nei limiti della legge pone in essere atti direttamente influenti la di lui sfera giuridico patrimoniale.

È ad esempio con il contratto di vendita che si compravendono i beni, e con quello di donazione che si donano beni, ancora è con il contratto di appalto che si commissionano opere, tutti questi contratti hanno, per mutuare un termine scientifico tanto caro agli ingegneri dell’intelligenza artificiale, un comune denominatore, ovvero, che si basano tutti sull’accordo delle parti.

Un primo livello di astrazione codicisticamente è operato nel senso di riconoscere come parte sia la persona fisica che quella giuridica (l’ente, la società) perché anche la persona giuridica è persona che, a mezzo lo strumento dell’immedesimazione organica manifesta una propria volontà che se legittimamente manifestata è idonea ad essere fondante un accordo, e quindi, un contratto.

Dato l’innegabile passaggio dall’economia dei beni all’economia digitale[4], ovvero nel passaggio ad una economia fondata sull’acquisto fisico dei beni ad un’economia fondata sull’acquisto digitale di beni ma principalmente di servizi[5] il paradigma non è stato abbandonato.

Il contratto, ancorché stipulato nella sua forma, rectius modalità, telematica, è ritenuto che, comunque sia stipulato tra persone e quindi conseguentemente che detta modalità integri solo una mera variante tecnica del processo dichiarativo[6].

Il concetto merita una spiegazione, ovvero, è da intendersi che, nonostante le nuove tecnologie permettano ai soggetti di stipulare contratti non più solo con carta e penna, ma anche con strumenti digitali, la possibilità che l’accordo sia raggiunto digitalmente e che quindi il contratto non sia scritto a mano, non implica che si sia in presenza di un tertium genus rispetto al contratto da codice civile.

La modalità di conclusione del contratto, in questo caso telematica, non comporta che ciò che si stipula non sia sussumibile all’art.1321 c.c. ma l’esatto opposto, sempre di contratto potrà parlarsi, solo che, concluso con strumenti telematici e/o digitali.

Se questo è vero, tuttavia vero del pari è che, l’ingresso dell’intelligenza artificiale nei meccanismi di proposta, accettazione, selezione automatizzata delle condizioni e ottimizzazione della struttura e delle clausole contrattuali impongono una valutazione circa una eventuale riconsiderazione della nozione stessa di volontà negoziale.

E cioè, compito dell’interprete è domandarsi se oggi possa ancora parlarsi di volontà negoziale se una delle parti, per la stipula del contratto si avvale di IA, o ancora peggio, se in assenza di una parte si possa parlare di contratto concluso tramite accordo tra IA e umano.

La domanda per l’interprete nasce alla luce della circostanza per cui proprio l’IA, non si limita a trasmettere dichiarazioni delle parti, ma, su interrogazione e input esterni può generarle dette dichiarazioni, potrebbe poi modificarle, adattarle e quindi addirittura influenzare il processo decisionale umano[7].

Invero, a monte lo scrivente dubita che possa considerarsi esistente una volontà negoziale di parte se v’è ingerenza esclusiva di intelligenza artificiale.

Sempre analizzando il dato codicistico, ulteriore dato normativo importante per l’analisi è che, ai sensi dell’art. 1326 c.c., il contratto si perfeziona nel momento in cui il proponente ha conoscenza dell’accettazione.

Tale disciplina codicistica per la dottrina si fonda sulla teoria della cognizione, secondo cui il perfezionamento dell’accordo e quindi del contratto non richiede l’effettiva lettura dell’accettazione da parte dell’oblato, ma il fatto della sua giungibilità nella sfera conoscitiva del proponente[8].

Se in un contesto tra persone, vuoi esse fisiche o giuridiche non è poco agevole comprendere la portata del concetto, invero il tutto è assai più arduo in un contesto mediato da IA, la difficoltà non riguarda la validità della trasmissione elettronica delle volontà, ormai pacificamente ammessa, bensì l’attribuzione della paternità della dichiarazione e cioè, qualora l’accettazione sia inviata da un agente autonomo, laddove per agente autonomo deve intendersi non una persona ma un algoritmo, chi è il soggetto che esprime la volontà?

La risposta prevalente che invero pare condivisibile, è che la dichiarazione sia direttamente imputabile e quindi immediatamente riferibile a chi ha impostato e utilizzato ed eventualmente controllato l’algoritmo, secondo un modello di imputazione funzionale che prescinde dall’emittente materiale della dichiarazione stessa[9].

Tale ricostruzione tende in ogni caso a privilegiare l’accordo tra persone, e pertanto, se così fosse, non vi sarebbero ragioni che ostano al riconoscimento del principio per cui, ad oggi, l’accordo è ancora fondante il contratto stesso.

L’esame delle fonti si conclude con l’analisi dell’art. 1337 c.c. il quale impone alle parti di comportarsi secondo buona fede nelle trattative. Tale obbligo assume una nuova centralità quando una delle parti utilizza sistemi di IA basati su profilazione, machine learning o predictive analytics.

Gli algoritmi possono infatti creare asimmetrie informative radicali, consentendo a una parte di conoscere preferenze, fragilità comportamentali o prezzi di riserva dell’altra[10].

A ben vedere, e questo si ribadisce, l’asimmetria algoritmica può integrare una violazione del dovere di correttezza, soprattutto quando non è comunicata alla controparte, generando un vantaggio ingiustificato per una delle parti, con conseguente squilibrio contrattuale che si può riverberare sull’accordo e quindi sulla validità del contratto, con effetto domino.

Esempi in tal senso includono: pricing dinamico basato sulla vulnerabilità dell’utente; suggerimenti contrattuali generati da IA basate dataset incompleti o distorti; raccomandazioni manipolative (dark patterns algoritmici).

Tali pratiche, se occultate, possono integrare responsabilità precontrattuale per reticenza o inganno, e, se utilizzate da una sola delle parti, evidentemente generano ingiusto vantaggio per la stessa, ai danni della controparte.

2. Manifestazione della volontà mediata da IA

Da codice civile, la volontà negoziale può essere manifestata in modo espresso o per fatti concludenti, e quindi, il contratto può concludersi per accordo espresso o in forma tacita sia totalmente che parzialmente, posto che, anche il silenzio, in determinate circostanze, per la legge, ha, a determinate condizioni e per talune ipotesi specifiche un valore negoziale.

Tuttavia, quando la volontà viene mediata da un agente IA, si verifica un mutamento strutturale: il sistema interpreta i parametri impostati dal soggetto e agisce secondo logiche matematiche e ingegneristiche proprie, talvolta parzialmente autonome[11].

Già di base occorre chiedersi, nuovamente, se un agente IA ovvero un algoritmo, banalmente quindi numeri e segni, possano manifestare una volontà propria e soprattutto se abbiano, questi numeri e segni una volontà propria.

Il problema pratico poi, laddove detti agenti IA debbano contrarre con le persone è almeno in prima battuta duplice ovvero problema in caso di errore tecnico il quale si verifica se l’IA interpreta male le preferenze, potendo in tal caso generare una dichiarazione divergente dalla volontà effettiva; ma soprattutto errore cognitivo che si ha laddove il soggetto può non comprendere pienamente il funzionamento dell’algoritmo.

In dottrina si sussume lo strumento dell’intelligenza artificiale come uno strumento in senso ampio, assimilabile agli ausiliari tradizionali disciplinati dagli artt. 1228‑1229 c.c.

In quest’ottica, l’errore derivante da un cattivo uso o da un difetto tecnico di un sistema IA deve essere imputato a chi ha scelto, configurato e utilizzato il sistema, salvo che il malfunzionamento sia stato imprevedibile secondo l’ordinaria diligenza[12] .

Tale impostazione prende spunto dalla tradizionale disciplina della responsabilità per fatto degli ausiliari, già analizzata dagli autori nel contesto sussuntivo dei computer come strumenti ausiliari[13], ma si evolve alla luce delle peculiarità degli agenti intelligenti e dei rischi tecnologici propri della digital economy.

Se questo è vero, vero è anche che del tutto improprio è parlare di contratti stipulati tra persone e algoritmi, posto che, il contratto sarà pur sempre basato su di un accordo tra due persone, fisiche o giuridiche e, la circostanza per cui una delle parti, od anche tutte le parti, intendano valersi degli strumenti di intelligenza artificiale non sposterebbe il peso di quanto sopra affermato.

In estrema sintesi, se così fosse, gli unici aspetti da disciplinare inerirebbero gli obblighi informativi, ma, di base, ad oggi occorre la tipizzazione normativa di quanto sopra esposto, ovvero, il coraggio di ricostruire l’IA come un mero strumento di parte, al pari di una protesi al braccio per permetter al soggetto portatore della stessa la firma, senza che possa obiettarsi che a lui appartenga la paternità della firma stessa.

3. Agenti autonomi e imputazione della dichiarazione negoziale

Partendo da quanto concluso nel paragrafo precedente, è ora agevole sostenere come l’IA non abbia soggettività giuridica, le dichiarazioni devono essere imputate a un essere umano, ad un ente o comunque ad una persona giuridica, pubblica o privata.

La circostanza per cui l’IA non abbia la soggettività giuridica implica, come è ovvio, che una cosa, un bene, o comunque numeri e segni o algoritmo che sia, non possono considerarsi un soggetto di diritto.

Anche la società, ad esempio la più diffusa, la società a responsabilità limitata, è un soggetto di diritto ed è immateriale, posto che, nella realtà fisica non esiste una società, della stessa ne esiste la sede, ne esiste un patrimonio, degli organi, ma la società e quindi la persona giuridica non esiste nella realtà materiale.

Si badi, la circostanza per cui per scelta legislativa sia persona giuridica una entità immateriale non implica che, in un caso affine, non analogo, quale è un sistema di IA, in automatico possa alla stessa riconoscersi qualifica di soggetto di diritto come se fosse assimilabile proprio ad una persona giuridica.

La legge, e solo la legge determina chi ed in che modo è un soggetto, e, si segnala come, dietro la società vi sono persone, dietro l’IA vi sono numeri e segni.

Aspetto importante inerisce il profilo responsabilistico civile circa l’uso dei sistemi di IA, e quindi valutare cosa sia lo strumento di IA rispetto ad un contraente od un debitore, e se possa o meno associarsi la stessa IA ad un ausiliario cui all’art 1228 c.c., evidentemente ausiliario informatico non umano.

Si segnala sul punto come l’art. 1228 c.c. stabilisca che il debitore risponde dei fatti degli ausiliari di cui si avvale, e si segnala pure come è giurisprudenza consolidata che l’ausiliario può essere anche un soggetto indipendente rispetto al debitore stesso, e, la responsabilità si fonda su un criterio funzionale e non gerarchico; il debitore risponde dei fatti colposi o dolosi dell’ausiliario nel compimento della prestazione[14].

Le Sezioni Unite della Cassazione ad esempio hanno affermato che il vettore risponde dei danni causati dall’Handler aeroportuale come proprio ausiliario, pur non essendovi subordinazione[15] e ciò vale a rafforzare quanto detto sopra, ed in effetti, a leggere la norma, la stessa in nessun punto fa riferimento alla necessità a che debba sussistere un vincolo di subordinazione o un contratto di lavoro subordinato o un essere umano, basta un semplice collegamento al compimento di un dato atto, nello specifico è sufficiente che l’attività posta in essere dall’ausiliario sia teleologicamente effettuata da soggetto o cosa su disposizione del debitore[16] e più in generale dal contraente.

Applicando tali principi, sebbene riferibili ad ipotesi non di intelligenza artificiale, ma pur sempre di macchine, l’agente IA deve essere trattato come ausiliario digitale quale in effetti è.
La parte che di detto ausiliario si avvale, risponderà delle sue dichiarazioni e dei suoi errori, poiché ha scelto di avvalersi del sistema per adempiere o negoziare e pertanto, ogni attività posta in essere da detto sistema, ed ogni contratto concluso, sarà lei immediatamente riferibile.

Se questo è vero, notevole è il ridimensionamento del problema sistematico, posto che, l’IA nulla altro sarebbe se non un mero strumento per realizzare un determinato scopo.

Sarà compito della parte che di detto strumento si avvale quella di verificarne il corretto funzionamento sì come è compito della parte che si avvale di strumenti informatici o comunque di strumenti tecnologici, di verificarne il corretto funzionamento.

Seppure questo è vero, pragmaticamente vi sono non pochi problemi riconnessi ai potenziali vizi del consenso negoziale, ovvero, scartando la violenza fisica solamente violenza morale, errore e dolo.

Circa l’errore, è evidente come lo stesso possa derivare da difetti tecnici del sistema; bias algoritmici; suggerimenti sbagliati dell’IA e ogni altra motivazione sempre riconducibile all’alveo informatico, per i più, non agevolmente governabile.

Come si è avuto modo di chiarire, tuttavia, se la parte decide di avvalersi di strumenti di IA, dovrà assumere anche il relativo rischio a che il sistema non funzioni correttamente.

Si rammenta tuttavia che, da codice civile vi è una clausola di salvaguardia di diritto comune, ovvero, l’art 1429 c.c. dispone che, se l’errore è essenziale e riconoscibile, la parte può chiedere l’annullamento, ed è questo di tutta evidenza nella misura in cui, vero è che vi sia l’onere di controllare i propri ausiliari e strumenti informatici, ma vero è anche che, se vi è errore riconoscibile dalla controparte non può esattamente parlarsi di buonafede, principio questo che governa il contratto tutto.

Ulteriore problema inerisce poi il dolo, che forse in tal caso è dolo digitale.

Il dolo a mezzo strumenti informatici o comunque digitali si configura quando si usano strumenti digitali per indurre scientemente la controparte in errore. Tecniche come i dark patterns costituiscono moderne forme di raggiro, come sostenuto da parte della dottrina[17].

Infine, ulteriore aspetto da non sottovalutare poiché invero rilevante è rappresentato dalla eventualità a che il contratto sia concluso a mezzo utilizzo, da una delle parti, di violenza morale digitale.

È ipotizzabile che sì sia accaduto quando il sistema informatico sfrutta le vulnerabilità cognitive della controparte al fine di esercitare forme di pressione psicologica (es. countdown manipolativi, notifiche insistenti). Il fenomeno è noto nei digital studies e può integrare coartazione della volontà[18], invero una valutazione astratta non può esser fatta, dovrà esser effettuata una valutazione caso per caso.

4. Comparazione giuridica: esperienza degli altri Stati

La crescente diffusione dell’IA nei contratti ha generato risposte diverse nei vari ordinamenti.

Per quanto concerne gli Stati Uniti, Il diritto dei contratti statunitense, che è basato basato sulla objective theory of assent, riconosce il contratto quando la manifestazione esterna consente di dedurre il consenso, indipendentemente dalla volontà interiore.

Il significato è che l’accento è posto sulle manifestazioni di volontà, ed è di tutta evidenza come un approccio siffatto sia agevolante circa l’imputazione al soggetto delle dichiarazioni effettuate dal software o comunque da uno strumento digitale quale un sistema di intelligenza artificiale.
La Uniform Electronic Transactions Act (UETA) e l’Electronic Signatures in Global and National Commerce Act (E-SIGN Act) riconoscono espressamente la validità delle manifestazioni negoziali automatizzate[19] ciò a rafforzare ancora di più il concetto, sebbene detta normativa sia stata emanata in un momento storico in cui l’IA seppure esistente non era diffusa tra il pubblico.

Circa poi il Regno Unito invece, Il common law affronta l’IA attraverso i principi di cd “agency”: l’“electronic agent” agisce come agente del suo utilizzatore. Nei contratti elettronici prevale la “reasonable reliance rule”: la parte che ragionevolmente affida la trattativa al software è vincolata ai risultati[20] ovvero anche in tal caso si evidenzia come, se la dichiarazione proviene da una macchina, è la stessa comunque riferibile ed imputabile alla persona che detta macchina governa.

In Germania, Il BGB è fondato sul principio della dichiarazione (§ 130 BGB) e quindi almeno astrattamente, il sistema è non incompatibile con i contratti generati e conclusi da sistemi automatizzati.
Generalmente poi, in Unione Europea la relativa normativa di regolazione europea (GDPR, DSA, DMA, AI Act) tende a garantire la trasparenza algoritmica; limitare decisioni automatizzate rilevanti; rafforzare la tutela della parte debole; richiedere accountability e quindi il controllo, la permeante verifica e la guida nel risultato dei sistemi ad alto rischio quali può esser ricompresa l’IA.

L’orientamento europeo è più protettivo rispetto agli approcci di common law perché ha il compito di armonizzare i vari ordinamenti dei vari Stati che proprio dell’Unione sono parte.

5.Conclusioni

Il codice civile italiano possiede strumenti concettuali idonei per gestire i contratti nell’era dell’intelligenza artificiale ma, tali strumenti non sono ad oggi pienamente sufficienti a governare l’intero fenomeno e le sue varie sfaccettature.

La struttura proposta e conseguente accettazione, la responsabilità per fatto degli ausiliari e le clausole generali di buona fede consentono un adattamento interpretativo senza necessità di rivoluzioni normative, tuttavia, la crescente autonomia funzionale degli algoritmi impone un uso evolutivo dell’art. 1228 c.c., una rinnovata attenzione alla trasparenza, una disciplina più incisiva su profilazione e manipolazione, la tutela rafforzata della parte debole, un dialogo costante con gli altri ordinamenti.

L’IA non destruttura la categoria del contratto, ma impone al legislatore un intervento atto ad adeguare lo schema codicistico al fenomeno, non ignorabile, dell’intelligenza artificiale.

Se è vero che la normativa Europea è già orientata in tal senso vero è anche che occorre vi sia una tipizzazione e codificazione normativa anche nazionale in tal senso.

Importante è poter concludere che il contratto concluso tra IA o tra una persona e una IA non è contratto tra macchine o concluso con una macchina, ma contratto tra persone, e quindi, per rispondere all’interrogativo del titolo, un sonoro e fragoroso sì, il consenso negoziale è ancora oggi imprescindibile, e, senza lo stesso non c’è accordo e quindi non c’è contratto.

Ad oggi, almeno apparentemente, occorre che vi siano delle persone che, per costituire, modificare o estinguere situazioni giuridiche soggettive esprimano un consenso.

Le macchine, gli algoritmi ovvero i numeri, da soli, non sono persone, né fisiche né giuridiche e quindi, possono solo le persone aiutare, non alle stesse sostituirsi.


Note e riferimenti bibliografici

[1] C.M. Bianca, Diritto civile, vol. 3, Milano, Giuffrè.

[2] V. Roppo, Il contratto, Milano, Giuffrè.

[3] P. Rescigno, Il contratto, Torino, UTET.

[4] Sulla trasformazione dell’economia da modello basato su beni materiali a modello fondato sulla circolazione digitale di beni e servizi, v. Commissione Europea, Comunicazione “Shaping Europe’s Digital Future”, COM(2020) 67 final, che evidenzia il ruolo crescente dei servizi digitali nei mercati europei e la progressiva smaterializzazione dei beni; cfr. anche OECD, Measuring the Digital Transformation: A Roadmap for the Future, OECD Publishing, Paris, 2019, che documenta il passaggio strutturale verso un’economia fondata su dati, piattaforme digitali e servizi immateriali e il conseguente impatto sui sistemi giuridici degli Stati membri

[5] Sul passaggio dai mercati fondati sui beni materiali ai mercati digitali, con conseguente trasformazione dei modelli contrattuali e delle categorie civilistiche, v. S. Sica, “Commercio elettronico”, in Digesto delle Discipline Privatistiche – Sezione Civile, UTET, Torino, il quale evidenzia come la smaterializzazione dei beni e la crescente centralità dei servizi digitali impongano una revisione delle tradizionali categorie della circolazione giuridica, ponendo nuovi problemi di qualificazione giuridica, responsabilità e tutela del contraente debole.

[6] P. Rescigno, op. citata.

[7] U. Pagallo, The Law of Robots, Springer, 2013.

[8] P. Trimarchi, Causazione e imputazione nel diritto privato, Milano, Giuffrè.

[9] G. Sartor, Intelligenza artificiale e diritto, Bologna, il Mulino, 2020.

[10] C. O’Neil, Weapons of Math Destruction, Penguin, 2016.

[11] M. Hildebrandt, Law for Computer Scientists, Oxford University Press, 2020.

[12] A. Albanese, “Il diritto civile alla prova dell’intelligenza artificiale”, NT+ Diritto (Il Sole 24 Ore), 25 marzo 2024.

[13] F. D. Busnelli (a cura di), Responsabilità per fatto degli ausiliari. Clausole di esonero e limitazione della responsabilità. Artt. 1228‑1229, Giuffrè, Milano, 2016

[14] G. Comporti, La responsabilità del debitore per fatto degli ausiliari, Milano, Giuffrè.

[15] Cass., Sez. Un., 20 settembre 2017, n. 21850.

[16] Rafforzativo del concetto anche Cass., Sez. III, 5 luglio 2017, n. 16485.

[17] R. Calo, “Digital Market Manipulation”, George Washington Law Review, 2014.

[18] R. Binns, “Algorithmic Accountability”, Philosophy & Technology, 2018.

[19] UETA (Uniform Electronic Transactions Act), 1999; E-SIGN Act, 2000.

[20] J. Adams, Contract Law, Oxford University Press.