Pubbl. Mar, 3 Giu 2025
Intelligenza artificiale e accertamento tributario
Giovanni Gambino

Il presente saggio analizza le profonde trasformazioni indotte dall'intelligenza artificiale (IA) nel campo dell'accertamento tributario. Partendo da un'analisi dell'evoluzione tecnologica nelle amministrazioni fiscali, sia a livello internazionale che nel contesto italiano, il contributo si sofferma sui fondamenti tecnici dell'IA – machine learning, data mining e algoritmi decisionali – specificamente applicati al contrasto all'evasione e all'elusione fiscale. Vengono esaminate le cruciali implicazioni dell'AI Act europeo, con particolare attenzione alla classificazione dei sistemi di IA ad alto rischio in ambito fiscale e ai conseguenti obblighi di trasparenza e supervisione umana. Il saggio approfondisce i diritti del contribuente nell'era dell'IA, discutendo il principio di trasparenza di fronte alla "scatola nera" algoritmica, il diritto al contraddittorio rispetto alle decisioni automatizzate e la tutela contro le discriminazioni. Sono altresì trattati gli aspetti relativi alla compliance al GDPR, il ruolo del Garante per la Protezione dei Dati Personali e i principi di minimizzazione e sicurezza dei dati fiscali. Un'ampia sezione è dedicata al contraddittorio preventivo, all'aggiornamento dello Statuto dei Diritti del Contribuente e alle strategie difensive del contribuente. Vengono analizzati i profili processuali e probatori, inclusi il valore degli output algoritmici e l'onere della prova. Infine, il saggio propone delle best practices per un'implementazione responsabile dell'IA, sottolineando l'importanza della formazione e della collaborazione tra stakeholder per raggiungere un equilibrio virtuoso tra efficienza accertativa e garanzie fondamentali nel sistema tributario.
Sommario: 1. Prefazione; 2. L'evoluzione tecnologica nell'amministrazione fiscale; 2.1. Dalla digitalizzazione all'Intelligenza Artificiale nell'ambito fiscale; 2.2. Panoramica internazionale: esperienze fiscali comparate; 2.3. Il contesto fiscale italiano: stato dell'arte e prospettive; 3. Fondamenti tecnici dell'IA applicata all'accertamento tributario; 3.1. Machine learning e analisi predittiva nel contrasto all'evasione fiscale; 3.2. Data mining e individuazione di patternanomali in ambito fiscale; 3.3. Algoritmi decisionali nell'accertamento tributario: potenzialità e limiti; 4. L'AI Act europeo e le sue implicazioni fiscali; 4.1. Classificazione dei sistemi di IA ad alto rischio nel contesto tributario; 4.2. Obblighi di trasparenza algoritmica in materia fiscale; 4.3. Supervisione umana e accountability nell'applicazione fiscale dell'IA; 5. Diritti del contribuente nell'era dell'IA fiscale; 5.1. Il principio di trasparenza e la "scatola nera" algoritmica nell'accertamento; 5.2. Il diritto al contraddittorio di fronte alle decisioni fiscali automatizzate; 5.3. La tutela contro le discriminazioni algoritmiche in ambito tributario; 6. Privacy e protezione dei dati nel contesto dell'accertamento fiscale; 6.1. Compliance al GDPR nelle attività di accertamento tributario; 6.2. Il ruolo del Garante per la Protezione dei Dati Personali in ambito fiscale; 6.3. Minimizzazione dei dati e sicurezza delle informazioni fiscali; 7. Il contraddittorio preventivo nell'era dell'IA fiscale; 7.1. Lo Statuto dei Diritti del Contribuente aggiornato alle sfide tecnologiche fiscali; 7.2. Accesso alle informazioni algoritmiche durante il contraddittorio fiscale; 7.3. Strategie difensive contro gli accertamenti tributari basati su IA; 8. Profili processuali e probatori nell'accertamento tributario con IA; 8.1. Il valore probatorio degli output algoritmici nel processo tributario; 9. Conclusioni.
1. Prefazione
Ci troviamo in un momento storico di profonda trasformazione per il diritto tributario. L'avvento dell'Intelligenza Artificiale sta ridisegnando i contorni dell'attività di accertamento fiscale, offrendo strumenti di analisi e previsione prima inimmaginabili.
Questa evoluzione tecnologica rappresenta tanto una straordinaria opportunità quanto una sfida complessa per il nostro ordinamento giuridico. Il presente contributo nasce dalla necessità di esplorare con rigore scientifico e spirito critico le implicazioni di questa rivoluzione silenziosa che sta interessando il rapporto tra Amministrazione Finanziaria e contribuenti.
L'intelligenza artificiale non è più un tema di futurologia: è già presente nelle stanze dell'Agenzia delle Entrate, nelle analisi di rischio, nelle procedure di selezione dei contribuenti da sottoporre a controllo. Algoritmi sempre più sofisticati analizzano enormi quantità di dati provenienti da dichiarazioni, fatture elettroniche, movimenti bancari e fonti aperte, alla ricerca di anomalie e incongruenze che possano segnalare comportamenti evasivi o elusivi.
Questa capacità di elaborazione è destinata a crescere esponenzialmente nei prossimi anni, modificando in profondità le modalità operative dell'accertamento tributario. Come giuristi, professionisti ed esperti del settore, abbiamo il dovere di interrogarci sulle conseguenze di questa transizione. Come garantire che l'automazione delle decisioni non comprometta il diritto al contraddittorio? Come assicurare la trasparenza di processi decisionali sempre più complessi e talvolta opachi? Come prevenire discriminazioni algoritmiche che potrebbero penalizzare ingiustamente determinate categorie di contribuenti?
L'AI Act europeo, recentemente approvato, rappresenta un primo tentativo di rispondere a queste domande, fornendo un quadro normativo che classifica i sistemi di IA in base al rischio e impone obblighi crescenti ai loro sviluppatori e utilizzatori.
I sistemi impiegati nell'accertamento fiscale, per il loro potenziale impatto sui diritti fondamentali, ricadono verosimilmente nella categoria “ad alto rischio”, con le conseguenti esigenze di trasparenza, supervisione umana e robustezza tecnica.
Questo saggio si propone di esplorare sistematicamente le intersezioni tra intelligenza artificiale e procedimento tributario, analizzando le esperienze già consolidate, le sperimentazioni in corso e le prospettive future. Si rivolge tanto ai professionisti del diritto tributario – avvocati, commercialisti, consulenti – quanto ai funzionari dell'Amministrazione Finanziaria e agli studiosi della materia, con l'obiettivo di fornire gli strumenti concettuali e pratici per navigare questo nuovo territorio.
La sfida fondamentale è trovare un equilibrio virtuoso tra l'innegabile efficienza che l'IA può apportare nell'individuazione di comportamenti fiscalmente irregolari e la necessità di preservare, rectius rafforzare, le garanzie procedimentali e processuali che definiscono un ordinamento tributario equo e rispettoso dei diritti fondamentali. L'obiettivo non può essere soltanto un sistema fiscale più efficiente nel recupero dell'evasione, ma deve essere anche un sistema più giusto, in cui la potenza delle nuove tecnologie sia messa al servizio di una relazione più trasparente e collaborativa tra Stato e contribuenti.
2. L'evoluzione tecnologica nell'amministrazione fiscale
2.1. Dalla digitalizzazione all'Intelligenza Artificiale nell'ambito fiscale
L'amministrazione fiscale ha vissuto, negli ultimi decenni, una progressiva trasformazione tecnologica che ha ridefinito radicalmente le modalità operative delle autorità tributarie.
Questo percorso evolutivo è passato attraverso diverse fasi, dall'informatizzazione di base con la digitalizzazione degli archivi cartacei e l'introduzione delle prime dichiarazioni elettroniche, fino all'era dei big data fiscali.
Quest'ultima fase è stata caratterizzata dall'espansione massiccia dei dati a disposizione dell'amministrazione finanziaria, con la fatturazione elettronica come catalizzatore fondamentale, e dalla crescente interconnessione tra database diversi.
Le amministrazioni fiscali hanno implementato sistemi di analisi dei dati sempre più sofisticati, sviluppando applicazioni di business intelligence e data analytics per estrarre informazioni significative, identificare correlazioni e supportare l'attività di accertamento con indicatori di rischio raffinati.
La capacità di incrociare dati da fonti diverse (dichiarazioni fiscali, fatture elettroniche, dati bancari, registri immobiliari) ha potenziato l'efficacia dei controlli. Lo scambio automatico di informazioni tra autorità fiscali, come il Common Reporting Standard (CRS) promosso dall'OCSE, ha ulteriormente rafforzato il contrasto a fenomeni evasivi transnazionali. La fase attuale vede l'integrazione dell'Intelligenza Artificiale nei processi di accertamento tributario.
A differenza dei precedenti sistemi basati su regole predefinite, l'IA introduce apprendimento e adattamento. I sistemi di machine learning, in particolare, analizzano enormi quantità di dati fiscali per identificare pattern e correlazioni non evidenti, addestrandosi a riconoscere indicatori di potenziali comportamenti evasivi o elusivi sulla base dell'analisi di casi storici. Tecniche di natural language processing (NLP) permettono di estrarre informazioni da documenti fiscali non strutturati, mentre la computer vision può analizzare documenti scansionati. L'IA sta trasformando la selezione dei contribuenti da controllare, affinando l'analisi del rischio e concentrando le risorse ispettive. Si prevede un'integrazione sempre più profonda dell'IA in tutte le fasi del processo di accertamento fiscale.
Questa evoluzione solleva questioni fondamentali di trasparenza algoritmica, tutela della privacy e garanzie procedurali in ambito tributario.
2.2. Panoramica internazionale: esperienze fiscali comparate
L'implementazione di sistemi di IA nell'amministrazione fiscale varia nei diversi paesi.
Negli Stati Uniti, l'Internal Revenue Service (IRS) utilizza il Return Review Program (RRP) con algoritmi di machine learning per identificare dichiarazioni potenzialmente fraudolente, assegnando punteggi di rischio. Ciò ha prevenuto rimborsi fraudolenti significativi, ma ha sollevato dibattiti sulla trasparenza algoritmica e sui diritti dei contribuenti, portando l'IRS a iniziative per migliorare la spiegabilità dei suoi sistemi.
Nel Regno Unito, Her Majesty's Revenue and Customs (HMRC) ha sviluppato il sistema Connect, che integra dati da molteplici fonti (registri fiscali, dati bancari, social media) utilizzando data mining e network analysis per creare una visione olistica della posizione finanziaria dei contribuenti. Connect ha incrementato l'efficienza dei controlli fiscali e viene usato anche per comunicazioni mirate ai contribuenti, incentivando la compliance volontaria.
Singapore, con l'Inland Revenue Authority of Singapore (IRAS), ha implementato l'AssistedCompliance Assurance Program (ACAP), che usa l'IA per valutare la robustezza dei controlli interni delle aziende per la conformità fiscale (specie IVA/GST). Le aziende con rating elevato beneficiano di controlli semplificati, promuovendo una partnership tra amministrazione fiscale e contribuenti.
L'Australian Taxation Office (ATO) con il programma Smarter Data utilizza analytics e IA per analizzare grandi volumi di dati e identificare comportamenti anomali, incluse tecniche di network analysis per schemi di evasione complessi e analisi di fonti aperte. L'ATO comunica pubblicamente le aree di focus della sua attività di analytics per trasparenza e deterrenza.
A livello di Unione Europea, il programma Fiscalis supporta la cooperazione e lo sviluppo di strumenti comuni. Il Transaction Network Analysis (TNA) consente di condividere e analizzare dati su transazioni transfrontaliere per identificare frodi IVA, integrando network analysis e machine learning. L'AI Act europeo imporrà requisiti stringenti per i sistemi di IA ad “alto rischio” usati nell'accertamento tributario.
Dalle esperienze internazionali emergono lezioni chiave: approccio incrementale, team multidisciplinari, bilanciamento tra efficienza e garanzie, approccio collaborativo per la compliance, e robusta governance dei sistemi di IA fiscale.
2.3. Il contesto fiscale italiano: stato dell'arte e prospettive
L'amministrazione fiscale italiana ha percorso una progressiva digitalizzazione.
La fatturazione elettronica obbligatoria (dal 2014 per la PA, dal 2019 per B2B/B2C) ha fornito un flusso continuo di dati al Sistema di Interscambio (SDI). Le dichiarazioni precompilate (dal 2015) hanno semplificato gli adempimenti e rappresentano uno strumento di compliance preventiva, integrando dati da varie fonti. L'Anagrafe Tributaria e il Sistema Informativo della Fiscalità (SIF) hanno migliorato l'interoperabilità dei dati. Registratori telematici e lotteria degli scontrini forniscono dati in tempo reale sulle transazioni al dettaglio.
L'Agenzia delle Entrate impiega già strumenti di analisi avanzata dei dati, come sistemi di business intelligence per l'analisi del rischio e la selezione dei contribuenti, e strumenti induttivi come evasometro e redditometro. Gli Indici Sintetici di Affidabilità fiscale (ISA) utilizzano tecniche statistiche avanzate per valutare la compliance. Le sfide italiane includono la complessità del sistema fiscale, la frammentazione del tessuto economico (prevalenza di PMI), la necessità di bilanciare il contrasto all'evasione con la promozione della compliance volontaria, e una forte tradizione di tutela della privacy (GDPR). Le prospettive di sviluppo includono l'analisi predittiva per la compliance, il Natural Language Processing per l'analisi documentale, sistemi di supporto alle decisioni per i funzionari, chatbot per l'assistenza ai contribuenti, e l'applicazione dell'IA all'analisi dei dati da scambi internazionali. L'implementazione dell'IA nel fisco italiano è in transizione.
Il bilanciamento tra efficienza e tutela dei diritti del contribuente è cruciale. L'AI Act europeo sarà un riferimento normativo fondamentale, richiedendo adeguamenti tecnologici, culturali e organizzativi per trasformare l'IA in un facilitatore di un rapporto basato su trasparenza e collaborazione.
3. Fondamenti tecnici dell'IA applicata all'accertamento tributario
3.1. Machine learning e analisi predittiva nel contrasto all'evasione fiscale
L'applicazione del machine learning (ML) nell'accertamento tributario consente all'Amministrazione Finanziaria di analizzare grandi quantità di dati fiscali. I sistemi di ML “imparano” dai dati, identificando schemi associati a comportamenti evasivi o elusivi senza programmazione esplicita, addestrando algoritmi con dati storici (dichiarazioni, fatture, movimenti bancari). I modelli di ML includono algoritmi supervisionati (addestrati su casi noti di evasione/conformità per classificare nuovi contribuenti), algoritmi non supervisionati (per individuare anomalie e outlier senza etichette predefinite, utili per comportamenti inusuali), e algoritmi di apprendimento per rinforzo (che migliorano nel tempo in base ai riscontri delle verifiche).
L'analisi predittiva, tramite modelli statistici e ML, permette all'Amministrazione Finanziaria di stimare la probabilità di non conformità fiscale, prevedere il tax gap, e anticipare nuovi trend di evasione.
Modelli di risk scoring assegnano punteggi di rischio ai contribuenti, concentrando le risorse ispettive sui casi a maggiore probabilità di irregolarità. In Italia, l'Agenzia delle Entrate ha integrato tecniche di ML nei processi di analisi del rischio, specie dopo l'introduzione della fatturazione elettronica. I risultati preliminari indicano un aumento dell'efficacia dei controlli (es. frodi carosello IVA, false fatturazioni, incongruenze reddito/stile di vita). L'implementazione richiede infrastrutture e personale specializzato.
3.2. Data mining e individuazione di pattern anomali in ambito fiscale
Il data mining estrae conoscenza nascosta da grandi volumi di dati fiscali, individuando correlazioni e pattern anomali. L'efficacia dipende dalla qualità e varietà delle fonti: dichiarazioni fiscali, fatturazione elettronica, dati dall'Anagrafe dei Rapporti Finanziari, informazioni patrimoniali, dati su operazioni transfrontaliere, e fonti aperte.
La correlazione di questi dataset è fondamentale. Tecniche di data mining per l'individuazione di anomalie fiscali includono: analisi di clustering (raggruppa contribuenti omogenei, identificando chi si discosta dal gruppo); regole associative (identificano correlazioni ricorrenti); analisi delle reti (per network di evasione organizzata, come frodi carosello); rilevamento di outlier (valori che deviano significativamente dalla norma).
Applicazioni pratiche includono l'individuazione di false partite IVA, il contrasto a frodi fiscali internazionali, l'emersione di redditi non dichiarati, e il monitoraggio di settori a rischio (economia digitale, cripto-attività). L'analisi della fatturazione elettronica tramite data mining ha permesso di identificare reti di fatture soggettivamente inesistenti.
3.3. Algoritmi decisionali nell'accertamento tributario: potenzialità e limiti
Gli algoritmi decisionali supportano o automatizzano le decisioni nei controlli fiscali. Possono essere classificati come: algoritmi di supporto alle decisioni (forniscono indicazioni ai funzionari, che mantengono la responsabilità); algoritmi semi-automatici (decisioni preliminari validate da un umano, es. preselezione dichiarazioni); algoritmi completamente automatici (decisioni senza intervento umano immediato, usati per controlli formali standardizzati o comunicazioni preventive in Italia).
La complessità varia da sistemi basati su regole a modelli di deep learning. Le potenzialità includono efficienza operativa, consistenza decisionale, capacità di processare milioni di posizioni, adattabilità a nuove forme di evasione, e riduzione della discrezionalità. Sono promettenti nella tax compliance preventiva (comunicazioni automatizzate su incongruenze).
I limiti e le criticità sono: il problema della "scatola nera" (black box) per algoritmi avanzati, con processi decisionali non interpretabili, che contrasta con la trasparenza e motivazione degli atti amministrativi tributari; dipendenza dalla qualità dei dati di addestramento; rischio di bias algoritmici che possono perpetuare distorsioni storiche; difficoltà di adattamento a contesti fiscali complessi che richiedono giudizio umano; rischio di elusione algoritmica da parte di contribuenti sofisticati.
È cruciale un'integrazione uomo-macchina: l'algoritmo per lo screeninginiziale, l'operatore umano per le decisioni finali (specie in casi complessi), e meccanismi di human in the loop. Ciò richiede un ripensamento organizzativo e formativo per i funzionari dell'Amministrazione Finanziaria.
4. L'AI Act europeo e le sue implicazioni fiscali
4.1. Classificazione dei sistemi di IA ad alto rischio nel contesto tributario
L'AI Act europeo classifica le applicazioni di IA in base al rischio.
I sistemi di IA usati dalle autorità pubbliche per valutare l'accesso a servizi pubblici, determinare benefici, o analizzare la solvibilità sono classificati "ad alto rischio". Per estensione, gli strumenti di IA impiegati dall'Amministrazione Finanziaria per l'analisi del rischio fiscale, la selezione dei contribuenti per verifiche, e l'elaborazione di ipotesi di accertamento rientrano in questa categoria. Ciò è dovuto al potenziale impatto sulla sfera patrimoniale e sui diritti dei contribuenti, all'influenza sulla reputazione economica, agli effetti a lungo termine degli accertamenti, e all'asimmetria informativa accentuata dall'opacità dei sistemi di IA.
Questa classificazione comporta obblighi per l'Amministrazione Finanziaria: valutazione di conformità ex ante; registrazione in database europei; monitoraggio post-implementazione; documentazione tecnica dettagliata. Ciò richiederà un investimento in risorse, competenze e processi.
Non tutti i sistemi usati in ambito fiscale saranno ad alto rischio. Strumenti puramente analitici, di supporto informativo, potrebbero avere requisiti meno stringenti. Tuttavia, anche sistemi consultivi possono influenzare le decisioni umane (automation bias). I sistemi di scoring del rischio fiscale sono in una zona grigia, potendo orientare la selezione dei controlli.
4.2. Obblighi di trasparenza algoritmica in materia fiscale
Il principio di trasparenza è un pilastro dell'AI Act, rilevante nell'accertamento tributario.
La trasparenza ex ante (progettazione) impone: documentazione delle scelte progettuali (architettura algoritmo, selezione variabili, ponderazione); tracciabilità dei dataset di addestramento; esplicitazione degli obiettivi dell'algoritmo. Ciò contrasta il fenomeno della black box, problematico nel contesto tributario per l'esercizio del diritto di difesa.
La trasparenza operativa richiede che le decisioni/raccomandazioni dei sistemi di IA siano spiegabili in termini comprensibili. Ciò implica: generazione automatica di spiegazioni (fattori determinanti, peso relativo); limitazioni all'uso di algoritmi "opachi" (es. deep learning) bilanciate da meccanismi di spiegabilità; spiegazioni modulabili (livello base per contribuenti, dettagliato per consulenti/giudici).
Nell'accertamento fiscale, ciò potrebbe significare fornire con l'avviso di accertamento un documento esplicativo (variabili fiscali determinanti, deviazione dalla norma, grado di confidenza dell'algoritmo).
La trasparenza procedurale si traduce in: diritto di accesso alle informazioni algoritmiche per il contribuente; diritto di contestazione delle risultanze algoritmiche (non solo fatti/qualificazione giuridica, ma correttezza elaborazione); diritto a revisione umana per decisioni basate esclusivamente su elaborazioni automatizzate.
I limiti alla trasparenza includono: tutela proprietà intellettuale; prevenzione elusione algoritmica; sicurezza dei sistemi. L'interpretazione di tali limiti deve bilanciare senza svuotare il principio di trasparenza, tendenzialmente interpretato estensivamente dalla giurisprudenza.
4.3. Supervisione umana e accountability nell'applicazione fiscale dell'IA
Supervisione umana e accountability sono cruciali nell'AI Act per i sistemi ad alto rischio, specie nell'accertamento tributario. La supervisione umana adeguata può declinarsi in: modello human-in-the-loop (ogni decisione algoritmica validata da un funzionario prima degli effetti sul contribuente, più garantista ma oneroso); modello human-on-the-loop (intervento umano possibile durante il processo, ma non validazione di ogni decisione; monitoraggio e intervento in caso di anomalie); modello human-in-command (controllo generale del funzionario su obiettivi/parametri, maggiore autonomia all'algoritmo nei singoli casi).
La scelta dovrà bilanciare efficienza e garanzie, forse con approccio differenziato. La supervisione richiede personale con competenze adeguate, formazione specifica e autorità per modificare le indicazioni algoritmiche (programmi formativi, linee guida operative, team multidisciplinari). L'accountability assicura che le decisioni con IA siano riconducibili a soggetti identificabili e responsabili.
L'AI Act impone: tracciabilità delle decisioni (ogni passaggio documentato, inclusi interventi umani); attribuzione chiara delle responsabilità (identificazione funzionari); log di sistema obbligatori. Ciò si estende alle fasi pre-accertamento (selezione contribuenti, analisi preliminare).
Meccanismi di governance includono: comitati etici interni; audit regolari (preferibilmente indipendenti); sistemi di gestione del rischio. In Italia, potrebbero integrarsi con organismi come il Garante del Contribuente.
La responsabilità giuridica per danni da decisioni algoritmiche erronee resta in capo all'ente che usa il sistema IA (Amministrazione Finanziaria nel contesto tributario). Ciò può implicare diritto al risarcimento semplificato e onere della prova modificato a carico dell'Amministrazione. L'implementazione in Italia richiederà adeguamenti normativi (Statuto Diritti Contribuente), regolamenti interni (Agenzia Entrate), formazione specialistica e collaborazione interistituzionale.
5. Diritti del contribuente nell'era dell'IA fiscale
5.1. Il principio di trasparenza e la “scatola nera” algoritmica nell'accertamento
Il principio di trasparenza è fondamentale nel rapporto contribuente-amministrazione finanziaria, ancor più con l'IA nell'accertamento tributario, dove la “scatola nera” algoritmica (opacità dei processi decisionali di algoritmi avanzati come reti neurali profonde) è un ostacolo.
Un contribuente potrebbe ricevere un accertamento basato su analisi algoritmiche di cui non comprende la logica. Lo Statuto dei Diritti del Contribuente (L. 212/2000) sancisce il diritto a conoscere presupposti e ragioni della decisione amministrativa.
Con l'IA, si pone il problema di come garantire una spiegazione chiara. La giurisprudenza afferma che l'amministrazione deve fornire una spiegazione comprensibile della selezione del contribuente, delle variabili considerate dall'algoritmo e del loro peso, e di quali elementi del profilo fiscale hanno attivato l'alert.
Per conciliare efficienza IA e trasparenza, si dovrebbe usare l'Explainable AI (XAI), con modelli interpretabili, tecniche di spiegazione post-hoc, e report automatici in linguaggio naturale. L'amministrazione dovrebbe documentare le logiche generali degli algoritmi, garantire tracciabilità, e predisporre interfacce user-friendly. La trasparenza non implica la divulgazione integrale del codice, ma un livello di comprensibilità sufficiente per la difesa del contribuente.
5.2. Il diritto al contraddittorio di fronte alle decisioni fiscali automatizzate
Il diritto al contraddittorio preventivo è cardine del procedimento tributario.
Con l'IA, la sua attuazione presenta nuove sfide. L'ordinamento italiano ha rafforzato il contraddittorio preventivo, ma l'IA richiede un ripensamento delle sue modalità. Le sfide specifiche includono: asimmetria informativa (contribuente svantaggiato tecnicamente); difficoltà di contestazione specifica (senza comprensione dell'algoritmo); rischio di eccessiva deferenza dei giudici tributari verso le conclusioni algoritmiche. Per garantire l'effettività del contraddittorio: disclosure algoritmica qualificata (informazioni dettagliate su algoritmo, dati, conclusioni specifiche); diritto di contestazione tecnica (affidabilità algoritmo, margini errore, qualità dati); assistenza tecnica specializzata per contribuenti; revisione umana qualificata obbligatoria delle risultanze algoritmiche prima dell'accertamento.
L'IA può essere un'opportunità per un contraddittorio "aumentato": portali digitali per visualizzare elementi di selezione; simulatori per valutare impatto di correzioni; report automatici su criticità. Ciò trasformerebbe il contraddittorio in collaborazione.
5.3. La tutela contro le discriminazioni algoritmiche in ambito tributario
Un rischio dell'IA nell'accertamento tributario è la discriminazione algoritmica, con bias che penalizzano gruppi di contribuenti. I bias (distorsioni sistematiche) possono manifestarsi come selezione sproporzionata per controlli, standard di valutazione più severi, o interpretazione differenziata di comportamenti simili.
Essi posssono verificarsi per molteplici cause: bias nei dati di addestramento (se i dati storici riflettono discriminazioni); bias di selezione (campioni non rappresentativi); proxy discriminatori (variabili correlate a caratteristiche sensibili escluse).
Il principio di non discriminazione (costituzionale ed europeo) è un limite. L'AI Act europeo impone obblighi per sistemi IA ad alto rischio: test per bias; misure di mitigazione; monitoraggio continuo. A livello nazionale, gli artt. 3 e 53 Cost. impongono accertamenti basati su elementi oggettivi e pertinenti. Strategie di prevenzione/correzione sono:
a. Progettazione: obiettivi chiari, identificazione rischi, esclusione variabili irrilevanti e discriminanti.
b. Addestramento: dataset rappresentativi/bilanciati, tecniche di debiasing, test di equità.
c. Implementazione: monitoraggio output, audit indipendenti, meccanismi di feedback.
Revisione umana: formazione funzionari su bias, protocolli di verifica equità, potere di discostarsi da indicazioni algoritmiche. Rimedi per il contribuente: procedurali (contestazione natura discriminatoria in contraddittorio); processuali (eccezione di discriminazione nel processo tributario, con inversione onere prova); tutela collettiva. La tutela contro le discriminazioni è funzionale alla fiducia nel sistema fiscale.
6. Privacy e protezione dei dati nel contesto dell'accertamento fiscale
6.1. Compliance al GDPR nelle attività di accertamento tributario
L'uso dell'IA nell'accertamento tributario richiede un'attenta applicazione del Regolamento Generale sulla Protezione dei Dati (GDPR). L'Amministrazione Finanziaria, titolare del trattamento, deve bilanciare efficacia amministrativa e diritti dei contribuenti.
La base giuridica del trattamento (art. 6, par. 1, lett. e GDPR: esecuzione compito interesse pubblico) non esime dal rispetto dei principi di necessità e proporzionalità. Gli artt. 13 e 14 GDPR impongono obblighi informativi chiari su modalità raccolta dati, finalità, esistenza processi decisionali automatizzati, logica algoritmi, e conseguenze.
L'art. 22 GDPR, che sancisce il diritto a non essere sottoposto a decisioni basate unicamente su trattamenti automatizzati con effetti giuridici significativi, è centrale. Un accertamento fiscale generato solo da un algoritmo, senza revisione umana effettiva, potrebbe essere incompatibile.
I sistemi IA devono garantire intervento umano significativo, permettere al funzionario di discostarsi dalle indicazioni algoritmiche, e documentare la valutazione umana. È necessaria una Valutazione d'Impatto sulla Protezione dei Dati (DPIA, art. 35 GDPR) che identifichi rischi, valuti necessità/proporzionalità, stabilisca misure di mitigazione, e coinvolga il Responsabile della Protezione dei Dati. La DPIA deve essere un processo continuo.
6.2. Il ruolo del Garante per la Protezione dei Dati Personali in ambito fiscale
Il Garante per la Protezione dei Dati Personali (GPDP) ha un ruolo cruciale.
Esercita funzione consultiva e di indirizzo preventivo tramite: consultazione preventiva obbligatoria (art. 36 GDPR) per rischi elevati; elaborazione linee guida settoriali per IA fiscale; promozione codici di condotta (art. 40 GDPR). Ha poteri ispettivi e sanzionatori sui sistemi IA dell'Amministrazione Finanziaria: verifiche ispettive; accesso algoritmi/modelli; valutazione misure; imposizione limitazioni; sanzioni (anche a PA). Deve sviluppare collaborazione istituzionale con Amministrazione Finanziaria (privacy by design), organismi di controllo AI Act, e mondo accademico. Tutela i diritti degli interessati (accesso, opposizione, non essere sottoposto a decisioni automatizzate), gestendo reclami e sviluppando una "giurisprudenza" amministrativa sull'IA fiscale.
6.3. Minimizzazione dei dati e sicurezza delle informazioni fiscali
Il principio di minimizzazione (art. 5 GDPR) è rilevante, contrastando la tendenza a massimizzare i dati per gli algoritmi.
È necessario: identificare dati fiscali rilevanti; documentare necessità di ogni tipologia; rivalutare pertinenza; procedure cancellazione. La sfida è sviluppare algoritmi performanti su dataset minimizzati. Tecniche di pseudonimizzazione (in addestramento) e anonimizzazione (per analisi statistiche aggregate), e approcci di privacy differenziale sono essenziali, implementate con standard avanzati.
La sensibilità dei dati fiscali impone misure di sicurezza robuste: cifratura end-to-end; controllo accessi granulare; logging avanzato; compartimentazione; monitoraggio proattivo. Attenzione alla protezione delle logiche algoritmiche. Una data governance robusta prevede: registro trattamenti dettagliato; catena responsabilità definita; procedure data quality; audit trail completo; formazione continua.
La gestione delle violazioni dei dati richiede: protocolli rilevazione tempestiva; notifica al Garante (art. 33 GDPR); criteri informazione contribuenti; analisi post-incidente. Una violazione di dati fiscali ha conseguenze gravi. La protezione dati è condizione per sostenibilità e accettabilità sociale dell'IA fiscale.
7. Il contraddittorio preventivo nell'era dell'IA fiscale
7.1. Lo Statuto dei Diritti del Contribuente aggiornato alle sfide tecnologiche fiscali
L'IA nell'accertamento tributario richiede un ripensamento delle garanzie dello Statuto dei Diritti del Contribuente (L. 212/2000).
Le recenti novelle hanno enfatizzato il contraddittorio preventivo, ma non hanno affrontato organicamente gli accertamenti automatizzati.
È necessaria una rilettura dei principi statutari: il principio di collaborazione e buona fede (art. 10) deve includere l'obbligo per l'Amministrazione di esplicitare l'uso di IA e fornire informazioni accessibili; il principio di chiarezza e motivazione degli atti (art. 7) deve garantire la comprensibilità delle decisioni algoritmiche. Manca un "diritto all'informazione algoritmica", evoluzione del diritto all'informazione (art. 5), che dovrebbe garantire conoscenza di: esistenza processi decisionali automatizzati; categorie dati usati; logica funzionamento IA; peso variabili; affidabilità statistica.
L'inclusione nello Statuto sarebbe un aggiornamento fondamentale. Serve una nuova generazione di diritti procedimentali: diritto a supervisione umana decisioni automatizzate; diritto contestare output algoritmici; diritto a non subire profilazione discriminatoria; diritto a revisione periodica algoritmi.
7.2. Accesso alle informazioni algoritmiche durante il contraddittorio fiscale
L'effettività del contraddittorio preventivo con decisioni automatizzate dipende dalla capacità del contribuente di comprendere e contestare le risultanze algoritmiche.
La "scatola nera" algoritmica è una sfida, incompatibile con il giusto procedimento tributario. Tecniche di Explainable AI (XAI) possono rendere comprensibili le decisioni. Il diritto di accesso agli atti deve includere l'accesso a informazioni algoritmiche rilevanti.
Durante il contraddittorio, il contribuente dovrebbe ottenere: documentazione tecnica algoritmo (con limiti); dati specifici che hanno attivato l'alert; metriche performance algoritmo; criteri selezione; informazioni su misure anti-bias. Questo accesso deve bilanciarsi con esigenze di riservatezza dell'Amministrazione. La complessità tecnica richiede il coinvolgimento di consulenti tecnici con competenze informatiche e di data science per assistere il contribuente. Il loro ruolo potrebbe essere formalmente riconosciuto.
7.3. Strategie difensive contro gli accertamenti tributari basati su IA
Il contribuente e i consulenti devono sviluppare strategie difensive specifiche.
Contestazione della qualità dei dati usati dall'algoritmo (incompleti, non aggiornati, non pertinenti, erronei, non contestualizzati). Messa in discussione dell'idoneità dell'algoritmo rispetto alla specificità del contribuente (applicabilità modello predittivo a casi atipici, rappresentatività campione addestramento, adeguatezza variabili, fattori confondenti). Richiesta di rivalutazione umana qualificata delle risultanze algoritmiche, evidenziando perché l'algoritmo non ha considerato peculiarità del caso. Contestazione dei profili discriminatori, se vi è ragione di ritenere la decisione influenzata da fattori non pertinenti (supportata da evidenze, con onere prova assenza bias sull'Amministrazione). Approccio collaborativo e propositivo: fornire dati aggiuntivi, proporre interpretazioni alternative, suggerire fattori contestuali, dimostrare conformità a prassi o indicazioni amministrative.
L'effettività del contraddittorio dipende dall'adattamento di istituti e garanzie al nuovo contesto tecnologico.
8. Profili processuali e probatori nell'accertamento tributario con IA
8.1. Il valore probatorio degli output algoritmici nel processo tributario
Gli output algoritmici sono una forma di “prova scientifica” la cui attendibilità dipende dalla validazione dei metodi. L'opacità di algoritmi di ML avanzati ne complica la valutazione.
In ambito tributario, possono essere assimilati a presunzioni semplici (art. 2729 c.c.), richiedendo gravità, precisione e concordanza. L'output algoritmico non è prova diretta di evasione/elusione, ma indizio qualificato che necessita riscontri.
La giurisprudenza tributaria dovrà valutare l'affidabilità considerando: qualità dati addestramento; trasparenza processo decisionale; validazione scientifica modello; supervisione umana. Si deve evitare “scientismo fiscale” e preservare il libero convincimento del giudice. Un rischio è la sovrastima del valore probatorio (automation bias). Per contrastarlo occorrono: formazione magistrati tributari su IA; linee guida valutazione critica evidenza algoritmica; possibilità verifiche incrociate.
9. Conclusioni
Intelligenza Artificiale e Accertamento Tributario: Verso un Nuovo Paradigma
L'implementazione dell'intelligenza artificiale nei processi di accertamento tributario rappresenta un punto di svolta, destinato a ridefinire il rapporto tra Amministrazione Finanziaria e contribuente.
Gli algoritmi di machine learning, l'analisi predittiva e le tecniche di data mining offrono potenzialità per rendere più efficiente, mirato e meno invasivo il controllo fiscale.
Tuttavia, l'efficienza non può essere l'unico valore guida. Il sistema tributario esprime valori fondamentali quali l'equità, la trasparenza e il rispetto delle garanzie individuali. L'opacità algoritmica, i rischi di bias discriminatori e la potenziale compressione del diritto al contraddittorio richiedono una risposta normativa e procedurale adeguata. L'AI Act europeo è un primo passo verso un quadro regolatorio bilanciato.
La classificazione dei sistemi di IA usati nell'accertamento fiscale come "ad alto rischio" impone obblighi di trasparenza, supervisione umana e non discriminazione.
Il ruolo del Garante per la Protezione dei Dati Personali è centrale per assicurare il rispetto del GDPR.
Sarà necessario un adeguamento delle norme procedurali tributarie, come lo Statuto dei Diritti del Contribuente, per garantire un contraddittorio preventivo effettivo.
Sul piano processuale, i giudici tributari dovranno sviluppare nuove competenze per valutare la valenza probatoria degli output algoritmici. Prevenire i bias algoritmici è una sfida significativa, che impone attenzione ai dati di addestramento e audit regolari. Il successo dell'integrazione dell'IA dipenderà dal dialogo costruttivo tra tutti gli attori coinvolti.
L'obiettivo è un sistema fiscale tecnologicamente avanzato ma umano nei valori: l'IA al servizio dell'equità fiscale e della semplificazione, senza compromettere trasparenza, contraddittorio e non discriminazione. Questa è una sfida etica e culturale.
Il futuro dell'accertamento tributario sarà tecnologico, ma deve rimanere profondamente umano.
Bibliografia
AA.VV., Compendio di Diritto Tributario, I edizione, Nel Diritto Editore, 2024
M. DI ANTONIO, L’utilizzo dell’intelligenza artificiale da parte del fisco: limiti e prospettive, anche all a luce dell’Artificial Intelligence Act dell’Unione Europe, in Rivista di Diritto Tributario 5 dicembre 2024.
S. DORIGO, G. MERCURI, AI e Amministrazione finanziaria in Italia: analisi del rischio fiscale, attuazione del rapporto tributario e profili organizzativi, in Studi Tributari Europei, Vol.14 (2024), I.57 – I.83, 10 aprile 2025.
G. DURANTE, L’utilizzo dell’Intelligenza Artificiale negli Accertamenti da indagini finanziarie: molte certezze ma molti interrogativi, in www.avvocatodurante.it, 11 febbraio 2025
A. COLLI VIGNARELLI, Anche la Corte Costituzionale (sent. 21 marzo 2023, n. 47= si esprime sull'essenzialità del contraddittorio endoprocedimentale (in nuce nella recente delega fiscale), in Rivista di Diritto Tributario, 29 aprile 2023.
C. LAUDANNA, Norme privacy in rapporto alla lotta all’evasione fiscale, in Data Protection Law, n. 1/2021, 34 ss.
A. ODDI, Intelligenza Artificiale e accertamenti fiscali alla luce dell’AI Act, in www.diritto.it, 21 gennaio 2025.
G. MONTEDORO, Intelligenza artificiale e digitalizzazione fra Costituzione, amministrazione e giustizia, in Giustizia Amministrativa, 2024.
L. NAZZICONE, La motivazione della sentenza. Stile e tecniche, Milano, Giuffrè, 2024
L. VIOLA, L’intelligenza artificiale nel procedimento e nel processo amministrativo, in Federalismo, n. 21 del 7 novembre 2018.
Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act) (Text with EEA relevance), in eur-lex.europa.eu
Scambio Automatico Finanziario Internazionale (CRS DAC2 - Modalità e Termini), in www.agenziaentrate.gov.it.
Fatturazione elettronica: Garante privacy, necessarie maggiori garanzie per la memorizzazione dei dati. Sì condizionato alle nuove regole tecniche dell’Agenzia delle entrate in www.garanteprivacy.it
Provvedimenti del Garante in materia di trattamento di dati fiscali in www.garanteprivacy.it