• . - Liv.
ISCRIVITI (leggi qui)
Pubbl. Mar, 7 Feb 2023

Il ruolo dei Big Data e dell´Intelligenza Artificiale nel contrasto al fenomeno del Money Laundering

Modifica pagina

Paolo Del Gaudio
Laurea in GiurisprudenzaUniversità degli Studi di Salerno



Il presente lavoro analizza le potenzialità dell´utilizzo dell´Intelligenza Artificiale e dei Big Data nel contrasto al fenomeno del Money Laundering. L’elaborato analizza le caratteristiche principali dei Big Data ed offre una ricostruzione storica delle principali tappe evolutive dell’Intelligenza Artificiale. Viene inoltre fornita un’analisi fenomenologica e normativa del Money Laundering, esaminando i principali articoli del D. Lgs. 231/2007. In ultimo si procede all’analisi delle applicazioni concrete dell’Intelligenza Artificiale e dell’analisi dei Big Data in ambito AML/CFT, sottolineando ostacoli e rischi del ricorso a forme di gestione completamente automatizzate del rischio riciclaggio.


ENG

The role of Big Data and Artificial Intelligence in contrasting the Money Laundering phenomenon

This work analyzes the potential of using Artificial Intelligence and Big Data in contrasting the phenomenon of Money Laundering. The paper analyzes the main characteristics of Big Data and offers a historical reconstruction of the main evolutionary stages of Artificial Intelligence. A phenomenological and regulatory analysis of Money Laundering is also provided, examining the main articles of Legislative Decree 231/2007. Finally, we proceed with the analysis of the concrete applications of Artificial Intelligence and Big Data analysis in the AML/CFT field, underlining the obstacles and risks of using fully automated forms of money laundering risk management.

Sommario: 1. Introduzione; 2. Caratteristiche dei Big Data; 3. Nascita e sviluppo dell’Intelligenza Artificiale; 4. Intelligenza Artificiale: definizioni; 5. Intelligenza Artificiale e Algoritmo: relazione e funzionamento; 6. Diverse declinazioni di Intelligenza Artificiale: 6.1. Intelligenza Artificiale debole: l’approccio simbolico; 6.2. Intelligenza Artificiale forte: l’approccio sub simbolico; 6.3. Il Deep Learning; 7. Analisi fenomenologica del riciclaggio - 8. Connotati giuridici del fenomeno criminoso: evoluzione normativa e struttura dell’art. 648-bis cod. pen.; 9. Genesi ed evoluzione del D. Lgs. 231/2007; 10. Contenuto e modalità di adempimento degli obblighi di adeguata verifica; 11. Criteri per la determinazione della titolarità effettiva di clienti diversi dalle persone fisiche; 12. Obblighi del cliente e modalità di conservazione dei dati e delle informazioni; 13. Obblighi di segnalazione delle operazioni sospette; 14. Tutela del segnalante e divieto di comunicazioni inerenti le segnalazioni di operazioni sospette; 15. Obblighi di astensione, comunicazione e segnalazione delle violazioni; 16. Sanzioni e procedimento sanzionatorio; 17. Data Driven Compliance; 18. Antiriciclaggio e Intelligenza Artificiale; 19. Big Data e Intelligenza Artificiale: strumenti pratici al servizio dell’Anti Money Laundering; 20. Conclusioni.

1. Introduzione 

Sempre più spesso articoli di giornale, servizi televisivi, blog e social media utilizzano, non senza una certa enfasi, il termine Big Data. Ma di cosa si tratta in realtà?

Banalmente, con tale termine ci si riferisce all’accumulo sistematico di enormi quantità di dati, all’interno di computer centralizzati con grandi capacità di memoria e di calcolo, generati dalla digitalizzazione di fonti tradizionali quali biblioteche, archivi di Stato, o nativamente digitali come, ad esempio, i dati prodotti dalla navigazione in rete, le foto e i video condivisi in tempo reale sui social o sulle app di messaggistica istantanea. A questo enorme flusso di dati si stanno aggiungendo via via anche quelli raccolti da miliardi di sensori sparsi nell’ambiente e connessi con la rete, capaci di fornire a chi li raccoglie ogni genere di informazione sulla nostra quotidianità (smart tv, robot aspirapolvere, etc.).

Come si può agevolmente intuire, la mole di questi dati sfugge a qualsiasi classificazione tradizionale, da qui la fortunata scelta[1] di definire questa quantità smisurata di informazioni unicamente con l’aggettivo indefinito “Big”. Questo non spiega, però, l’esaltazione che accompagna l’utilizzo di questo termine. Eppure, l’uomo da sempre ha conservato ed organizzato grandi quantità di informazioni, basti pensare alle dimensioni della Biblioteca di Alessandria, prima grandiosa realizzazione libraria del mondo occidentale.

Le ragioni della ridondanza dei Big Data sono racchiuse nelle mutate prospettive dalle quali ci si approccia ai dati, non più computabili e precisi, utilizzati per descrivere una determinata relazione causa-effetto ma incomputabili e sovrabbondanti, chiamati a descrivere i fenomeni oggetto di studio attraverso la costruzione di modelli predittivi, in base a correlazioni tra pattern emergenti, capaci di individuare schemi e comportamenti ricorrenti ma anche quantificare l’incertezza che discende dalla variabilità del fenomeno oggetto di analisi.

I pattern emergenti dai Big Data non costituiscono di per sé strumenti predittivi. Affinché possano costituire la base di modelli predittivi efficaci, i dati dovranno essere sufficientemente adeguati per tipologia, varietà e significatività. I processi che portano i dati ad essere rilevanti comportano, quindi, la creazione di altri dati, migliori.

L’avvento dei Big Data ha segnato il superamento della pratica del campionamento, volta ad investigare la relazione di causalità tra fenomeni, in favore della correlazione, ovvero la tendenza di una variabile a cambiare in funzione di un’altra. Il campionamento, considerato a lungo il metodo migliore per estrarre informazioni dalla realtà, si basava sull’assunto che l’osservazione del tutto era impossibile e che occorreva procedere per astrazione, dal particolare al generale. I Big Data, seppur non inglobano la totalità delle informazioni, sono sufficientemente ampi da sconfessare questo assunto.

L’assenza di un campionamento e l’individuazione di correlazioni attraverso gli algoritmi di Data Mining, anche laddove si basino su elementi non prioritari o esplicativi di ciò che si sta analizzando, garantiscono percentuali di successo, in termini di rappresentatività, analisi ed estrazione di informazioni, maggiori di qualsiasi altra metodologia di studio. Famoso, in proposito, il caso di un algoritmo che riconosce con successo tra un lupo e un cane basandosi unicamente sull’elemento neve presente o meno sullo sfondo della foto.

L’enorme quantitativo di dati fa emergere la necessità, racchiusa nella famosa citazione di Gary King “Big Data is not about the data[2]”, di filtrare e depurare i dati da una serie di informazioni inutili, trasformando questa grande mole in sapere e quindi conoscenza. I dati da soli non ci dicono niente, è la capacità di estrapolazione ed il relativo metodo di intuizione che fa la differenza portando alla luce relazioni ed informazioni altrimenti oscure.

La sfida e la rivoluzione dei Big Data, pertanto, consistono nel formare nuove figure professionali con competenze trasversali, capaci di affrontare vecchi problemi con strumenti nuovi, affrancate dagli schemi e dai modelli tradizionali, aperte a percorsi di analisi interdisciplinari e che sappiano coniugare le enormi potenzialità dei Big Data con i principi etici, la tutela dell’individuo e delle minoranze. I Big Data, infatti, portano con sé competitività e progresso ma lasciano in sospeso dubbi[3] circa la reale capacità di addestrare algoritmi di Machine Learning privi di bias, errori sistematici, discriminazioni e di essere indipendenti dalle attese e dall’interpretazione soggettiva.

2. Caratteristiche dei Big Data     

L’origine del termine Big Data risale al 2001 e si deve a Doug Laney che definì i Big Data come un contesto di elaborazione dei dati dove si hanno grandi Volumi, si elabora a grandi Velocità, si ha una grande Varietà di dati[4]. Solo nel 2011, però, con il rapporto di McKinsey intitolato “Big Data: The next frontier for innovation, competition and productivity”, i Big Data salirono agli onori della cronaca, divenendo quel termine ad alto impatto scenico continuamente messo in risalto da testate giornalistiche, riviste specializzate ed altri mezzi di informazione.

Nella locuzione Big Data è insita una profonda trasformazione a livello sociale, economico ed umano, indicando non solo la disponibilità di una grande quantità di dati ma anche la capacità di acquisirli, processarli, analizzarli ed estrarre valore dagli stessi. Nell’attuale momento storico i Big Data hanno assunto, nell’attività di produzione e di scambio, una importanza via via crescente tanto da arrivare ad essere considerati la principale risorsa economica in molti settori[5]. Si pensi che nel 2018 il volume totale dei dati creati nel mondo è stato di 28 zettabyte (28 trilioni di Gbyte), un aumento dieci volte superiore a quello del 2011. Celebre, in proposito, l’affermazione resa, solo qualche anno prima, da Eric Emerson Schmidt: “there were 5 Exabytes of information created between the dawn of civilization through 2003, but than much information is now created every 2 days[6]”.  

L’aumento esponenziale dei dati raccolti, dovuto in massima parte alla forte espansione dell’utilizzo di internet, ha rappresentato un vero volano per la nascita della Data Driven Economy[7] ovvero l’economia in cui l’uso dei dati è centrale nelle strategie e nella gestione del business così come nello sviluppo di nuovi prodotti e servizi, nei processi decisionali, nel rinnovamento dei modelli di business e nella creazione di innovazione.

Dall’aumento del volume dei dati scaturisce la necessità di raccogliere (gathering) e conservare (storage) in maniera efficiente gli stessi nonché di avvalersi di professionalità altamente specializzate in grado di gestirne la complessità ed estrarne il maggior valore possibile (performance dei dati). Tale compito risulta tutt’altro che semplice, anzitutto perché i dati possono essere molto diversi tra di loro, in termini di struttura, e poi perché la provenienza dei dati da molteplici fonti li rende difficili da collegare, abbinare, ripulire e trasformare in informazione utile.

Altro elemento di complessità nella gestione del fenomeno Big Data è la velocità. Le informazioni vengono prodotte con una velocità altissima e devono perciò essere gestite in maniera altrettanto tempestiva. Se ciò non avvenisse, l’informazione estratta dai dati sarebbe obsoleta e inutile per prendere decisioni.

Le nuove tecnologie basate su algoritmi di Intelligenza Artificiale consentono oggi di gestire questi aspetti critici, creando correlazioni, stabilendo gerarchie, eseguendo valutazioni statistiche e semantiche (id est quantitative e qualitative) tra i dati provenienti da diverse fonti, in modo da estrarre informazioni utili e poi utilizzarle per prendere decisioni di qualsiasi tipo.

Gli ambiti di applicazione dei Big Dati sono i più svariati, e maggiormente lo saranno in futuro, spaziando dalla meteorologia alla finanza, dalla fisica sperimentale alle telecomunicazioni, dalla sanità alla sorveglianza militare.

Per meglio comprendere cosa siano i Big Data è necessario descriverne le caratteristiche essenziali, in parte contenute già nella definizione di Doug Laney, in parte affinate dai più recenti studi. Affinché si possa parlare di Big Data, oggi, occorre che il flusso informativo presenti:

  • Volume: inteso come enorme flusso di dati generati e raccolti. Nel mondo la quantità di dati generati raddoppia ogni 12-18 mesi. Le ragioni principali di tale aumento esponenziale risiedono nell’elevata riduzione del costo computazionale, di analisi e di stoccaggio, dei dati (in media 30-40 % annui);
  • Velocità: intesa sia come rapidità di trattamento dei dati grezzi che come produzione degli stessi. Oggi, i dati sono molto più veloci da elaborare, gestire e analizzare, molte notizie si ottengono e vengono processate addirittura in tempo reale.
  • Varietà: intesa come eterogeneità tipologica del dato, attiene alle numerose tipologie di dati disponibili, tra i quali si annoverano dati strutturati (i normali data base), semi-strutturati (testi, pagine web) e non strutturati (audio, video, foto etc.)
  • Veridicità: intesa come credibilità del dato ovvero fiducia riposta dal sistema nella bontà ed attinenza dei dati raccolti. Per generare risultati analitici corretti è imprescindibili usare input veritieri.
  • Valore: inteso come capacità di generare, attraverso processi di analisi ed elaborazione, un output capace di contribuire ad efficientare e migliorare i processi produttivi tradizionali o l’offerta di beni e servizi in termini di innovazione e personalizzazione. D’altronde ricavare valore dai dati grezzi non è solo una peculiarità ma fine ultimo della raccolta e manipolazione degli stessi.

A queste caratteristiche, i più recenti studi[8] in materia affiancano:

  • Valenza: concetto preso a presto dalla chimica e riferito alla capacità dei dati di essere in connessione con altri dati. Maggiore è il grado di connessione tra dati e più alta ne è la valenza.
  • Visualizzazione: ossia idoneità dei dati a restituire visivamente delle informazioni di sintesi da un grande ammasso di dati grezzi.

Dalle peculiarità già menzionate, emerge lampante la complessità di un fenomeno in continuo divenire, per sua natura multidisciplinare, capace di arricchirsi di nuovi connotati ad ogni progresso della tecnica e che leva opportunità ma anche rischi del tutto nuovi.

Parlando di Big Data non si può non accennare, quale principale fattore di successo dell’ecosistema digitale, alla catena del valore degli stessi. Dal momento della raccolta a quello dell’utilizzo, infatti, i dati passano attraverso varie fasi, tra loro interdipendenti, che ne accrescono gradualmente il valore. Tali fasi possono essere assimilate ad un ciclo di produzione del dato.

La prima fase consiste nell’acquisizione del dato e contempla le attività attraverso cui il dato viene raccolto ed aggregato con altri dati e, quindi, trasportato da una sorgente ad un sistema di distribuzione di dati. Una volta raccolto, poi, il dato subisce una seconda fase di lavorazione che riguarda la sua preparazione e conservazione al fine di estrarne informazioni. Successivamente viene eseguita l’analisi dei dati, vale a dire le attività inerenti all’esplorazione, la trasformazione e la modellazione al fine di mettere in evidenza i tratti salienti e, al contempo, sintetizzare le informazioni, nell’intento di portare alla luce informazioni che risultano nascoste e di maggiore interesse. A questo punto i dati vengono immagazzinati. Le modalità con cui tale fase è svolta hanno un impatto sulla velocità e sull’efficienza con cui avviene l’accesso ai dati e, di riflesso, i processi decisionali. L’ultima fase della catena del valore concerne l’utilizzo dei dati a supporto dei processi decisionali, finalità ultima a cui tutto il processo sopra delineato tende.

3. Nascita e sviluppo dell’intelligenza artificiale

L’Intelligenza Artificiale, nell’ultimo decennio, ha catalizzato ingenti investimenti che, con velocità e precisione sorprendenti, hanno permesso di sviluppare funzioni sempre più simili a quelle umane.

Le applicazioni tecnologiche dell’Intelligenza Artificiale integrano oramai ogni attività economica e sociale, venendo applicate con successo in diversi ambiti: per riconoscere oggetti e persone in tempo reale da una telecamera, per trascrivere il linguaggio parlato e tradurlo in ogni lingua oppure per consentire ai robot di apprendere movimenti coordinati e veloci.

Ai fini di una migliore comprensione dell’Intelligenza Artificiale e di come si sia giunti agli approdi moderni, è utile ripercorrere le principali tappe evolutive di un fenomeno erroneamente ritenuto confinato all’informatica.

L’analisi crono-storica parte dal 1936, anno in cui Alan Turing teorizzò una macchina in grado di svolgere qualsiasi tipo di calcolo su numeri e simboli, utilizzando un insieme prefissato di regole. La Macchina concepita da Turing altro non era che un nastro infinito in entrambe le direzioni, diviso in caselle contenenti i simboli 0 e 1 e rappresentava la memoria della macchina che poteva essere letta e scritta da una testina. Fu la nascita della logica binaria per gestire le informazioni attraverso una memoria, processo alla base del funzionamento dell’Intelligenza Artificiale.

Nel 1943 il neurofisiologo Warren McCulloch e il matematico Walter Pitts proposero un primo modello di Intelligenza Artificiale ispirato al funzionamento del sistema nervoso biologico chiamato “modello di rete neurale artificiale”, consistente in una rete di unità elementari, i cosiddetti neuroni artificiali, i quali riuscivano ad assumere due soli stati “on” o “off”. Ogni neurone passava nello stato “on” in presenza di un numero minimo di neuroni in stato “on” collegati ad esso. McCulloch e Pitts dimostrarono che qualsiasi funzione computabile poteva essere rappresentata da una rete di neuroni e che tutti i connettivi logici (“and”, “or”, ecc.) potevano essere implementati da una semplice struttura neurale artificiale, giungendo ad ipotizzare la capacità di apprendimento di questi modelli.

Questi lavori ebbero il merito di spiegare, approssimativamente, l’accensione e lo spegnimento dei neuroni, operando in un sistema binario, e dimostrando che gli stessi possono apprendere e di conseguenza possono modificare le loro azioni nel tempo.

Nel 1949, partendo dall’ipotesi di McCulloch e Pitts, inerente alla capacità di apprendere delle reti neurali, ed ispirandosi ai meccanismi di apprendimento biologici, lo psicologo Donald Hebb teorizzò un insieme di regole attraverso le quali i neuroni modificavano l’efficienza con cui si scambiavano segnali, simulando un processo di apprendimento. Questo sistema è conosciuto ancora oggi come “Apprendimento Hebbiano[9].

Nel 1950 Turing pubblicò un articolo dal titolo “Computing Machinery and Intelligence” in cui si posero le basi di un test per valutare il livello di intelligenza delle macchine. Per poter essere definita intelligente, scriveva Turing, una macchina deve ingannare un soggetto umano con le sue prestazioni, facendosi scambiare per tale. Questo test, ancora oggi noto come Test di Turing, si fondava sull’assunto che per assegnare un livello di intelligenza ad un altro essere umano si è soliti rivolgergli delle domande, quindi, per ritenere le macchine tali occorreva fare lo stesso. Questo metodo fu accettato dalla comunità scientifica perché non pretendeva di definire tutte le caratteristiche dell’intelligenza ma testava il grado di indistinguibilità di una macchina da un essere umano in una conversazione con un altro essere umano. Il test di Turing originale prevedeva un interrogatore con una tastiera e un monitor, diviso in due parti per mostrare le diverse risposte date dal computer e dall’essere umano. Venivano previsti cinque minuti per discutere di qualsiasi argomento deciso dall’interrogatore e alla scadenza si doveva decidere quale delle due chat era stata eseguita con una macchina. Se il computer fosse riuscito ad ingannare il 30% degli interrogatori medi, facendosi votare come essere umano, allora avrebbe superato il test.

Il test non è impeccabile perché se fosse svolto da due persone di diversa intelligenza, una delle due, potrebbe ottenere meno del 30% dei voti e quindi fallire il test. Il test certifica solo il fatto che la macchina possa o meno simulare il pensiero umano e non affronta la questione della consapevolezza di sé del computer. Turing, quando elaborò il test, previse che in circa 50 anni, quindi approssimativamente negli anni 2000, qualche macchina avrebbe superato il test. Ad oggi ancora nessuna macchina è riuscita nell’impresa.

Nel 1956 venne coniata l’espressione “Artificial Intelligence” dall’informatico John McCarthy durante la Dartmouth Summer Research Project. Alla conferenza McCarthy affermò che le diverse funzioni alla base della mente umana possono essere descritte rigorosamente al fine di programmare una macchina in grado di riprodurle[10]. Da questo momento in poi l’Intelligenza Artificiale divenne una vera e propria disciplina scientifica.         

Alla stessa conferenza Herbert Simon e Allen Newell presentarono il Logic Theorist, considerato il primo algoritmo di Intelligenza Artificiale simbolica. L’algoritmo era in grado di dimostrare alcuni teoremi matematici utilizzando catene logiche.

Nel 1957 Simon e Newell svilupparono anche il General Problem Solver, un algoritmo in grado di manipolare oggetti virtuali per risolvere problemi generali. Il General Problem Solver superò Logic Theorist in quanto non limitato ad un solo campo di applicazione.

Nel 1958 McCarthy descrisse Advice Taker, un sistema che doveva essere in grado di percepire la realtà circostante, rappresentarla al proprio interno e interagire con essa, così da poter rispondere agli stimoli provenienti dall’esterno.

Nel 1969 Frank Rosenblatt sviluppò il Percettrone, la prima rete neurale in grado di eseguire con successo il processo di “pattern recognition” ovvero di riconoscere schemi nei dati attraverso un approccio numerico. Il Percettrone presentava i neuroni disposti su due strati ed era in grado di classificare dati linearmente separabili. Questa architettura di base ha rappresentato la pietra miliare su cui si sono poi sviluppate le più moderne reti neurali.

In questi anni ci fu un ottimismo crescente e iniziarono i primi dibattiti sulla possibilità dell’Intelligenza Artificiale di eguagliare l’intelligenza umana. Molti ritenevano che l’Intelligenza Artificiale potesse imitare e ricreare perfettamente il funzionamento del cervello umano e questo portò notevoli fondi ed interesse da parte del grande pubblico. Alcuni informatici come Stephen Cook e Richard Karp identificarono classi computazionali che avrebbero dovuto funzionare, in linea teorica, ma intuirono che avrebbero necessitato di enormi quantità di tempo di elaborazione e di memoria per portarli a compimento.

Purtroppo, negli anni 70’ non si arrivò ai risultati desiderati e questo portò a una brusca interruzione della ricerca[11], dovuta a un interesse sempre minore e alla conseguente diminuzione dei fondi per lo sviluppo della stessa. Le difficoltà maggiori furono determinate dai limiti della potenza di calcolo e dalle limitate capacità dei computer nonché dai pochi dati disponibili in quel periodo. Ci si rese conto che l’ottimismo era stato eccessivo e che per un computer l’elaborazione di una semplice immagine richiedeva molte, troppe, informazioni.

In contemporanea, l’interesse dei filosofi portò ad una riconsiderazione del fatto che una macchina potesse realmente pensare. John Searle espose il problema della stanza cinese[12] a dimostrazione del fatto che non si poteva considerare una macchina come pensante in quanto essa non comprendeva i simboli che comunicava. L’esperimento di Searle consistette nel ricostruire una situazione similare a quella del Test di Turing, dove un essere umano, a sua insaputa, si relazionava con una macchina.  Il compito per l’umano era quello di giudicare, sulla base delle risposte fornite alle domande poste, se stesse discutendo con un altro essere umano o con una macchina. John Searle riprese questo schema sostituendosi però alla macchina. Immaginò di rimanere chiuso dentro una stanza e di essere costretto ad interagire con qualcuno all’esterno che comprendeva unicamente la lingua cinese a lui sconosciuta. Searle ipotizzò, inoltre, di avere a disposizione un libro d’istruzioni: il cd programma, contenete l’illustrazione di alcuni caratteri cinesi, associati a regole scritte in lingua a lui nota. Searle, pur continuando a non comprendere cosa gli venisse chiesto, grazie alle indicazioni contenute nel libro, riuscì a mettere in relazione una serie di simboli formali con un'altra serie di simboli formali, fornendo riposte di senso compiuto (output). Di conseguenza, Searle concluse che se il test fosse stato eseguito da una persona che non comprendeva il cinese, come nel suo caso, ma che possedesse delle istruzioni similari a quelle impartite ai computer, l’output registrato sarebbe stato lo stesso senza poter affermare che la persona avesse realmente inteso quanto comunicato all’esterno. Di conseguenza, nemmeno i computer effettuavano operazioni scientemente. La conclusione a cui giunse Searle è che l’esecuzione di un programma, per i computer, non genera comprensione e, quindi, gli stessi non possono considerarsi intelligenti. Infatti, secondo Searle i computer non hanno comportamenti intelligenti ma simulano comportamenti intelligenti.

Negli anni 80’ si assistette ad una rinascita dell’interesse per l’Intelligenza Artificiale e questo fu dovuto a uno sviluppo più pratico che teorico della stessa. Le discussioni filosofiche continuarono ma in maniera indipendente rispetto ai progressi pratici. Lo sviluppo della robotica, poi, influenzò i progressi dell’Intelligenza Artificiale creando un’intelligenza reale in grado di percepire il mondo circostante tramite il processo dell’emboiment[13].

Il ritrovato e crescente entusiasmo portò a numerose applicazioni dell’Intelligenza Artificiale in diverse aree industriali facendo registrare risultati, in termini di prestazione, superiori a quelli umani. Grazie alle ricerche di Geoffrey Hinton e Yann LeCun venne, poi, ripreso e intensificato lo studio delle reti neurali arrivando, nel 1986, all’elaborazione dell’algoritmo di retropropagazione, elemento chiave che segnò la fine dell’inverno delle reti neurali.

L’algoritmo di retropropagazione, inizialmente ideato da Brison e Ho, venne messo a punto da Rhumelart che riuscì ad addestrare reti neurali multistrato capaci di risolvere problemi più complessi.

Nel 1986 venne anche pubblicato il libro Parallel distributed processing e nacque il cosiddetto approccio “connessionista”, una stretta relazione tra informatica, statistica e neuroscienze.

L’aumento esponenziale della potenza dei calcolatori e la quantità di dati disponibili ottenuta grazie alla diffusione di Internet, a partire dagli anni ’90, permisero lo sviluppo di reti neurali sempre più profonde che, ispirandosi alla complessa rete di neuroni osservata nel cervello umano, consentì di riprodurne diverse funzioni in modo efficiente. Questi miglioramenti, conseguenza della nuova potenza computazionale disponibile[14], vennero descritti da Gordon Moore in quella che è passata alla storia come “Legge di Moore”[15] che rilevò come velocità e capacità di memoria dei computer raddoppiano ogni 18 mesi.

I progressi raggiunti dall’Intelligenza Artificiale vennero resi manifesti al grande pubblico in due occasioni, fortemente enfatizzate dai media di tutto il mondo: nel 1997 con Deep Blue, progettata da IBM, che riuscì a battere Garry Kasparov in una competizione di scacchi e nel 2016 con Alpha Go, progettata da Google, che sconfisse con una strategia vincente, sino ad allora sconosciuta, il campione cinese di Go[16], Lee Sedol, dopo aver appreso il gioco secolare in maniera autonoma sfidando sé stessa e migliorando partita dopo partita.

L’andamento storico della ricerca nell’ambito dell’Intelligenza Artificiale ha avuto, come visto, un andamento ondulatorio con periodi di grande ottimismo e ingenti finanziamenti e periodi meno floridi nei quali non si è riusciti ad essere all’altezza dei risultati attesi facendo perdere parte dell’interesse per l’argomento e molti dei finanziamenti. Negli ultimi anni, però, è emerso il metodo degli agenti intelligenti, consistente nell’imitazione di un cervello tramite l’unione di diversi fattori specializzati in singoli problemi, che ha portato a notevoli successi, consentendo la nascita del Data Mining, il riconoscimento vocale e via dicendo. L’avvento del wireless ha poi consentito di considerare i computer non più come singoli ma, grazie ad una rete globale che li collega, come uno solo grande cervello con amplia distribuzione e con un’ampia connettività. Questo è un enorme vantaggio per l’Intelligenza Artificiale rispetto all’intelligenza umana, perché permette un’integrazione della conoscenza che svela spiragli evolutivi inimmaginabili. Sarà il definitivo sorpasso dell’Intelligenza Artificiale ai danni dell’Intelligenza Umana?

4. Intelligenza Artificiale: definizioni

Dopo aver delineato le principali tappe evolutive dell’Intelligenza Artificiale rimane in sospeso un interrogativo chiave: esiste una definizione di Intelligenza Artificiale?

Per offrire una definizione di Intelligenza Artificiale occorre preliminarmente chiarire cosa s’intenda per intelligenza. Nell’esaminare una qualsiasi definizione di intelligenza, poi, bisogna depurare la stessa da contaminazioni soggettive. Ognuno di noi, infatti, ha una concezione personale di intelligenza dovuta a fattori come le credenze, le esperienze e i valori che sono mutevoli nel tempo e sono influenzati dalla cultura di appartenenza.

Basti pensare che alla fine del XVIII secolo Franz Joseph Gall elaborò la disciplina della frenologia, una scienza che pretendeva di determinare le funzioni psichiche degli esseri umani in base alle differenze volumetriche dei crani. Questi studi furono smentiti successivamente, constatando che le dimensioni e la forma del cranio non forniscono informazioni riguardo all’intelligenza di un individuo.

Nel 1904 Alfred Binet, nel tentativo di dare corpo al concetto d’intelligenza, elaborò un test per determinare il quoziente intellettivo (QI) degli esseri umani. Nell’elaborazione del test prese in considerazione gli elementi essenziali di un essere intelligente ovvero la memoria, la comprensione, l’attenzione. Per quanto diffusi questi test sono molto criticati perché si focalizzano solo su determinate capacità e quindi non sull’intelligenza in sé. Secondo Howard Gardner ogni persona è dotata di diversi tipi di intelligenza e, quindi, non sarebbe corretto fornire un’unica definizione della stessa.

Un’altra questione dibattuta riguarda l’origine dell’intelligenza. Gli studiosi si chiedono se l’intelligenza sia innata o se sia qualcosa che tutti possono apprendere dall’esperienza e dall’educazione. Non esiste una risposta univoca ed entrambi i fattori devono essere presi in considerazione. Il concetto di intelligenza, infatti, non ha significato se estratto dal contesto sociale di riferimento.

Tendendone presenti i limiti, possiamo considerare la definizione di intelligenza riportata dalla Treccani[17], che la definisce come quel complesso di facoltà psichiche e mentali che consentono di pensare, comprendere o spiegare i fatti o le azioni, elaborare modelli astratti della realtà, intendere e farsi intendere dagli altri, giudicare, e adattarsi all’ambiente.

Date le difficoltà nella comprensione di cosa sia l’intelligenza negli esseri viventi, definire l’Intelligenza Artificiale risulta particolarmente difficile e controverso.

Quando consideriamo l’intelligenza delle macchine, ad esempio, dobbiamo domandarci se per definirle tali dobbiamo considerare il raggiungimento degli stessi obiettivi posti per gli esseri viventi. Difatti, per le macchine un obiettivo considerato primario dagli esseri umani potrebbe non essere tale.

Rapportando l’Intelligenza Artificiale all’intelligenza umana ci si deve chiedere, quindi, se sia importante il risultato o la comprensione del procedimento per arrivare a quel risultato. Qualora si considerasse solamente il risultato finale non si porrebbe importanza al modo con il quale si arrivi allo stesso. Considerando un testo, ad esempio, si potrebbe giungere alla formulazione di un discorso di senso compiuto premendo casualmente dei tasti e ciò è ben diverso dall’elaborazione dello stesso seguendo un iter logico.

Nel valutare l’operato degli esseri umani vengono presupposte determinate abilità logiche e di comprensione che non possono essere date per scontate nel valutare le capacità intellettive di una macchina.

Cambiando prospettiva, si potrebbe considerare una macchina come intelligente se fosse in grado di acquisire determinate abilità senza ricevere adeguate istruzioni. Parimenti, analizzando il problema dal punto di vista degli errori, noteremmo come l’essere umano sbagli frequentemente ma possieda l’abilità di imparare dai suoi errori e questo comportamento potrebbe essere considerato la base del comportamento intelligente.

La misurazione dell’Intelligenza Artificiale non deve, pertanto, essere vincolata all’intelligenza umana né focalizzarsi su alcuni aspetti della stessa. Come visto, utilizzare le capacità umane come parametro di confronto risulta estremamente limitante.

Ad oggi, il cervello umano e i computer non possono funzionare allo stesso modo non avendo sufficiente conoscenza del funzionamento del cervello per replicarlo.

Nonostante la difficoltà di racchiudere i fenomeni anzidetti all’interno di rigide categorie concettuali, può essere utile offrire un’esplicitazione delle caratteristiche principali dell’Intelligenza Artificiale al fine di comprendere meglio l’ambito di applicazione della stessa. La Treccani[18] definisce l’Intelligenza Artificiale la disciplina che studia se e in che modo si possano riprodurre i processi mentali più complessi mediante l'uso di un computer.

In questa definizione si evince quanto siano fondamentali i computer come mezzo per l’applicazione dell’Intelligenza Artificiale. I computer sono macchine elettroniche e digitali, caratterizzati da una tecnologia che sfrutta il movimento degli elettroni e dall’utilizzo di bit per veicolare le informazioni.

Altre importanti definizioni circa l’Intelligenza Artificiale sono contenute in atti di soft law che tentano di descrivere e regolare il fenomeno. Difatti, affinché si possa elaborare una iniziativa legislativa, volta a scongiurare i pericoli insiti nell’utilizzo intemperante e pervasivo dell’Intelligenza Artificiale, è imprescindibile offrirne una definizione chiara e precisa. A tal fine, la Commissione Europea ha offerto una definizione, embrionale, considerando Intelligenza Artificiale i sistemi che mostrano un comportamento intelligente analizzando il proprio ambiente e compiendo azioni, con un certo grado di autonomia, per raggiungere specifici obiettivi.[19].

Nel tentativo di dettagliare maggiormente le caratteristiche dell’Intelligenza Artificiale, il Gruppo di esperti di alto livello[20] ha ulteriormente precisato che i sistemi di intelligenza artificiale (IA) sono sistemi software (ed eventualmente hardware) progettati dall'uomo che, dato un obiettivo complesso, agiscono nella dimensione fisica o digitale:

• percependo il proprio ambiente attraverso l'acquisizione di dati,

• interpretando i dati strutturati o non strutturati raccolti,

• ragionando sulle conoscenze,

• elaborando le informazioni derivate da questi dati e decidendo le migliori azioni da intraprendere per raggiungere l'obiettivo dato.

I sistemi di IA possono:

• usare regole simboliche o apprendere un modello numerico,

• possono anche adattare il loro comportamento analizzando come l'ambiente è influenzato dalle loro azioni precedenti[21].

Le definizioni esposte hanno il merito di investigare gli elementi caratterizzanti l’Intelligenza Artificiale, nel tentativo di guidare un processo di sviluppo che possa dirsi eticamente sostenibile e di alimentare il dibattito attorno ad un fenomeno capace di segnare un punto di svolta nella storia della Umanità.        

5. Intelligenza Artificiale e Algoritmo: relazione e funzionamento

Al fine del funzionamento dell’Intelligenza Artificiale è determinate la scelta dell’algoritmo che sta alla base della stessa. È sempre necessario un algoritmo, infatti, per far funzionare i dati che vengono inseriti nel programma. Ma cos’è un algoritmo?

Algoritmo è certamente una parola inflazionata e spesso utilizzata impropriamente. Venne coniata dal matematico Muhammad Ibn Musa, nel IX secolo, per designare qualunque schema o procedimento sistematico di calcolo. Più precisamente, con algoritmo si tende ad esprimere in termini matematicamente precisi il concetto di procedura generale, di metodo sistematico valido per la soluzione di una certa classe di problemi.

Semplificando, l’algoritmo è una sequenza di istruzioni elementari e ripetibili che consente di risolvere un problema. Un algoritmo, quindi, richiede sempre una serie di passaggi per risolvere un quesito che viene scomposto in calcoli elementari.

Risolvere un problema significa, dati degli input, arrivare ad un output soddisfacendo un criterio di verifica. Durante lo svolgimento del processo è richiesta una supervisione attiva affinché il sopraggiungimento di dati non necessari non infici l’ottenimento dell’output.

La definizione del problema, compito tipicamente affidato all’uomo, è il primo fondamentale passo da compiere per consentire all’Intelligenza Artificiale di giungere ad un determinato output. Questa fase prevede l’individuazione di dati in ingresso, la scelta degli obiettivi da raggiungere e la relazione esistente tra i dati e i risultati richiesti. Occorre sempre verificare se il problema è ben definito, in quanto un’errata definizione comprometterebbe la riuscita dei passaggi successivi. Se le attività preliminari sono corrette si può passare alla scelta dei dati da inserire.

I dati sono essenziali ed è opportuno inserire solo quelli strettamente necessari alla soluzione del problema, in modo da non sovraccaricare la macchina, non allungare eccessivamente le tempistiche di elaborazione e contenere i costi. In seguito, bisogna scegliere la tipologia di agente che si intende utilizzare. Si può avere un approccio orientato alla ricerca, consigliato in ipotesi di applicazioni matematiche, orientato all’apprendimento, ideale nel caso di utilizzo di esperienze passate, orientato alla pianificazione, consigliato nel caso di sequenzialità delle operazioni, o orientato al ragionamento automatico.  

In funzione dell’approccio scelto deve essere definito il paradigma da utilizzare che risente della scelta effettuata, presentando vantaggi o svantaggi a seconda del caso concreto. Ad esempio, verrà utilizzato l’evolutionary algorithm laddove si necessità di metodi euristici di ricerca, basandosi sul principio di selezione naturale. Viceversa, si utilizzerà il fuzzy logic allorquando vi sarà bisogno di attribuire, mediante funzione logica, un grado di verità espresso in percentuale a ogni proposizione. Oppure si farà ricorso al macchine learning tutte le volte in cui si dovrà acquisire in maniera automatica nuova conoscenza.

Definito il paradigma più adatto al caso concreto, si adattano gli input e gli output allo stesso, procedendo poi con l’applicazione concreta del programma per verificarne la validità.  

Nell’eventualità che si riscontrassero errori sarà necessario modificare il procedimento sino a quando l’output ottenuto sia conforme all’output richiesto. Il processo di raccolta e verifica dati proseguirà consentendo all’Intelligenza Artificiale di apprendere.

L’importanza degli algoritmi in relazione ai Big Data e all’ Intelligenza Artificiale, è stata ben fotografata dal Prof. Sassano, il quale afferma che ciò che conta veramente nelle moderne Data Economy sono gli algoritmi e le metodologie di ottimizzazione degli stessi Infatti, se i dati sono il petrolio del futuro, secondo il Prof. Sassano, come il petrolio greggio ha meno valore prima della trasformazione, così i dati, anche i big data, sono valorizzati solo quando un algoritmo li utilizza e li trasforma in informazioni di qualità [22]

6. Diverse declinazioni di Intelligenza Artificiale

Compresi gli elementi di base dell’Intelligenza Artificiale, possono essere effettuate delle distinzioni circa le modalità di funzionamento della stessa.

L’Intelligenza Artificiale può essere, infatti, declinata in due grandi categorie: l’Intelligenza Artificiale debole e l’Intelligenza Artificiale forte. Con riferimento alla prima, si hanno macchine che cercano di emulare azioni tipicamente intelligenti e ripetitive mediante una logica basica. È il tipico approccio utilizzato per il problem solving tramite l’elaborazione di diverse soluzioni a partire da una base di dati, definendo la soluzione più razionale in base alle regole impartite dal programma.

Questo tipo di macchine non possono apprendere autonomamente, non riescono ad auto-migliorarsi ed è sempre necessaria la costante supervisione umana. Per tali ragioni, questa Intelligenza Artificiale viene anche definita “intelligenza del come se” perché agisce come se pensasse ma senza comprendere ciò che effettivamente realizza. Questa tipologia di Intelligenza Artificiale viene utilizzata allo scopo di semplificare e velocizzare processi che, se fossero svolti dagli esseri umani, richiederebbero notevole dispendio di energie e tempo senza assicurare la stessa efficienza garantita dalle macchine, capaci di verificare le ipotesi in maniera estremamente precisa e veloce.

In contrapposizione all’Intelligenza Artificiale debole si ha l’Intelligenza Artificiale forte. Questo tipo di Intelligenza Artificiale non si limita alla mera emulazione delle azioni umane ma compie azioni al fine di apprendere, in autonomia, nuove informazioni e migliorarsi. L’intervento dell’uomo è iniziale, non essendo prevista l’impartizione di alcuna regola o procedura alla macchina che opera autonomamente. Questo tipo di intelligenza riesce, quindi, a comprendere le azioni che svolge, avendo l’obiettivo di riprodurre e apprendere le competenze in modo da fornire risposte immediate a problemi determinati.

Dopo aver tratteggiato le caratteristiche principali delle macrocategorie di Intelligenza Artificiale, analizziamole nel dettaglio.

6.1. Intelligenza Artificiale debole: l’approccio simbolico

L’approccio simbolico, chiamato anche approccio della conoscenza, è stato introdotto da Alan Newell e Herbert Simon con il primo algoritmo di Intelligenza Artificiale della storia: il Logic Theorist. L’approccio simbolico è un approccio di tipo top-down ovvero si parte dall’inserimento di conoscenze acquisite da esperti di uno specifico settore, cosiddetto livello della conoscenza, che vengono poi convertite in un sistema di simboli, chiamato livello dei simboli, a loro volta convertiti in un codice binario che la macchina è in grado di elaborare, definito livello numerico.

Per consentire all’Intelligenza Artificiale di immagazzinare informazioni nel livello della conoscenza occorre utilizzare un linguaggio specifico, non essendo possibile fare ricorso al linguaggio naturale, quello della vita di tutti i giorni, poiché presenterebbe troppe ambiguità semantiche. Nel linguaggio naturale, infatti, il significato di una parola dipende spesso dal contesto in cui viene utilizzata, richiedendo al fruitore dell’informazione veicolata di decodificare il linguaggio naturale tenendo conto del contesto di provenienza. Attività tutt’altro che semplice per un sistema di Intelligenza Artificiale.

Per risolvere questo problema, nell’approccio simbolico, si utilizza un preciso linguaggio, detto logica del primo ordine, basato sull’utilizzo di frasi dichiarative in cui sono resi espliciti gli oggetti e le relazioni che li legano. Le informazioni immagazzinate nel livello della conoscenza vengono processate tramite l’utilizzo di linguaggi di programmazione specifici come il LISP, inventato da John McCarthy[23].

Il risultato di questo passaggio è un’organizzazione della conoscenza divisa tra conoscenza di base, ovvero database di informazioni, e motore inferenziale, inteso come nessi logici che legano le informazioni stesse. Le regole di base, ottenute dall’esperto e trasmesse all’Intelligenza Artificiale, vengono utilizzate per generare nuovi nessi logici attraverso un processo chiamato a simulare il ragionamento umano attraverso la formalizzazione matematica di alcune operazioni logiche, come ad esempio il sillogismo.

Volendo schematizzare, l’utilizzo dei sistemi esperti presenta i seguenti vantaggi:

  • si rivelano molto utili per prendere decisioni veloci e accurate con riguardo ad una specifica necessità;
  • a dispetto di un essere umano particolarmente competente in un determinato settore, sono in grado di risolvere lo stesso problema più velocemente, con un minore tasso di errore e senza fatica;
  • vista la loro struttura, è sempre possibile verificare quale logica ha portato al processo decisionale.

Di converso:

  • non sono in grado di apprendere in modo completamente autonomo;
  • devono essere costantemente aggiornati, in modalità manuale, da programmatori ed esperti dell'attività che si propongono di svolgere;
  • il costo del loro sviluppo è generalmente molto elevato;
  • presentano scarsa flessibilità ovvero hanno un dominio di attività talmente specifico da renderli difficilmente adattabili ad altri ambiti.

6.2. Intelligenza Artificiale forte: l’approccio sub-simbolico

L'approccio sub-simbolico, detto anche approccio matematico-statistico, è stato introdotto da Warren Sturgis McCulloch e Walter Harry Pitts con il primo modello di rete neurale artificiale. L’approccio matematico-statistico è in grado di apprendere autonomamente grazie a degli algoritmi basati su un approccio detto per l’appunto “sub-simbolico”.

Questi particolari algoritmi consentono alla macchina di apprendere come risolvere un problema senza la necessità di ricevere in partenza un insieme di conoscenze specifiche concernenti la soluzione del problema stesso. Per queste ragioni gi algoritmi di questo tipo vengono comunemente chiamati algoritmi di Machine Learning.

In base ai meccanismi di apprendimento utilizzati, questi algoritmi si dividono in due grandi gruppi: gli algoritmi algebrico-statistici e le reti neurali artificiali. Entrambi assimilano grazie all’interazione con i dati associati al problema che si vuol risolvere e, dopo aver terminato il processo di apprendimento, sono in grado di risolvere tutti i problemi riconducibili alla fenomenologia oggetto di addestramento. Questo vuol dire due cose importanti: in primis che l’Intelligenza Artificiale è in grado di generalizzare, cioè di risolvere problemi anche parzialmente differenti da quelli per i quali è stata addestrata; e in secundis che l’algoritmo di Machine Learning è flessibile e può essere utilizzato per risolvere problematiche anche molto diverse tra loro.

È, quindi, il processo di addestramento a dare la forma all’Intelligenza Artificiale e non il modo in cui viene programmata. Grazie alla capacità di generalizzazione un algoritmo di Machine Learning, ad esempio, potrà essere addestrato utilizzando indici finanziari concernenti aziende sane o soggette a bancarotta al fine di predire, analizzando gli indici finanziari di una azienda estranea al processo di apprendimento, la probabilità di bancarotta di quest’ultima. Grazie alla flessibilità propria degli algoritmi di apprendimento automatico, lo stesso algoritmo impiegato in ambito finanziario potrà essere calibrato su dati clinici di diversi pazienti affetti da una malattia o sani, al fine di predire la probabilità che un nuovo soggetto, su cui il sistema non è stato tarato, abbia la stessa malattia. Pertanto, nell’Intelligenza Artificiale un ruolo cruciale è svolto dal processo di apprendimento che di norma è suddivisibile in diverse fasi.

La prima fase è costituita dalla costruzione del dataset. Alla base dello sviluppo di un algoritmo di Machine Learning, infatti, c’è sempre l’interazione con dei dati associati al problema da risolvere. È indispensabile, a tal proposito, delimitare correttamente il problema di cui è richiesta la risoluzione verificando accuratamente l’attinenza delle informazioni fornite rispetto al risultato atteso. Il dataset così formato viene a sua volta diviso in due subset: uno, detto “training-set”, contenente i dati specificamente utilizzati nell’addestramento dell’algoritmo; l’altro, il “test-set”, usato per valutare le performance dell’algoritmo nella fase di verifica che conclude il processo di apprendimento.

Altra fase è quella dell’estrazione delle caratteristiche principali, dette “feature”. In questa fase il contenuto del dataset subisce un “trattamento” necessario affinché l’algoritmo sia in grado di costruirsi una rappresentazione dei dati funzionale alla risoluzione del problema.

Una volta estratte, le feature vengono selezionate in base alla loro importanza nel problema che si vuole risolvere. Questo è un passaggio essenziale, volto a rimuovere tutti quegli elementi superflui che potrebbero inquinare la performance dell’algoritmo.

Esistono tre metodi principali per selezionare le feature:

  1. Il Metodo di Filtraggio. Con questo metodo le feature vengono analizzate statisticamente e gli viene attribuito un punteggio che rappresenta la loro influenza nel problema da risolvere;
  2. Il Metodo di Wrapping. In questo metodo le feature subiscono un raggruppamento in diverse combinazioni e sono queste ultime oggetto di valutazione statistica con attribuzione di punteggio a seconda dell’incidenza nella soluzione del problema;
  3. Il Metodo Incorporato. I metodi incorporati, infine, sono metodi di selezione racchiusi in uno specifico algoritmo di Machine Learning ed operano introducendo dei limiti che valutano l’importanza dei singoli features durante l’ottimizzazione dei parametri dell'algoritmo.

Tramite l’interazione l’algoritmo acquisisce esperienza nella risoluzione del problema e migliora le sue performance ottimizzando i suoi parametri.

La fase di training set è composta a sua volta da una fase di addestramento stricto sensu e da una fase di calibrazione dei parametri necessari all’apprendimento stesso. L’attività di cernita dei dati utili all’apprendimento rispetto a quelli utili alla calibrazione dei parametri è importantissima al fine di scongiurare il pericolo che l’algoritmo si specializzi eccessivamente su un dato problema perdendo di vista la capacità di generalizzazione, il cosiddetto rischio di “overfitting”.

Gli algoritmi di Machine Learning possono utilizzare diversi meccanismi di apprendimento, in base alla struttura dei dati che vengono forniti. La principale metodologia di apprendimento è chiamata “apprendimento non supervisionato” e viene utilizzata quando il dataset non contiene informazioni riguardanti la soluzione del problema da risolvere. In questa ipotesi l’algoritmo seleziona gli schemi ricorrenti all’interno del dataset e li utilizza per mettere in relazione i dati tra loro. Questo meccanismo addestra gli algoritmi a suddividere i dati in relazione alle caratteristiche comuni non palesi. Conseguentemente, tanto maggiore sarà la difficoltà del problema da affrontare tanto più grande ed accurato dovrà essere il dataset necessario per addestrare l’algoritmo.

Gli errori generati dall’algoritmo nei suoi tentativi vengono usati per ottimizzare i parametri con un meccanismo di feedback. Difatti, al termine del processo di apprendimento, la performance dell’algoritmo viene valutata attraverso l’interazione con il test-set. In questa fase viene calcolata l’accuratezza dell’output generato dall’algoritmo tenendo conto dei falsi negativi e falsi positivi registrati. Se il risultato non è soddisfacente, il processo di addestramento viene ripetuto modificando il dataset iniziale, variando l’estrazione e la selezione delle feature, calibrando i diversi parametri manualmente o utilizzando metodi automatici come gli “algoritmi genetici” ovvero gli algoritmi ispirati all’evoluzione biologica capaci di scovare autonomamente i parametri ottimali.

Merito del Machine Learning è aver soverchiato l’idea che le applicazioni debbano necessariamente iniziare da una funzione. Con questo approccio è possibile, infatti, risolvere problemi avendo a disposizione input e conoscendo gli output da raggiungere, senza aver idea della funzione da utilizzare per arrivare all’obiettivo.

6.3. Il Deep Learning

Applicazione più specifica del Machine Learning, il Deep Learning si basa sulla categoria di soluzioni delle reti neurali. Elemento distintivo del Deep Learning è la capacità di replicare il funzionamento del cervello biologico tramite sistemi artificiali che sono in grado di apprendere in modo profondo.

Questo approccio ha il merito di intersecare la capacità degli algoritmi di prendere la decisione migliore, dati determinati input, e l’eventualità che il dataset fornito non presenti adeguata accuratezza nella scelta dei dati da dare in pasto all’algoritmo.

La base del funzionamento del Deep Learning sono le reti neurali. Le reti neurali, basandosi sull’imitazione del cervello umano, sono composte da neuroni artificiali che vengono organizzati in una struttura interconnessa che permette il collegamento degli input e degli output dei vari neuroni. Questo tipo di struttura permette ai neuroni di ricevere sia dati iniziali sia dati elaborati da altri neuroni, a seconda della collocazione del neurone stesso.

L’architettura della rete neurale artificiale richiede che i neuroni vengano disposti su più livelli, prevedendo la disposizione del numero dei livelli (c.d. layer) e del numero di neuroni per ogni layer. Le reti neurali utilizzano la funzione di attivazione per arrivare ad un determinato output. Questa funzione si basa sul fatto che i neuroni, pur ricevendo un input, non generano sempre un output. Il rilascio del segnale, infatti, dipende dalla quantità di segnale comunicata dal livello precedente. Se l’input raggiungesse una soglia predeterminata, allora il neurone si attiverebbe permettendo la trasmissione dell’informazione. Viceversa, qualora l’intensità del segnale non dovesse superare la soglia prefissata, il neurone non si attiverebbe e di conseguenza non trasmetterebbe alcuna informazione.

Il blocco o la trasmissione dell’informazione è una componente fondamentale per questo tipo di soluzioni. Una volta attivato il neurone, questo non si limita a trasmettere l’informazione ma la modifica in modo tale da renderla più utile ai neuroni successivi.

Le funzioni di attivazione permettono il filtraggio e la selezione dei segnali rilevanti, garantendo la non linearità dell’output, attraverso un sistema capace di attenuare o accentuare, in maniera non proporzionale, l’intensità del segnale a seconda del peso specifico dell’informazione rispetto alla soluzione del problema a monte. Ne consegue che, a priori, non sarà possibile determinare l’architettura migliore per ogni problema ma occorrerà, di volta in volta, valutare l’architettura ottimale alla creazione di quante più feature possibili in modo da ottenere le migliori previsioni.

Ogni livello elabora i valori trasmessi dalle feature, ponderati a seconda dell’incidenza delle connessioni da cui provengono, e per ogni livello stabilisce una determinata soglia, chiamata soglia di attivazione, al superamento della quale l’informazione viene veicolata al livello successivo sino a giungere all’ultimo livello della rete neurale. I pesi permettono di creare nuove feature in forza dell’elaborazione degli input che sono mescolati con le funzioni di attivazione.

Determinante, ai fini della modifica dei pesi da attribuire alle varie feature, è la backpropagation ovverosia quel metodo iterativo che, muovendosi lentamente a ritroso sulla superficie della funzione base dell’algoritmo, ha lo scopo di ricalcolare i pesi della rete neurale partendo dall’ultimo errore calcolato per ridurre lo stesso.

7. Analisi fenomenologica  

Il riciclaggio, per essere compreso appieno nella sua complessità, necessita di anteporre l’analisi fenomenologica alla ricostruzione normativa onde investigare i connotati meno visibili di un fenomeno, per sua natura, occulto.

I termini “riciclaggio” e “riciclatore”, coniati negli anni ‘70, indicano rispettivamente l’attività di rimozione dal denaro dell’insieme di informazioni atte a identificarne la provenienza delittuosa e colui che espunge tali informazioni simulandone, poi, una genesi lecita.

Il riciclaggio, inteso come tipologia criminale, è il riflesso del corrispondente sistema economico nonché dell’interazione tra politica e società, costituendo lo sbocco naturale dell’attività malavitosa che mira a reinvestire gli enormi flussi finanziari (anche) in attività lecite per inquinare la parte sana della società[24], ottenere consenso sociale e controllare il territorio.

Fattore di proliferazione esponenziale del Money Laundering è da riconoscersi nel processo di globalizzazione[25], capace di accentuare la transnazionalità del fenomeno, moltiplicare le opportunità criminose a disposizione dell’organizzazione criminale e depotenziare le capacità ispettive dell’anticrimine.

Nel corso degli anni la fisionomia del riciclaggio è mutata profondamente, assumendo diversi volti. Inizialmente il Money Laundering era un fenomeno meramente monetario, per poi passare ad essere una problematica afferente, quasi esclusivamente, il mondo bancario, sino a giungere, oggigiorno, ad essere un fenomeno in maggior parte finanziario. Le ragioni della migrazione da un settore all’altro vanno ricercate nell’irrigidimento della disciplina normativa concernente la circolazione del contante nonché nella maggior efficienza dei circuiti bancari nel contrastare il fenomeno riciclatorio. L’evoluzione del riciclaggio dall’ambito bancario a quello finanziario, invece, è conseguenza della crescita incontrastata dell’information technology che ha favorito e semplificato l’operatività sui mercati finanziari.

L’incessante evoluzione dei sistemi informatici e telematici ha disegnato contorni di una società sempre più ricca di nuovi strumenti di investimento e modalità alternative di pagamento che hanno facilitato uno scambio continuo tra ricchezza reale e virtuale, complicando non poco la lotta al riciclaggio e mettendo in luce la scarsa attitudine all’evoluzione dei sistemi anticrimine così come l’incapacità di una pronta risposta normativa all’insorgere di manifestazioni criminali nuove.

A questi fattori di espansione del Money Laundering occorre sommare la capacità delle organizzazioni criminali di indirizzare i propri comportamenti delinquenziali verso sistemi repressivi più indulgenti, se non addirittura compiacenti, sfruttando le lacune normative tra i diversi ordinamenti al fine di diminuire il rischio di essere intercettati. È il caso di alcune Nazioni, cc.dd Paesi off-shore, che non penalizzano il riciclaggio, garantendo particolari forme di protezione ai capitali dirottati come il segreto bancario, l’anonimato societario, al fine di farne uno strumento di crescita economica, divenendo habitat ottimali all’afflusso dei proventi illeciti.

Questo ha condotto diversi Stati a dar vita a un meccanismo di repressione collettiva, con individuazione di norme sostanziali, processuali e investigative omogenee, per scoraggiare queste manovre di vera e propria “elusione penale”. In questo contesto si colloca la scelta di istituire una nuova autorità europea chiamata a formare, insieme alle autorità AML/CFT degli Stati membri, una struttura sovranazionale caratterizzata da una forte integrazione, denominata “AML/CFT supervisory system”[26] o “Meccanismo di supervisione AML/CFT”, con il compito di fornire una risposta comune ad un problema condiviso.

Problematica correlata al riciclaggio è quella dei cc.dd. “white collar crimes[27] ovvero i crimini commessi dai colletti bianchi, professionisti altamente specializzati e assoldati dalla criminalità organizzata per usufruire delle competenze tecniche indispensabili a “ripulire” il denaro sporco. Principale problematica legata a questi crimini è la depotenziata percezione sociale dell’antigiuridicità delle condotte del professionista, che non si traducono in riprovevolezza sociale e suscitano scarsa reazione da parte della collettività in quanto percepite come semplici infrazioni seppur epilogo di crimini ben più efferati.

Il riflesso dello stretto legame tra criminalità organizzata e colletti bianchi è esplicitato, in tutta la sua forza iconografica, nel passaggio dalla definizione di “bucato a mano” a quella di “lavanderia” che contraddistingue il riciclaggio moderno, a riprova di come l’organizzazione criminale sia passata dalla realizzazione di attività basiche, di investimento diretto in beni e servizi mediante liquidità proveniente da illecito, a processi produttivi diversificati e veicolati attraverso sofisticate manovre di ingegneria finanziaria. La struttura bifasica[28] lascia, oggi, posto ad una più complessa concezione tripartita[29] con conseguente aumento delle difficoltà di identificazione dell’oggetto e dei soggetti del riciclaggio che può assumere i tratti tradizionali del trasferimento di contanti (e succedanei) mediante corrieri, avvenire per il tramite di sovrafatturazioni, realizzarsi attraverso la creazione di società virtuali (“scatole cinesi” o “matrioska”), concretizzarsi nel fenomeno dalle banche clandestine (c.d. Hawalla) o giungere sino allo sfruttamento degli hedge funds. Tutto ciò a dimostrazione della capacità di reazione del crimine alle variazioni di natura giuridico-economica e alle misure di contrasto politico-sociali, che viene definita camaleontismo della criminalità economica.

8. Connotati giuridici del fenomeno criminoso: evoluzione normativa e struttura dell’art. 648-bis cod. pen.

Al fine di fornire un’esaustiva descrizione della normativa in materia di prevenzione dell'utilizzo del sistema finanziario a scopo di riciclaggio occorre, preliminarmente, chiarire in cosa consista e quale siano i connotati strutturali del reato di riciclaggio.

Il delitto di riciclaggio è disciplinato all’art. 648-bis ed è stato aggiunto al Codice penale dall’art.3 del D.L. n. 59 del 1978, poi convertito senza modificazioni nella L. n. 191 del 1978.

La genesi della norma è da ricercarsi nell’esigenza di fronteggiare i gravi fenomeni di sequestro di persona, rapina ed estorsione aggravata che hanno flagellato l’Italia negli “anni di piombo”. La genesi emergenziale[30] spiega il tentativo di estendere la sfera applicativa dei delitti di ricettazione e favoreggiamento, sia per quanto concerne la soglia della punibilità che la tipologia di condotta incriminata, all’industria dei rapimenti così da colpire le fonti di approvvigionamento dell’attività terroristica.

Il quadro normativo dell’antiriciclaggio si è via via definito e strutturato grazie a diversi testi normativi, tra i quali spicca la legge n. 55 del 1990, c.d. Gava-Vassalli, che, agli artt. 23 e ss., ha sancito un restyling della legislazione antiriciclaggio volto ad ampliare le maglie normative fino a ricomprendervi ipotesi di impiego di denaro, beni o utilità di provenienza illecita[31].  

Ulteriore menzione, merita la L. n. 328 del 1993, di ratifica ed esecuzione della “Convenzione sul riciclaggio, la ricerca, il sequestro e la confisca dei proventi di reato”, sottoscritta l’8 novembre 1990 a Strasburgo, che ha avuto il merito di sostituire l’elenco analitico dei reati-presupposto, contenuto nella vecchia formulazione, a vantaggio del generico riferimento a qualsiasi “delitto non colposo” e e aver convertito la condotta di riciclaggio-favoreggiamento nella formula di chiusura che incrimina il “compimento di altre operazioni, in modo da ostacolare l’identificazione della provenienza delittuosa del denaro, dei beni o delle altre utilità” fortificando, in tal modo, la struttura del reato.

Per quanto concerne i mezzi utilizzati, il Money Laundering è considerato, da giurisprudenza costante[32], un delitto a forma libera e non vincolata, potendo essere integrato, stando al tenore letterale della norma, da qualsiasi operazione compiuta in modo da rendere difficoltosa la ricostruzione del c.d. paper trail dei beni di provenienza delittuosa.

In merito all’elemento oggettivo del reato, poi, il primo comma dell’articolo 648-bis. cod. pen. individua tre ipotesi di condotta riconducibili a due macroaree: la prima, improntata a criteri individualistico-descrittivi, nella quale orbitano la condotta di sostituzione e trasferimento, l’altra, a carattere generico-residuale, facente riferimento alle altre operazioni atte ad offuscare la genesi illecita della ricchezza.

La prima forma di condotta punibile ai sensi dell’articolo 648-bis cod. pen. consiste nel sostituire capitali illeciti. La sostituzione dei capitali può essere realizzata nei modi più disparati ed anche semplicemente con il versamento di capitali presso banche e il loro successivo ritiro. D’altra parte, “sostituire”, nell’ambito dell’art. 648-bis cod. pen., significa rimpiazzare il denaro o i valori “sporchi” con quelli “puliti”.

Seconda fattispecie comportamentale tipizzata dalla norma in esame è il trasferimento di denaro o valori che si sostanzia nello spostare il provento delittuoso, nell’identica composizione qualitativa, nel patrimonio altrui attraverso strumenti ripulitivi negoziali o, comunque, giuridici. Per tale ragione, il trasferimento è considerato species del genus sostituzione giacché i valori di provenienza illecita non vengono sostituiti ma semplicemente spostati da un soggetto ad un altro in modo da far perdere le tracce della loro provenienza e della loro effettiva destinazione. La specificazione normativa di tale condotta è figlia dell’esigenza di approntare un tessuto repressivo tendenzialmente privo di lacune, difatti, la precisazione della punibilità dei trasferimenti sembra risolvere più una questione di chiarezza espositiva che colmare un vero vulnus normativo.

Altra condotta sanzionata dall’art. 648-bis cod. pen. consiste nel mettere in atto (ogni) “altra operazione” idonea ad ostacolare l’identificazione della provenienza delittuosa del denaro, dei beni o di altre utilità. Tale fattispecie, pur essendo a forma libera, richiede ugualmente che la condotta sia caratterizzata dal tipico effetto dissimulatorio, consistente nell’ostacolare l’accertamento o l’astratta individuabilità dell’origine delittuosa del denaro[33]. Si tratta, dunque, di una condotta di chiusura volta a punire le forme di riciclaggio non riconducibili alla sostituzione o al trasferimento[34].

L’idoneità ad ostacolare la provenienza delittuosa dei beni costituisce elemento essenziale del tipo penale, la cui collocazione topografica all’interno della norma ne fa il vettore del contenuto di offensività più pregnante della norma stessa, al punto da rendere superflua ogni altra specificazione comportamentale[35]. Tale lettura[36] consente di respingere al mittente le critiche di genericità ed indeterminatezza della condotta in esame, in quanto l’inciso “in modo da ostacolare l’identificazione della loro provenienza delittuosa” esplica i principali effetti proprio sulla categoria residuale, marcandone la necessaria idoneità lesiva[37].

In sintesi, l’eterogeneità modale delle condotte viene ricondotta ad unità applicativa nella misura in cui sostituzione, trasferimento e altre operazioni siano idonee ad ostacolare, in concreto, l’identificazione della provenienza delittuosa del denaro, dei beni o delle altre utilità.

Per quanto concerne il soggetto attivo del reato di riciclaggio, trattandosi di reato comune, questo può essere chiunque. A delimitare fortemente il campo applicativo della norma, vi è la previsione della clausola di esclusione della responsabilità per quanti abbiano partecipato, in qualità di concorrenti a qualsiasi titolo, alla commissione del reato presupposto.

Sin dalla introduzione dell’art.648-bis cod. pen., nel 1978, l’incipit della norma sancisce l’applicabilità della stessa “fuori dei casi di concorso nel reato” conferendo alla fattispecie delittuosa valenza residuale e riducendo notevolmente l’impatto applicativo al pari di un elemento negativo del fatto tipico. Pertanto, a dispetto dell’etichetta di reato comune, la descrizione del soggetto attivo risulta indissolubilmente legata alla mancata partecipazione nella commissione del reato base. Ne consegue che non saranno punibili a titolo di riciclaggio i soggetti che, pur avendo integrato tutti gli elementi costitutivi del fatto, risultino essere autori o concorrenti nella fattispecie delittuosa dalla quale originano i proventi riciclati, realizzando un’ipotesi di auto-riciclaggio[38].

Tale costruzione normativa è stata letteralmente stravolta dall’art. 3, comma 3, della legge 186 del 2014 che ha annoverato l’autoriciclaggio tra i comportamenti penalmente sanzionati. La norma punisce “chiunque, avendo commesso o concorso a commettere un delitto non colposo” svolga poi una serie qualificata di comportamenti di carattere “auto-riciclatorio” ponendo così un concreto ostacolo all’identificazione della loro provenienza delittuosa.

Attraverso la previsione della punibilità dell’autoriciclaggio, il Legislatore ha colmato una lacuna dello jus puniendi, superando la limitazione costituita dalla clausola di riserva contenuta nell’incipit dell’art 648-bis cod. pen., e dotando l’anticrimine di uno strumento più efficace per colpire l’occultamento dei patrimoni illeciti.

Altro elemento strutturale della norma è costituito dall’aspetto psicologico. L’elemento soggettivo del delitto di riciclaggio è integrato dal dolo generico e si sostanzia nella mera e semplice consapevolezza di offuscare la provenienza illecita del denaro.

Il dolo generico del riciclaggio, dunque, ricomprende oltre alla volontà di compiere l’attività di sostituzione, trasferimento o di ostacolo, anche la consapevolezza che i capitali da riciclare provengano da un delitto non colposo[39]. Tale opzione legislativa risponde ad esigenze di semplicità e chiarezza in quanto, nei reati di pericolo (tra i quali è giustamente ricompreso il riciclaggio), il disvalore dell’evento corrisponde al disvalore della condotta senza richiedere ulteriori investigazioni volitive.

Con riferimento alla consumazione, nel delitto ex art. 648-bis cod. pen., questa si realizza con l’effetto dissimulatorio conseguente alle condotte tipiche previste dalla norma[40]. Ai fini della consumazione, perciò, è sufficiente che l’agente abbia realizzato l’attività di sostituzione e di trasferimento ovvero una delle altre operazioni contemplate dalla norma e che tali condotte assumano rilevanza nel processo di offuscamento del paper trail. Il momento perfezionativo del reato si realizza anche in ipotesi di superamento dell’ostacolo frapposto all’attività di ricostruzione del paper trail, essendo il reato integrato tanto nell’ipotesi in cui l’idoneità ostativa delle condotte si sia tradotta in un effettivo impedimento, quanto in quelle in cui l’operazione abbia reso solo più difficile, senza evitarlo, l’accertamento della provenienza del denaro, dei beni e delle altre utilità da illecito[41].

Concludendo l’analisi strutturale del reato, merita un breve cenno la problematica inerente alla punibilità del tentativo di riciclaggio. Questione a lungo dibattuta e che ha risentito del diverso inquadramento dogmatico del reato stesso. Ed in vero, se la versione del 1978, improntata ai reati di attentato, escludeva la punibilità della forma non consumata, la novella legislativa del 1990, pur offrendo una sostanziale uniformità di vedute sul tentativo di sostituzione, imponeva maggiori cautele in ordine alla configurabilità del tentato ostacolo all’identificazione della provenienza delittuosa[42]. La successiva riforma, che ha pacificamente delineato un reato di pericolo, ha spazzato via le elucubrazioni dottrinali e giurisprudenziali, qualificando il reato ex art. 648-bis cod. pen. come reato di pericolo che non ammette[43], quindi, la configurazione del tentativo.

9. Genesi ed evoluzione del D. Lgs. 231/2007

Nella lotta al riciclaggio di denaro la maggior parte delle norme di regolamentazione riguardano gli intermediari finanziari. Questo sia perché il sistema bancario-finanziario viene spesso utilizzato come strumento di riciclaggio sia in ragione della necessità di salvaguardare l’integrità e la stabilità del sistema stesso.

A tal fine, il Governo italiano, dando attuazione organica alla c.d. Terza direttiva antiriciclaggio, ha adottato quello che sul piano sistematico, si pone quale primario[44] riferimento normativo in materia ovvero il decreto legislativo 231 del 2007.

Pregio del provvedimento normativo in esame è l’aver posto maggiore attenzione alle peculiarità delle varie categorie professionali interessate dal fenomeno criminoso[45] e aver sancito il principio cardine della disciplina antiriciclaggio, il principio del risk based approach[46].

L’approccio basato sul rischio si fonda sulla necessità di “personalizzare” il comportamento investigativo nei confronti del cliente, adottando misure di mitigazione appropriate in base al livello di rischio. Come ribadito dalle Raccomandazioni FATF (“Financial Action Task Force”), l’approccio basato sul rischio assicura un’allocazione più efficace delle risorse a disposizione dell’anticrimine, con il rafforzamento dei presidi in situazioni in cui i livelli di rischio sono più elevati e, al contrario, con l’adozione di misure maggiormente semplificate in presenza di rischi di natura minore.

Il decreto legislativo 231 del 2007 delinea una disciplina organica in materia di prevenzione del riciclaggio di denaro, beni o altre utilità, individuando precisi obblighi di collaborazione[47]in capo a banche, assicurazioni, intermediari finanziari, società fiduciarie, notai, avvocati, revisori contabili e molti altri. L’analisi della disciplina Anti Money Laundering, pertanto, non può prescindere dall’approfondimento dei principali contenuti del Decreto 231.

L’art. 2, comma 4, del Decreto definisce il riciclaggio come “la conversione o il trasferimento di beni effettuati essendo a conoscenza che essi provengono da una attività criminosa o da una partecipazione a tale attività, allo scopo di occultare o dissimulare l’origine illecita dei beni medesimi o di aiutare chiunque sia coinvolto in tale attività a sottrarsi alle conseguenze giuridiche delle proprie azioni”, nonché come “l'occultamento o la dissimulazione della reale natura, provenienza, ubicazione, disposizione, movimento, proprietà dei beni o dei diritti sugli stessi, effettuati essendo a conoscenza che tali beni provengono da un'attività criminosa o da una partecipazione a tale attività”. Inoltre, integra il reato di riciclaggio “l'acquisto, la detenzione o l'utilizzazione di beni essendo a conoscenza, al momento della loro ricezione, che tali beni provengono da un'attività criminosa o da una partecipazione a tale attività ed anche la partecipazione ad uno degli atti di cui alle lettere precedenti, l'associazione per commettere tale atto, il tentativo di perpetrarlo, il fatto di aiutare, istigare o consigliare qualcuno a commetterlo o il fatto di agevolarne l'esecuzione.”.

Strumento principe utilizzato per contrastare siffatto illecito è l’Adeguata Verifica della Clientela, vero caposaldo dell’azione di contrasto al riciclaggio, basato sulla “profilazione” della clientela e sullo studio delle caratteristiche dell’agire e delle metodologie utilizzate dai Money Launderers, al fine di “filtrare” il mare magnum del sistema economico finanziario ed intercettare gli intenti criminali prima della loro realizzazione.

La valutazione del cliente deve, pertanto, seguire un approccio denominato “Know Your Customer (KYC)”, nel quale il professionista dovrà valutare il cliente secondo un criterio soggettivo e oggettivo. Nel primo, dovrà essere esaminata la natura giuridica, l’attività svolta, l’area nella quale questa avviene e il comportamento generale tenuto dall’individuo al momento dell’operazione. Nel secondo si esaminerà la prestazione professionale, ovvero il tipo, le modalità di svolgimento, l’ammontare e l’area geografica di destinazione nonché la frequenza e il volume delle prestazioni nei confronti del cliente. Seguendo tale approccio l’anticrimine e le Istituzioni finanziarie saranno in grado di razionalizzare le energie, indirizzando le risorse sulle operazioni economiche che appaiano maggiormente integrare i presupposti del Money Laundering.

10. Contenuto e modalità di adempimento degli obblighi di adeguata verifica

Esaminando più nel dettaglio il contenuto degli obblighi di adeguata verifica, perno della disciplina antiriciclaggio, questi sono consacrati nell’articolo 18 del decreto legislativo 231 del 2007 che sancisce, anzitutto, l’obbligo di identificare il cliente, verificandone l’identità attraverso il riscontro di un documento di riconoscimento, ottenere informazioni sullo scopo e sulla natura del rapporto continuativo o della prestazione professionale richiesta. Nell’espletare tale attività, occorre acquisire e valutare le informazioni relative all’instaurazione del rapporto, alle relazioni intercorrenti tra cliente ed esecutore, alle relazioni tra cliente e titolare effettivo, all’attività lavorativa svolta e alla situazione economico-patrimoniale del cliente. In presenza di un elevato rischio di riciclaggio e di finanziamento del terrorismo, i soggetti obbligati applicano tale procedura di acquisizione e valutazione delle informazioni anche alle prestazioni o operazioni occasionali.

L’articolo 18 prevede, inoltre, che le attività dirette alla identificazione e verifica dell’identità del cliente siano effettuate prima della esecuzione dell’operazione occasionale ovvero al momento della instaurazione del rapporto o del conferimento dell’incarico e consente, in conformità al Provvedimento di Banca d’Italia in  materia di adeguata verifica del 3 aprile 2013, esclusivamente in presenza di basso rischio di riciclaggio o di finanziamento del terrorismo, che la verifica dell’identità sia posticipata ad un momento successivo. In caso di differimento della procedura identificativa la norma impone comunque di attuare una procedura di “gestione” del rischio, raccogliendo i dati identificativi dei soggetti coinvolti nonché i dati relativi alla tipologia e all’importo dell’operazione. La verifica dovrà, in ogni caso, essere terminata al più presto e, comunque, entro 30 giorni dall’instaurazione del rapporto o dal conferimento dell’incarico.

L’articolo 18 sancisce, infine, che dinnanzi alla impossibilità di completare correttamente la procedura di adeguata verifica, il soggetto obbligato si astenga dall’effettuare l’operazione valutando, qualora ne sussistano i presupposti, di effettuare una segnalazione di operazione sospetta. Il differimento delle procedure di adeguata verifica è consentito anche ai professionisti limitatamente, però, alle ipotesi in cui esaminino la posizione giuridica del cliente o espletino compiti di difesa.

Fermo restando l’obbligo di adottare modalità di verifica adeguate al livello di rischio rilevato, c.d. principio del risk based approach, l’articolo successivo del decreto detta modalità appropriate per l’identificazione del cliente e del titolare effettivo, per l’acquisizione e valutazione dello scopo e della natura del rapporto continuativo o della prestazione professionale nonché la prassi da seguire per analizzare e monitorare il rapporto con il cliente. La norma, di chiaro contenuto specificativo, prescrive l’obbligatoria presenza del cliente o dell’esecutore ai fini della procedura di identificazione dei medesimi, indicando ipotesi tassative in cui l’obbligo di identificazione si considera assolto anche senza la presenza fisica del cliente.

Per quanto concerne la verifica dell’identità del cliente, del titolare effettivo e dell’esecutore, l’articolo 19 introduce la previsione per la quale laddove sussistono dubbi, incertezze o incongruenze rispetto al riscontro della veridicità dei dati identificativi contenuti nei documenti e delle informazioni acquisite si proceda attraverso la consultazione del sistema pubblico per la prevenzione del furto dell’identità” ovvero attraverso il ricorso a fonti attendibili e indipendenti tra le quali rientrano la base di dati, ad accesso pubblico o condizionato al rilascio di credenziali di autenticazione, riferibili ad una pubblica amministrazione nonché quelli riferibili a soggetti privati, sottoposti alla vigilanza di una amministrazione pubblica ovvero istituite o gestite per il perseguimento di finalità di pubblico interesse statutariamente definite.

La formulazione utilizzata dal Legislatore intende evidenziare che l’attendibilità del dato ottenuto è strettamente connessa al profilo di certificazione del dato medesimo che deve promanare da una banca dati pubblica ovvero privata ma servente ad esigenze di carattere pubblicistico.

Meritevole di sottolineatura è, infine, la disposizione in merito ai prodotti di assicurazione vita o altre forme di assicurazione legate ad investimenti finanziari che impone agli intermediari di applicare misure di adeguata verifica della clientela, oltre al cliente e al titolare effettivo, anche al beneficiario del contratto di assicurazione all’atto della designazione, acquisendone i dati identificativi. Nel caso di beneficiario designato in base a particolari caratteristiche o classi o in altro modo, sarà necessario acquisire informazioni su di esso sufficienti a far ritenere all’intermediario che sarà in grado di stabilirne l’identità al momento della liquidazione o del riscatto.

L’identità del beneficiario è accertata al momento del pagamento o, in caso di cessione a terzi del contratto di assicurazione, al momento della cessione. Parimenti, nel caso di beneficiari di trust o di istituti giuridici analoghi, designati in base

a particolari caratteristiche o classi, il soggetto obbligato acquisisce informazioni sul beneficiario sufficienti a far ritenere che sarà in grado di stabilirne l’identità al momento del pagamento o dell’esercizio dei diritti conferiti.

11. Criteri per la determinazione della titolarità effettiva di clienti diversi dalle persone fisiche

Nell’applicazione dell’adeguata verifica si registrano ancora non pochi dubbi interpretativi circa il processo di identificazione del titolare effettivo, quando si passa dal piano dottrinale a quello operativo. La norma di riferimento è l’articolo 20 del decreto che indica i criteri per la determinazione della titolarità effettiva di clienti diversi dalle persone fisiche. Tale qualifica è attribuita alla persona fisica cui è riferibile la proprietà diretta o indiretta della persona giuridica ovvero attribuibile il controllo della medesima.

Le previsioni contenute nell’articolo si sostanziano nell’attribuzione del controllo dell’ente non solo in forza della titolarità di una percentuale di azioni ma anche con riferimento alla titolarità di diritti di voto ovvero in forza di ogni altra modalità di partecipazione al capitale o al patrimonio dell’ente o di predisposizione ad organi o funzioni di direzione, amministrazione o controllo.

L’articolo 20 sancisce, infatti, che nel caso il cliente sia una società di capitali costituisce indicazione di titolarità diretta la titolarità di una percentuale di partecipazioni superiore al 25 per cento del capitale del cliente, detenuta da una persona fisica, nonché la titolarità di una percentuale di partecipazioni superiore al 25 per cento del capitale del cliente posseduto per il tramite di società controllate, società fiduciarie o per interposta persona.

Nella eventualità che l’esame dell’assetto proprietario non consenta di individuare in maniera univoca la proprietà diretta o indiretta dell’ente, la norma prevede, in via gradata, che il titolare effettivo venga individuato nella persona fisica o nelle persone fisiche cui, in ultima istanza, è attribuibile il controllo dell’ente in forza del controllo della maggioranza dei voti esercitabili in assemblea ordinaria, del controllo di voti sufficienti per esercitare un’influenza dominante in assemblea ordinaria o dell’esistenza di particolari vincoli contrattuali che consentano di esercitare una influenza dominante[48].

Qualora l’utilizzo degli indicatori utili alla verifica della proprietà non consenta l’individuazione del titolare effettivo oppure permangano dubbi circa il controllo dell’ente, questo sarà identificato, in via residuale, nella persona fisica titolare di poteri di amministrazione o direzione della società.

Nel caso di associazioni, fondazioni o altre istituzioni di carattere privato, la norma ha espressamente previsto che siano considerati titolari effettivi, in via cumulativa, i fondatori, ove in vita, i beneficiari, quando individuati o facilmente individuabili, oppure i titolari di funzioni di direzione e amministrazione.

Con riferimento alla necessità di individuare, comunicare ed accedere alle informazioni sulla titolarità effettiva di persone giuridiche e trust, l’articolo 21, al fine di dare piena attuazione alle disposizioni comunitarie relative all’obbligo di custodire specifiche informazioni sul titolare effettivo, in un registro centrale la cui accessibilità sia definita da prescrizioni conformi alla normativa in materia di protezione dei dati personali, individua in una sezione speciale del Registro delle imprese lo strumento adatto alla finalità prefissata.

Dopo una lunga gestazione, il Registro dei Titolari Effettivi è entrato in vigore il 9 giugno 2022 e prescrive l’obbligo in capo alle imprese dotate di personalità giuridica e tenute alla iscrizione nel Registro delle imprese nonché alle persone giuridiche private diverse dalle imprese, di comunicare, per via esclusivamente telematica e in esenzione da imposta di bollo, le informazioni attinenti la propria titolarità effettiva, rendendo tali dati condivisibili a livello europeo al fine di contrastare le attività illecite portate avanti attraverso il circuito delle imprese.

L’articolo 21, infine, ribadisce l’obbligo dell’approccio basato sul rischio anche nel processo di valutazione del dato ottenuto dalla consultazione del Registro delle imprese, disponendo che la suddetta verifica non esonera il soggetto obbligato dal personale esercizio di valutazione del rischio di riciclaggio o di finanziamento del terrorismo per il suddetto adempimento dell’obbligo e la conseguente applicazione di idonee misure in relazione al rischio rilevato.

12. Obblighi del cliente e modalità di conservazione dei dati e delle informazioni

L’articolo 22 stabilisce l’obbligatorietà per il cliente di fornire tutte le informazioni pertinenti ed essenziali a adempiere, in maniera puntuale, l’obbligo di adeguata verifica. In ordine ai dati e alle informazioni relative al titolare effettivo, oltre a ribadire l’obbligo del cliente di mettere a disposizione tutti gli elementi e le informazioni in suo possesso per consentire ai soggetti preposti di adempiere all’adeguata verifica della clientela, il Legislatore, con la norma in esame, ha introdotto un elemento di novità ponendo l’obbligo per le imprese dotate di personalità giuridica e per le persone giuridiche private di acquisire e conservare informazioni accurate e aggiornate sulla propria titolarità effettiva.

Le informazioni inerenti alle imprese dotate di personalità giuridica e tenute all’iscrizione nel Registro delle imprese sono acquisite, a cura degli amministratori, sulla base di quanto risultante dalle scritture contabili e dai bilanci, dal libro dei soci, dalle comunicazioni relative all’assetto proprietario o al controllo dell’ente, cui l’impresa è tenuta secondo le disposizioni vigenti nonché dalle comunicazioni ricevute dai soci e da ogni altro dato a loro disposizione.

Qualora permangano dubbi in ordine alla titolarità effettiva, le informazioni sono acquisite, a cura degli amministratori, a seguito di espressa richiesta rivolta ai soci rispetto ai quali si renda necessario approfondire l’entità dell’interesse nell’ente. L’inerzia o il rifiuto ingiustificati del socio nel fornire agli amministratori le informazioni da questi ritenute necessarie per l’individuazione del titolare effettivo ovvero l’indicazione di informazioni palesemente fraudolente rendono inesercitabile il relativo diritto di voto e comportano l’impugnabilità, a norma dell’articolo 2377 del codice civile, delle deliberazioni eventualmente assunte con il suo voto determinante. Si applicano, in quanto compatibili, le disposizioni di cui agli articoli 12 e 122 TUF, 74 e 77, CAP e 2341-ter del codice civile.

Allo stesso modo, i soggetti obbligati ad espletare l’adeguata verifica devono conservare i documenti, i dati e le informazioni utili a prevenire, individuare o accertare eventuali attività di riciclaggio o di finanziamento del terrorismo e a consentire lo svolgimento delle verifiche, sulle analisi effettuate, nell’ambito delle rispettive attribuzioni, dalla UIF o da altra autorità competente. Per tali ragioni i soggetti obbligati conservano copia dei documenti acquisiti in occasione dell’adeguata verifica della clientela e l’originale, o copia avente efficacia probatoria ex lege, delle scritture e registrazioni inerenti alle operazioni compiute. La documentazione conservata deve consentire, quanto meno, di ricostruire univocamente: la data di instaurazione del rapporto continuativo o del conferimento dell’incarico, i dati identificativi del cliente, del titolare effettivo e dell’esecutore nonché le informazioni sullo scopo e la natura del rapporto o della prestazione, oltre la data, l’importo, la causa dell’operazione e i mezzi di pagamento utilizzati. I documenti, i dati e le informazioni acquisiti sono conservati per un periodo di dieci anni dalla cessazione del rapporto continuativo, della prestazione professionale o dall’esecuzione dell’operazione occasionale. Inoltre, i soggetti obbligati devono adottare sistemi di conservazione dei documenti, dei dati, e delle informazioni idonei a garantire il rispetto delle norme dettate dal codice in materia di protezione dei dati personali nonché il trattamento dei medesimi esclusivamente per le finalità di cui al decreto.

Le modalità di conservazione adottate devono prevenire qualsiasi perdita dei dati e delle informazioni ed essere idonee a garantire la ricostruzione dell’operatività o attività del cliente nonché l’indicazione esplicita dei soggetti legittimati ad alimentare il sistema di conservazione e accedere ai dati e alle informazioni ivi conservate. I soggetti obbligati possono avvalersi, per la conservazione dei documenti, dei dati e delle informazioni, di un autonomo centro di servizi, ferma restando la responsabilità del soggetto obbligato e purché sia assicurato a quest’ultimo l’acceso diretto e immediato al sistema di conservazione.

13. Obblighi di segnalazione delle operazioni sospette

Allorquando il professionista o l’operatore bancario-finanziario nutrano sospetti, vengano a conoscenza o posseggano motivi ragionevoli di sospettare che siano in corso o che siano state compiute o tentate operazioni di riciclaggio o di finanziamento del terrorismo o che comunque flussi economici, indipendentemente dalla loro entità, provengano da attività criminosa, prima di compiere l’operazione, inviano senza ritardo alla UIF una segnalazione di operazione sospetta.

Il sospetto è desunto da vari fattori quali le caratteristiche, l’entità della natura delle operazioni e da qualsivoglia altra circostanza conosciuta in ragione delle funzioni esercitate, tenuto conto della capacità economica e dell’attività svolta dal soggetto cui è riferita la paternità dell’operazione, in base agli elementi acquisiti ai sensi del decreto. Ad esempio, il ricorso frequente o in giustificato ad operazioni in contante, anche se non eccedenti la soglia prevista dalla legge, e in particolare il prelievo o il versamento in contante di importi non coerenti con il profilo di rischio del cliente, costituiscono elemento tipico di sospetto.

In presenza degli elementi di sospetto, i soggetti obbligati non compiono l’operazione fino al momento in cui non hanno provveduto ad effettuare la segnalazione di operazione sospetta, salvi i casi in cui l’operazione debba essere eseguita in quanto sussiste l’obbligo di legge di ricevere l’atto ovvero nei casi in cui l’esecuzione dell’operazione non possa essere differita, tenuto conto della normale operatività, o, in estrema ipotesi, nei casi in cui il ritardo dell’operazione possa ostacolare le indagini. In dette ipotesi, i soggetti obbligati, dopo aver ricevuto l’atto o eseguito l’operazione, ne informano immediatamente la UIF.

I soggetti obbligati effettuano la segnalazione contenente i dati, le informazioni, la descrizione delle operazioni ed i motivi del sospetto, e collaborano con la UIF, rispondendo tempestivamente alla richiesta di ulteriori informazioni. La UIF emana istruzioni per la rilevazione e la segnalazione delle operazioni sospette al fine di assicurare tempestività, completezza e riservatezza delle stesse.

Le comunicazioni delle informazioni effettuate in buona fede dai soggetti obbligati, dai loro dipendenti o amministratori, ai fini della segnalazione di operazioni sospette, non costituiscono violazione di eventuali restrizioni alla comunicazione di informazioni imposte in sede contrattuale o da disposizioni legislative, regolamentari o amministrative. Le medesime comunicazioni non comportano responsabilità di alcun tipo anche nelle ipotesi in cui, colui che le effettua, non sia a conoscenza dell’attività criminosa sottostante e a prescindere dal fatto che l’attività illegale sia stata realizzata.

Occorre precisare che l’obbligo di segnalazione delle operazioni sospette non si applica ai professionisti per le informazioni che essi ricevono da un cliente: nel corso dell’esame di una posizione giuridica, nell’espletamento di compiti di difesa o di rappresentanza in un procedimento innanzi ad un’autorità giudiziari o durante attività di consulenza in merito all’eventualità di intentare o evitare un procedimento giudiziario. 

14. Tutela del segnalante e divieto di comunicazioni inerenti alle segnalazioni di operazioni sospette

I soggetti obbligati e gli organismi di autoregolamentazione adottano tutte le misure idonee ad assicurare la riservatezza dell’identità delle persone che effettuano la segnalazione.

Il titolare della competente funzione, il legale rappresentante o altro soggetto a tale scopo delegato presso i soggetti obbligati ad effettuare le verifiche antiriciclaggio, sono responsabili della custodia degli atti e dei documenti in cui sono indicate le generalità del segnalante. In ogni fase del procedimento l’Autorità Giudiziaria adotta le misure necessarie ad assicurare che l’identità del segnalante venga mantenuta riservata, non potendo, il suo nominativo,  essere inserito nel fascicolo del Pubblico Ministero né in quello per il dibattimento, eccetto nell’ipotesi di espressa richiesta, opportunamente motivata, della autorità giudiziaria con garanzia di adozione di ogni accorgimento idoneo a tutelare il segnalante, ivi compresa, ove ritenuto necessario in ragione dell’attinenza a procedimenti in materia di criminalità organizzata o terrorismo, l’applicazione delle cautele dettate dall’articolo 8 della legge 13 agosto 2010, n. 136, in materia di attività svolte sotto copertura, e sempreché tale indicazione sia indispensabile ai fini dell’accertamento dei reati per i quali si procede.

In caso di denuncia o di rapporto ai sensi degli articoli 331[49] e 347[50] del codice di procedura penale, l’identità del segnalante, anche qualora sia conosciuta, non è menzionata.

In caso di sequestro di atti o documenti l’autorità giudiziaria e gli organi di polizia giudiziaria adottano le cautele necessarie ad assicurare la riservatezza dei segnalanti.

La trasmissione delle segnalazioni di operazioni sospette, le eventuali richieste di approfondimenti nonché gli scambi di informazioni, attinenti alle operazioni sospette segnalate, tra la UIF, Guardia di finanza, DIA, autorità di vigilanza del settore e organismi di autoregolamentazione, avvengono per via telematica con modalità idonee a garantire, ancora una volta, la tutela della riservatezza.

Infine, se non diversamente previsto, il decreto vieta, ai soggetti tenuti alla segnalazione di un’operazione sospetta, e a chiunque ne sia comunque a conoscenza, di dare comunicazione al cliente interessato o a terzi dell’avvenuta segnalazione, dell’invio di ulteriori informazioni richieste dalla UIF, dell’esistenza o della probabilità di indagini in materia di riciclaggio o di finanziamento del terrorismo. Tuttavia, tale divieto non si applica alla comunicazione effettuata alle autorità di vigilanza di settore, in occasione dell’esercizio delle funzioni di cui all’articolo 9 né alla comunicazione effettuata ai fini di accertamento investigativo e non impedisce la comunicazione tra gli intermediari bancari e finanziari ovvero tra tali intermediari e le loro succursali.

Le informazioni scambiate possono essere utilizzate esclusivamente ai fini di prevenzione del riciclaggio o del finanziamento del terrorismo.

Da ultimo, occorre precisare che il tentativo del professionista di dissuadere il cliente dal porre in atto un’attività illegale non costituisce violazione del divieto di comunicazione. Inoltre, per quanto attiene al flusso di ritorno delle informazioni, il decreto sancisce che il nucleo speciale di polizia valutaria della Guardia di Finanza e la Direzione investigativa antimafia, anche sulla base di protocolli di intesa, informano la UIF degli esiti investigativi circa le segnalazioni di operazioni sospette, fatte salve le norme sul segreto di indagine.

La UIF, con modalità idonee a garantire la tutela della riservatezza, comunica al segnalante, direttamente ovvero tramite gli organismi di autoregolamentazione, gli esiti della segnalazione anche tenendo conto delle informazioni ricevute dalla Direzione investigativa antimafia e dal Nucleo speciale di polizia valutaria della Guardia di Finanza.

Il flusso di ritorno delle informazioni è sottoposto allo stesso divieto di comunicazione ai clienti o ai terzi previsto dall’articolo 39 del decreto. In occasione degli adempimenti previsti dall’articolo 5, comma 7, del decreto, la UIF, la Guardia di Finanza, la Direzione investigativa antimafia e l’Agenzia delle dogane e dei monopoli forniscono al Comitato di sicurezza finanziaria le informazioni sulle tipologie e i fenomeni osservati nell’anno solare precedente. La UIF, la Guardia di Finanza e la Direzione investigativa antimafia, forniscono altresì al Comitato di sicurezza finanziaria informazioni sull’esito delle segnalazioni ripartito per categoria dei segnalanti, tipologia delle operazioni e aree territoriali.

15. Obblighi di astensione, di comunicazione e di segnalazione delle violazioni

L’art. 42 del decreto impone ai soggetti obbligati ad effettuare l’adeguata verifica, che si trovino nell’impossibilità oggettiva di effettuarla (ai sensi delle disposizioni di cui all’articolo 19, comma 1, lettera a) e c) del decreto), di rifiutarsi di instaurare, eseguire ovvero proseguire il rapporto, la prestazione professionale e le operazioni e valutare l’opportunità di effettuare una segnalazione di operazione sospetta alla UIF (a norma dell’articolo 35 del decreto).

Allo stesso modo, i soggetti obbligati devono astenersi dall’instaurare il rapporto continuativo, eseguire operazioni o prestazioni professionali e porre fine al rapporto, o alla prestazione professionale già in essere, allorquando siano, direttamente o indirettamente, parte società fiduciarie, trust, società anonime o controllate attraverso azioni al portatore aventi sede in Paesi terzi ad alto rischio. Tali misure si applicano anche nei confronti delle ulteriori entità giuridiche, altrimenti denominate, aventi sede nei già menzionati Paesi, di cui non è possibile identificare il titolare effettivo né verificarne l’identità. I professionisti sono esonerati dall’obbligo di astensione limitatamente ai casi in cui esaminino la posizione giuridica del loro cliente o espletino compiti di difesa o di rappresentanza del cliente in un procedimento innanzi a un’autorità giudiziaria o in relazione a tale procedimento, compresa la consulenza sull’eventualità di intentarlo o meno.

È fatta in ogni caso salva l’applicazione dell’art. 35, comma 2, del decreto nei casi in cui l’operazione debba essere eseguita in quanto sussiste un obbligo di legge di ricevere l’atto.

16. Sanzioni e procedimento sanzionatorio

Gli articoli da 56 a 68 del decreto disciplinano, infine, le sanzioni amministrative conseguenti alle violazioni delle disposizioni del medesimo decreto e il relativo procedimento sanzionatorio. Le violazioni più rilevanti ineriscono l’inosservanza degli obblighi di adeguata verifica, come visto, pietra angolare della procedura antiriciclaggio e di lotta al finanziamento del terrorismo.

La condotta sanzionata è integrata allorquando i soggetti obbligati, in violazione delle disposizioni in materia, omettano di acquisire e verificare i dati identificativi e le informazioni sul cliente, sul titolare effettivo, sull’esecutore, sullo scopo e sulla natura del rapporto continuativo o della prestazione professionale, contravvenendo all’art. 18 del decreto. In tal caso, si applica la sanzione pecuniaria pari a 2.000 euro.

Nell’ipotesi di violazioni gravi, ripetute o sistematiche la sanzione pecuniaria è aumentata da un minimo di 2.500 ad un massimo di 50.000 euro. La gravità della violazione è determinata tenuto conto della intensità e del grado dell’elemento soggettivo, avuto riguardo all’ascrivibilità, in tutto o in parte, della violazione alla carenza, all’incompletezza o alla non adeguata diffusione di best practice operative e procedure di controllo interno nonché in ragione del grado di collaborazione prestato con le autorità, di cui all’articolo 21, comma 2, lettera a) del decreto, e in ragione della rilevanza ed evidenza dei motivi del sospetto e, da ultimo, dalla reiterazione e diffusione dei comportamenti.

Altra condotta espressamente sanzionata dal decreto concerne l’inosservanza degli obblighi di conservazione dei dati e delle informazioni utili all’espletamento delle incombenze antiriciclaggio, che si realizza quando i soggetti obbligati, in violazione di quanto disposto dagli articoli 31 e 32, non effettuino, in tutto o in parte, la conservazione dei dati, dei documenti e delle informazioni ivi previsti. La sanzione applicata in tale ipotesi è di natura pecuniaria ed ammonta a 2.000 euro. Anche in tale ipotesi, in caso di violazioni gravi, ripetute o sistematiche la sanzione applicata è aumentata da un minimo di 2.500 a un massimo di 50.000 euro. La gravità della violazione è determinata facendo applicazione dei criteri in precedenza richiamati.

In merito al procedimento sanzionatorio, invece, l’articolo 65 individua nel Ministro dell’economica e delle finanze l’organo deputato all’irrogazione delle sanzioni per violazione degli obblighi di cui al decreto.

Il Ministero dell’economia e delle finanze provvede altresì all’irrogazione delle sanzioni amministrative pecuniarie per l’inosservanza dell’obbligo di segnalazione di operazione sospetta, imputabile al personale e ai titolari di funzioni di amministrazione, direzione e controllo di intermediari bancari e finanziari, salva la competenza di Banca d’Italia e dell’IVASS, in ragione delle rispettive attribuzioni, all’irrogazione delle sanzioni per violazioni gravi, ripetute o sistematiche ovvero plurime imputabili all’ente.

Il Ministero dell’economia e delle finanze adotta i propri decreti sanzionatori, udito il parare della Commissione consultiva per le infrazioni valutarie ed antiriciclaggio (prevista dell’art. 1 del D.P.R. 14 maggio 2007, n. 14). Quando provvede all’irrogazione delle sanzioni di cui sopra, il Ministero dell’economia e delle finanze trasmette gli atti alle autorità di vigilanza di settore per le valutazioni relative all’applicabilità delle sanzioni di rispettiva competenza. Parimenti, le autorità di vigilanza di settore trasmettono al Ministero dell’economia e delle finanze gli atti, qualora nell’esercizio della propria potestà sanzionatoria, ravvisino la sussistenza di elementi suscettibili di valutazione da parte del Ministero ai fini dell’applicazione delle sanzioni amministrative pecuniarie rientranti nella sua competenza ai sensi del decreto.

Il procedimento sanzionatorio per le violazioni relative agli adempimenti a carico dei soggetti convenzionati e degli agenti, ex art. 44, alle limitazioni all’uso del contanti e dei titoli al portatore (art. 49, commi 1, 2, 3, 5, 6, 7 e 12), al divieto di conti e libretti di risparmio in forma anonima o con intestazione fittizia (art. 50), all’obbligo di comunicazione al Ministero dell’economia e delle finanze delle infrazioni (art. 51, comma 1) e all’inosservanza delle disposizioni di cui al titolo IV commesse dai distributori ed esercenti nel comparto del gioco (art. 64) è svolto dagli uffici delle Ragionerie territoriali dello Stato.

Da ultimo, si precisa che i decreti sanzionatori, adottati ai sensi dell’articolo in esame, sono assoggettati alla giurisdizione del giudice ordinario ed è competente, in via esclusiva il Tribunale di Roma, salve le ipotesi da ultimo descritte per le quali la competenza permane al Tribunale del luogo in cui è stata commessa la violazione.

17. Data Driven Compliance

Big data analytics e Intelligenza Artificiale hanno ricevuto negli ultimi anni molta enfasi nel dibattito pubblico e mediatico, essendo gli artefici principali della trasformazione digitale che ha rivoluzionato i comportamenti di individui, imprese ed organizzazioni (anche) in ambito finanziario. Si discute molto dell’impiego di queste tecnologie per gestire rischi ed obblighi normativi, d’altronde il tema dell'applicazione di nuovi software tecnologici di analisi dei dati non conosce limiti, interessando trasversalmente ogni ambito noto. E così, anche in tema compliance, intesa come attività di valutazione e gestione del rischio di non aderenza a precetti normativi, ha iniziato a prendere corpo e strutturarsi l’idea di un utilizzo di tecnologie di Machine Learning e Big Data analytics per fronteggiare il rischio di non conformità.

È la nascita della Data Driven Compliance, letteralmente compliance basata sui dati. Prima di analizzare le specificità della stessa, occorre chiarire cosa s’intenda per compliance. Con tale termine ci si riferisce a tutte quelle attività di controllo che un'Istituzione Finanziaria - rectius un'organizzazione complessa – effettua per verificare l’aderenza del proprio assetto organizzativo e delle proprie linee operative a leggi, regolamenti, procedure e policy interne.

Il rischio di non conformità non deve essere confuso con il rischio legale. Le due locuzioni, seppur spesso considerate equivalenti, rappresentano in realtà concetti differenti. Il rischio legale si identifica nel rischio di subire perdite derivanti da violazioni di legge e regolamenti ovvero da responsabilità contrattuale o extracontrattuale. Il rischio di compliance, invece, è rappresentato dal rischio di incorrere in sanzioni giudiziarie o amministrative, perdite finanziarie rilevanti o danni di reputazione in conseguenza di violazioni di norme imperative, di legge o di regolamenti, ovvero di autoregolamentazione (statuti, codici di condotta, codici di autodisciplina).

Il rischio di non conformità, pertanto, a differenza del rischio legale, contiene in sé anche il cosiddetto rischio reputazionale consistente in quelle sanzioni di mercato che si sostanziano nell’allontanamento dei consumatori e degli stakeholders da una impresa coinvolta o comunque salita agli onori della cronaca per violazioni di normative o policy di settore.

La Data Driven Compliance utilizza, quindi, grandi quantità di dati per monitorare, controllare e gestire la conformità a precetti normativi o regolamentari. Caratteristica dell’attività di compliance è la scarna regolamentazione normativa della stessa. Non esiste, infatti, una disciplina di taglio generale - one size fitz all - applicabile a tutte le tipologie di controlli e a tutte le tipologie di organizzazioni complesse, dovendosi rintracciare in eterogenee normative di settore, singoli e sporadici riferimenti ad attività di controllo aziendale.

Data la complessità dei rischi insiti nella modernità e nell’insorgere di nuove tecnologie e nuovi mercati, assai di rado si assiste ad una tecnica di regolazione normativa precisa e puntuale. Cosicché è l’Istituzione Finanziaria a doversi fare parte attiva, definendo un programma di autovalutazione e autogestione del rischio, e svolgere quel ruolo proattivo che il Legislatore moderno richiede.

L'architettura dei controlli è, quindi, basata su una logica tailor made in funzione delle peculiari caratteristiche organizzative, di governance e della tipologia di mercato in cui opera l’ente.

Come possono, dunque, i Big Data e l’Intelligenza Artificiale agevolare le Istituzioni Finanziarie nell'essere compliant?

Le nuove tecnologie possono essere particolarmente vantaggiose in quanto permettono alle Istituzioni Finanziarie di rimodernare ed efficientare l’attività di gestione del rischio sfruttando i Big Data. Tutte le organizzazioni complesse sono oggigiorno chiamate a confrontarsi con una notevole mole di dati, complessi per volume, per varietà, per tipologia e per velocità nella loro produzione. Questa grossa quantità di dati per l'impresa è fonte di un obbligo legale di protezione ma al tempo stesso risorsa determinante per la gestione e la prevenzione del rischio di non conformità. Difatti, l’impiego di Big Data in ambito compliance consente l’abbandono dei sistemi tradizionali di monitoraggio, incentrati sulla rilevazione ex post di comportamenti non conformi, per configurare una funzione compliance predittiva e proattiva, capace, mediante l’analisi della mole smisurata di dati, di individuare ex ante comportamenti a rischio e scongiurare il pericolo di non conformità prima che questo si realizzi.

In conclusione, le enormi potenzialità della Data Driven Compliance esigono un cambiamento di prospettiva all’interno delle Istituzioni Finanziarie, ancora troppo restie ad abbandonare vecchie prassi applicative e metodologie di controllo manuali a beneficio dell’analisi dei dati. Occorre che le stesse sviluppino un framework di controllo globale con un approccio integrato a partire dalla analisi dei dati, riponendo gradualmente in soffitta le metodiche legate ad attività di monitoraggio Human Based e favorire, mediante il potenziamento di attività formative, una maggiore comprensione del mondo digitale. Solo così Istituzioni Finanziarie ed organizzazioni complesse beneficeranno a pieno del vantaggio competitivo che Big Data e Intelligenza Artificiale portano in dote.

18. Antiriciclaggio e Intelligenza Artificiale

La progressiva conversione del mondo bancario e finanziario in un modello Data Driven ha, come detto, offerto nuove opportunità per migliorare e sviluppare sistemi e procedure di controllo. All’interno di queste paradigmatico è lo sviluppo e l’applicazione di tecnologie di Intelligenza Artificiale, vero e proprio architrave della costruzione di una realtà digitale ed interconnessa, in ambito Money Laundering.

Il settore dei servizi finanziari è costantemente messo sotto pressione da normative sempre più stringenti che impongono alle aziende nuove sfide per la conformità, richiedendo standard di diligenza sempre più elevati e sostenibili solo con l’aiuto di moderne tecnologie. Eppure, la compliance antiriciclaggio, nonostante gli ingenti investimenti operati nel settore, si fonda ancora sull’analisi e valutazione di un’enorme mole di informazioni mediante l’utilizzo di task manuali, ripetitivi, statici e poco efficaci. Basti pensare che, negli ultimi anni, nei soli Stati Uniti, il costo dell’Anti-Money Laundering è stato di circa 23,5 miliardi[51] di dollari all’anno mentre in Europa i costi hanno sfiorato i 20 miliardi annui. Nonostante la considerevole spesa globale, il 90 % delle Istituzioni Finanziarie è sanzionato per violazioni della normativa di contrasto, raggiungendo, nel 2019, l’ammontare record di 8,14 miliardi di dollari[52] di sanzioni.

Il quadro delineato, già fortemente compromesso, è reso ancora più drammatico dalla crescente migrazione di gran parte delle transazioni illecite verso i c.d. virtual assets[53], ancora più difficili da intercettare per i sistemi di contrasto tradizionali. Si stima che su 21,4 miliardi di dollari di transazioni in criptovalute, registratesi nel 2019, ben il 2,1%, ossia circa 450 milioni di dollari, siano riconducibili ad attività criminali. Un numero in vertiginosa crescita.

Appare del tutto evidente, allora, la necessità di un approccio al problema del tutto nuovo, che, nell’era della digitalizzazione di scambi, relazioni, transazioni e assets, non può prescindere dal ricorso a tecnologie di Machine Learning e Big Data Analytics per sfruttare lo sconfinato bagaglio di informazioni, ricavato dalla migrazione digitale, e rafforzare il sistema esistente di monitoraggio e segnalazione di operazioni sospette nonché di customer due diligence[54] .

In questo senso, lo stesso FATF (Financial Action Task Force)[55], ossia l’organismo intergovernativo che si occupa della lotta al riciclaggio e al finanziamento del terrorismo, nel Report del Luglio 2021[56] “Opportunities and challenges of new technologies for AML/CTF”, sottolinea l’importanza dell’analisi dei Big Data tramite l’Intelligenza Artificiale per migliorare la capacità di rilevare reti di transazioni tra loro correlate, identificare comportamenti anomali e trasformare quantità significative di dati, strutturati e non, in informazioni utili a livello operativo. Questo approccio, definito Suptech,  consente il trasversale miglioramento dell’effettività dei sistemi antiriciclaggio, la migliore gestione del rischio e la riduzione dei costi[57], permettendo il monitoraggio, l’elaborazione e l’analisi di transazioni sospette, o altre attività illecite, in maniera automatizzata, con il vantaggio, per gli operatori del settore, di ridurre il ricorso all’iniziale revisione da parte dell’operatore umano ed di abbattere la quota di “falsi positivi”, vera piaga dei tradizionali sistemi Anti Money Laundering.

La “gestione manuale” del rischio antiriciclaggio, basata sull’impiego di modelli statici, genera addirittura il 98% di “falsi positivi” nelle segnalazioni[58]. Ne consegue un dispendio di energie, in termini di carico e costo del lavoro, che neutralizza il ruolo di “sentinella” di Banche ed Intermediari Finanziari facendo vacillare l’intera architettura del sistema antiriciclaggio.

Le difficoltà di gestione dell’enorme quantità di dati disponibili, in fase di monitoraggio delle transazioni e dei soggetti, possono essere concretamente attenuate solo dall’utilizzo dell’Intelligenza Artificiale, che può operare attraverso tecniche di automazione nella raccolta dati (Natural Language Processing[59] o l’Optical Character Recognition[60]) in grado di reperire informazioni correlate e non strutturate su fonti esterne (giornali, blog, social media) e metterle a disposizione dell’analista umano; ricorrere ad  algoritmi di prioritizzazione delle segnalazioni in base al punteggio di rischio attribuito ad un cliente; utilizzare tecniche di clustering in grado di migliorare la segmentazione della clientela e individuare modelli comportamentali sospetti altrimenti invisibili alla revisione umana; sfruttare algoritmi di apprendimento automatico supervisionato per intercettare transazioni sospette in base a pregresse segnalazioni; o impiegare algoritmi di apprendimento non supervisionato al fine di identificare transazioni sospette senza conoscere, a priori, quali schemi comportali ricercare.

Alla luce di quanto detto, l’utilizzo dell’Intelligenza Artificiale migliora sensibilmente l’attività di monitoraggio delle transazioni e riduce il fardello che grava sui revisori umani, offrendo alle Istituzioni Finanziarie formidabili armi di contrasto al Money Laundering.

19. Big Data e Intelligenza Artificiale: strumenti pratici al servizio dell’Anti Money Laundering

Appurato che l’utilizzo di soluzioni tecnologiche avanzate in ambito AML/CFT, seppur contraddistinto ancora da numerose cautele, ha già fatto registrare significativi vantaggi (in ambio di transaction monitoring, monitoraggio continuo della clientela e classificazione delle operazioni) passiamo in rassegna ulteriori applicazioni pratiche, rischi ed ostacoli di un sistema Anti Money Laundering governato dall’Intelligenza Artificiale.

I migliori risultati, in termini di efficienza ed efficacia, sono stati fatti registrare dall’utilizzo di modelli non supervisionati di Machine Learning per identificare, su larga scala, anomalie comportamentali della clientela e facilitare l’identificazione dei soggetti o delle transazioni che, discostandosi da “ipotetici modelli di condotta”, richiedono approfondimenti investigativi e due diligence rafforzate. Processando informazioni soggettive, concernenti ad esempio età, classe di reddito, professione, origine, residenza, in combinato disposto con informazioni inerenti all’operatività e il contesto di provenienza dei Clienti, si può giungere ad ottenere una segmentazione della clientela in cluster comportamentali talmente accurata da permettere l’individuazione di soggetti che si allontanino in maniera rilevante dal modello comportamentale di riferimento. Grazie agli algoritmi di Data Mining e al Natural Language Processing sarà possibile combinare una serie di informazioni, alcune raccolte direttamente o disponibili all’interno del perimetro  organizzativo  della Banca, altre rinvenute nelle c.d. liste compliance, riferite alla sussistenza di sanzioni o a precedenti di natura giudiziaria in capo al Cliente oggetto di verifica, o nelle liste PEP[61], contenenti i nominativi di persone politicamente esposte, o addirittura combinando informazioni pescate in banche dati pubbliche, come ad esempio l’uso di dati camerali che con la recente istituzione del Registro dei Titolari Effettivi costituiranno un parametro di confronto inderogabile, al fine individuare in maniera più accurata schemi illeciti o situazioni ad alto rischio che potrebbero non essere rilevate dai più tradizionali modelli basati su regole deterministiche e soglie di attivazione.

Altro utilizzo, in fase di sperimentazione, consiste nell’impiegare strumenti di analisi testuale, più o meno evoluti, per estrarre valore da documenti di testo non strutturati. Un’applicazione che si preannuncia essere particolarmente efficace analizza le causali inserite nei bonifici o nelle altre operazioni predisposte dalla clientela, per rilevare in autonomia la presenza di parole chiave potenzialmente sintomatiche di comportamenti fraudolenti o transazioni illecite e che necessitano di ulteriori approfondimenti (es. “regalo”, “donazione”, etc.).

Particolare attenzione merita, poi, la problematica dei cosiddetti falsi positivi. I falsi positivi sono clienti classificati erroneamente come a rischio dai sistemi Anti Money Laundering. L’errata classificazione ha un impatto determinante e negativo sia in termini di qualità delle segnalazioni alle autorità competenti sia in termini di costo del personale addetto agli approfondimenti che è costretto ad uno sforzo rilevante nell’analisi e revisione delle transazioni fatte registrare dai clienti su cui scattano gli ‘alert’. È forse in questo ambito che l’Intelligenza Artificiale e l’analisi dei Big Data sono chiamate a dare il maggior contributo, non esistendo una soluzione universale capace di risolvere definitivamente il problema. Occorre, infatti, un utilizzo combinato di strumenti tecnologici avanzati e sensibilità umane al fine di cogliere schemi emergenti di riciclaggio di denaro anche laddove siano presenti pattern mai segnalati, riflesso del camaleontismo della criminalità economica, e convalidare comportamenti astrattamente riconducibili a schemi delittuosi ma pienamente leciti.

Un ulteriore ed importante beneficio legato all’utilizzo di tecnologie di Intelligenza Artificiale consiste nella riduzione del carico di lavoro per il personale addetto ai controlli AML/CFT. Soluzioni avanzate di Machine Learning possono, infatti, automatizzare molti processi di controllo permettendo, di conseguenza, al personale di concentrarsi su attività meno ripetitive e di generare un vero valore aggiunto per il soggetto obbligato all’adempimento della normativa Anti Money Laundering. L’automazione di attività ripetitive e ad alto contenuto di lavoro manuale, come ad esempio l’attività di analisi delle transazioni, assicura risultati migliori rispetto alle prestazioni umane riverberando effetti vantaggiosi anche in termini di riduzione dei falsi positivi. Alla riduzione del carico di lavoro per il personale non si accompagna, almeno in una fase iniziale, una riduzione dei costi economici in quanto, i risparmi derivanti dall’automazione dei processi sono più che assorbiti dagli elevati costi di sviluppo e adozione delle nuove tecnologie.

Significativa applicazione degli algoritmi di Machine in Learning è anche la Network Analysis, in grado di individuare, valutare e presentare all’analista umano le connessioni, rinvenute nella rete, tra entità e transazioni. La costruzione manuale delle reti richiederebbe eccessivo tempo e si presterebbe facilmente all’errore. La disponibilità di strumenti di Network Analysis e Analisi Visuale migliora la performance dell’analista consentendogli di rappresentare, anche graficamente, complesse relazioni socioeconomiche.

Ultima applicazione di tecnologie avanzate degna di nota è l’adozione di sistemi basati su Blockchain al fine di semplificare gli adempimenti di adeguata verifica della clientela, Know your customer (KYC). Si sta sperimentando la creazione di una piattaforma basata su tecnologia DLT in cui diversi soggetti obbligati possono condividere informazioni sulla clientela a fini di adeguata verifica. Il cliente carica le proprie informazioni anagrafiche su un wallet digitale che, in caso di autorizzazione da parte dello stesso, può essere condiviso dal soggetto che lo gestisce, definito custodian, con il richiedente, ossia un altro soggetto tenuto agli obblighi KYC e aderente alla rete. Questo procedimento potrebbe comportare diversi benefici. Anzitutto, genererebbe risparmi di tempo e aumento dell’efficienza negli accertamenti KYC, evitando che vengano ripetuti i medesimi controlli ad ogni instaurazione di rapporto continuativo o ad ogni singola operazione occasionale che il cliente svolge con altro soggetto aderente alla rete. Inoltre, favorirebbe un aggiornamento in tempo reale dei documenti contenuti nel wallet digitale, consentendo di conservare traccia dei documenti caricati e delle diverse attività di due diligence svolte all’interno della rete di aderenti.

Se le Istituzioni Finanziarie e gli altri operatori di settore mostrano un sempre maggiore interesse verso nuove metodologie di investigazione, caratterizzate dall’impiego di tecnologie di Intelligenza Artificiale, sussistono ancora diversi ostacoli ad una effettiva automazione del processo AML/CFT. L’introduzione di modelli analitici è, anzitutto, un processo iterativo che richiede sperimentazione e un approccio per tentativi, spesso in parallelo con i metodi di gestione del rischio tradizionali, che genera, per sua natura, un considerevole dispendio di energie economiche e non, scoraggiando gli investimenti da parte delle Istituzioni Finanziarie meno strutturate.

Difficoltà di un approccio completamente AI based devono rintracciarsi anche nella resistenza culturale manifestata da alcuni operatori di settore, restii a sostituire i sistemi AML già in uso con soluzioni più avanzate che necessitano di essere comprese appieno per garantire un’assunzione di responsabilità consapevole nei confronti delle Autorità di Vigilanza. Difatti, i soggetti obbligati devono essere sempre in grado di rispondere alle Authority in merito alla qualità, adeguatezza e affidabilità delle misure AML/CFT adottate. Questo principio spinge alcune organizzazioni a utilizzare soluzioni già collaudate, come quelle basate su motori a regole deterministiche, in grado di generare un risultato ripetibile e dimostrabile. Viceversa, il ricorso a soluzioni più avanzate, anche se decisamente più efficaci nel rilevare i rischi riciclaggio e finanziamento al terrorismo, in assenza di adeguate conoscenze e adeguati investimenti, risulterebbe più difficile da interpretare e illustrare in sede di rendicontazione all’Autorità di Vigilanza. La percepita incapacità di poter gestire e interpretare le potenzialità e i risultati di queste tecnologie evolute, conseguenza delle scarse conoscenze in tema di data analytics e Machine Learning del personale addetto ai controlli AML/CFT, ancora caratterizzato da una formazione quasi esclusivamente di tipo economico- finanziario e legale-giuridico, costituisce una sfida importante per gli operatori del settore. Per poter sfruttare al meglio i benefici dell’Intelligenza Artificiale e delle macchine evolute, è necessario, infatti, investire nelle risorse umane. Bisogna integrare gli attuali team con addetti dotati di capacità e conoscenze matematico-statistiche nonché informatiche, formare e aggiornare il personale già impiegato, per comprendere se dietro un’anomalia statistica, individuata da una macchina intelligente, si possa davvero nascondere un comportamento criminale.

L’accuratezza dei modelli analitici, la qualità delle analisi predittive e l’efficacia del ricorso agli algoritmi di Intelligenza Artificiale dipendono, inoltre, dalla capacità di fornire riscontri strutturati sull’esito finale delle attività di analisi e investigazione. Punto di massima criticità nell’utilizzo di modelli di Machine Learning è costituito dalla creazione dei datasets. Dati di addestramento incompleti, obsoleti, irrilevanti, oppure tecniche di raccolta non accurate, o, ancora, una sproporzione tra i dati impiegati per il training dell’algoritmo e quelli sottoposti all’analisi effettiva possono compromettere l’attendibilità dell’intero sistema AI-based. Così come il rischio di bias cognitivi nella costruzione dell’algoritmo e, ancor più, l’errore nell’interpretazione delle informazioni ottenute possono rendere inutile il ricorso a tali strumenti.

Neutralizzare questi pericoli ed assicurare maggiore efficienza agli algoritmi di Intelligenza Artificiale oggi pare possibile solo favorendo la condivisione di dati “ufficiali” tra le Istituzioni Finanziarie. Condivisione sicura di dati che in Europa potrebbe essere favorita e realizzata sotto l’egida della nascitura Autorità Antiriciclaggio UE. Da quanto detto, risulta evidente che nonostante i tanti benefici, l’eventuale adozione di tecnologie di Intelligenza Artificiale in ambito AML/CFT non è esente da rischi e ostacoli. Altri due pericoli insiti nel ricorso indisciplinato ad algoritmi di Intelligenza Artificiale consistono: nella carenza di trasparenza degli algoritmi e nell’illegittima gestione di dati personali.

Il difetto di trasparenza nei processi di automazione delle analisi e delle decisioni, ossia il ricorso ad algoritmi c.d. “black box”[62], è un fattore di forte diffidenza nei confronti delle tecnologie descritte. In proposito, il 6 ottobre 2021 il Parlamento Europeo ha adottato una nuova risoluzione dal titolo “L’Intelligenza Artificiale nel diritto penale e il suo utilizzo da parte delle autorità di polizia e giudiziarie in ambito penale”, evidenziando il rischio di distorsioni e discriminazioni, che possono essere intrinseche ai database adottati, specie se si utilizzano dati storici, inseriti dagli sviluppatori degli algoritmi o generati quando i sistemi sono attuati in contesti reali; in merito, il Parlamento ha ricordato che il risultato fornito dalle applicazioni di IA è necessariamente influenzato dalla qualità dei dati utilizzati e che tali distorsioni intrinseche sono destinate ad aumentare gradualmente e quindi a perpetuare e amplificare le discriminazioni esistenti. D’altro canto, l’Unione domanda la spiegabilità, la trasparenza, la tracciabilità e la verifica degli algoritmi quali elementi necessari della vigilanza per accrescere la fiducia dei cittadini dell’Unione negli strumenti impiegati.

Inoltre, le soluzioni tecnologiche avanzate devono sempre rispettare gli adempimenti previsti dalla normativa in materia di protezione dei dati personali. Specificatamente, gli algoritmi di Machine Learning devono assicurare la liceità, la correttezza e la proporzionalità del trattamento dei dati, fin dalla progettazione degli stessi (privacy by design[63]) e per impostazione predefinita (privacy by default[64]). Il ricorso a tecniche di Intelligenza Artificiale deve garantire l’accountability ovvero:

  • la responsabilità e la dimostrazione della conformità;
  • la trasparenza e la gestione dei rischi associati;
  • la dimostrazione di conformità dei criteri usati per l’addestramento dell’algoritmo;
  • la dimostrazione di conformità dei criteri usati dalle soluzioni;
  • la tracciabilità, la riproducibilità e la verificabilità dei risultati;
  • la responsabilizzazione del personale addetto.

Solo la stretta aderenza a questi principi assicura che gli algoritmi di Intelligenza Artificiale non siano alla base di decisioni fondate unicamente su un trattamento automatizzato[65], vietato dall’art. 22 del Regolamento europeo 2016/679.

Fortunatamente, il rispetto di questi vincoli non è da considerarsi un ostacolo insormontabile all’adozione di soluzioni tecnologiche avanzate, esistendo misure tecniche ed organizzative che garantiscono il rispetto della normativa in materia di privacy e, contemporaneamente, un utilizzo efficace delle soluzioni di Intelligenza Artificiale. È quanto accade con la pseudonimizzazione[66] dei dati personali o con l’adozione di soluzioni basate sul federated learning[67]. In questo senso si è espressa anche l’Unione Europea con due importanti atti di soft law:

  • le Linee guida in materia di intelligenza artificiale e protezione dei dati personali relative alla Convenzione (Consiglio d’Europa 2019);
  • il Libro Bianco sull’intelligenza artificiale - Un approccio europeo all’eccellenza e alla fiducia (Commissione Europea 2019).

In conclusione, il ricorso a strumenti di Intelligenza Artificiale nel settore dell’antiriciclaggio e del contrasto al finanziamento del terrorismo, costituisce la via più efficace per migliorare le prestazioni di un sistema che, numeri alla mano, fatica ancora tanto ad intercettare le risorse ed i capitali di origine criminale. Per efficientare la gestione del rischio Money Laundering è indispensabile mettere a fattor comune l’enorme quantità di dati già immagazzinati ed archiviati, mediante procedure unificanti e l'interazione dei soggetti obbligati con banche dati pubbliche.

La rivoluzione digitale, anche in ambito antiriciclaggio, deve accompagnarsi, a livello normativo, ad una delicata opera di bilanciamento tra esigenze di innovazione e tutela dei diritti messi in pericolo dall’utilizzo di sistemi opachi e non verificabili, spesso forieri di potenziali discriminazioni e compressioni degli spazi di libertà propri di ogni individuo.

20. Conclusioni

Oggi il fenomeno del Money Laundering, in tutte le sue forme e manifestazioni, rappresenta, in ragione del grave impatto sul tessuto economico e sociale, una vera e propria piaga, non solo per le alterazioni economiche che porta in grembo ma anche per la capacità di atteggiarsi a moltiplicatore di criminalità, in grado di accrescere in maniera esponenziale il potere economico[68] e sociale[69] della malavita e finanziare ulteriori attività illecite.

Le organizzazioni criminali e terroristiche continuano a mostrare una spiccata capacità di rinnovarsi, adattandosi a nuove prospettive normative e nuove opportunità riciclatorie, al fine di perseguire gli intenti criminali che caratterizzano il loro agire. Eppure, il riciclaggio di denaro è il “tallone di Achille” della criminalità, in quanto intercettare le attività di Money Laundering significa consentire all’Anticrimine di smascherare le organizzazioni criminali proprio grazie alle tracce lasciate dal denaro sporco.

Per queste ragioni, il Legislatore individua sempre più precisi e stringenti obblighi in capo alle Istituzioni Finanziarie al fine di prevenire l'utilizzo del sistema finanziario a scopo di riciclaggio dei proventi di attività criminose e di finanziamento del terrorismo[70].

I tradizionali sistemi Anti Money Laundering, però, registrano ancora notevoli difficoltà nell’attività di contrasto.

Un dato è eloquente: il riciclaggio di denaro è la prima fonte di sanzione per Banche e Istituti finanziari.

Alcune delle difficoltà del processo AML/CFT tradizionale sono state evidenziate in precedenza:

  • risorse umane oberate da un da una mole ingestibile di informazioni da esaminare con celerità e precisione;
  • mansioni ripetitive e task manuali il cui minimo errore può generare rischiosi effetti;
  • impossibilità di un’analisi olistica del rischio e di una gestione sistematica dello stesso.

Ebbene, è evidente la necessità di un’inversione di rotta.

Già nel 2018, cinque agenzie federali degli Stati Uniti, tra cui il Financial Crimes Enforcement Network, incoraggiavano gli Istituti finanziari ad implementare approcci innovativi in materia, suggerendo anche l’impiego di metodi dotati dell’Intelligenza Artificiale[71].

Un’arma efficace contro l’utilizzo del sistema finanziario per attività di riciclaggio di denaro e finanziamento del terrorismo, oggi esiste ed è l’Intelligenza Artificiale.

Le tecnologie avanzate offrono numerosi strumenti atti a potenziare e semplificare i processi nel settore AML/CFT. Il Machine Learning mette a disposizione diverse opportunità per automatizzare e migliorare le attività che sino ad oggi sono state affidate esclusivamente al lavoro umano. Questo permetterebbe, non solo maggiore velocità, accuratezza e certezza nei controlli, ma reindirizzerebbe anche il lavoro degli esperti verso mansioni a più alto valore aggiunto.

Gli strumenti basati sull’Intelligenza Artificiale, per quanto autonomi, necessitano comunque della supervisione degli operatori per poter esprimere appieno il proprio potenziale ed evitare di incappare in bias cognitivi, discriminazioni o compromissione di diritti soggettivi.

Risollevare le sorti del Anti Money Laundering oggi è possibile, attraverso una partnership uomo-macchina in cui si collabora per realizzare attività più precise, accurate ed etiche.


Note e riferimenti bibliografici

[1] Doug Laney, Application Delivery Strategies, in File 949META Group Inc., Stamford, 2001, pp. 208.

[2] Gary King, Preface: Big Data is Not About the Data!, in Michael Alvarez, Computational Social Science: Discovery and Prediction, Cambridge, 2016, pp. 1-3.

[4] “3D Data Management: Controlling Data Volume, Velocity, and Variety” di Doug Laney per Meta Group (ora Gartner), https://blogs.gartner.com/

[5] Clive Humby, data scientist e matematico inglese, nell’ormai lontano 2006 coniò lo slogan “I dati sono il nuovo petrolio”.

[6] Durante la conferenza Techonomy a Lake Tahoe, in California l’allora CEO di Google Eric Schmidt  snocciolò la celeberrima statistica. https://techcrunch.com/2010/08/04/schmidt-data

[9] Modello formale di apprendimento elaborato dallo psicologo americano Donald O. Hebb negli anni Quaranta del secolo scorso, per cui l’apprendimento è spiegabile secondo tre ipotesi, ciascuna delle quali ha col tempo ricevuto adeguate conferme sperimentali. La prima ipotesi è che i neuroni corticali rafforzino le loro connessioni quando risultano con frequenza attivi contemporaneamente. Questo principio di apprendimento associativo sembra essere valido per la maggioranza dei neuroni corticali; a esso si fa comunemente riferimento, appunto, come regola di Hebb. La seconda ipotesi è che la corteccia sia un’enorme memoria associativa in cui il rafforzamento delle sinapsi abbia luogo non solo tra neuroni vicini, ma anche tra neuroni in aree corticali distanti. Questa seconda ipotesi trae sostegno dagli studi neuroanatomici che evidenziano percorsi cortico - corticali tra molte aree della corteccia. Secondo la terza ipotesi, la contemporanea e frequente attivazione di un gruppo di neuroni che dà luogo al rafforzamento sinaptico ha conseguenze funzionali importanti. I neuroni fortemente connessi probabilmente agiscono insieme, come un’unità funzionale. Se vengono attivati solo alcuni dei neuroni, si attiverà l’intero gruppo, a causa delle forti connessioni tra i membri del gruppo stesso. Se l’insieme è attivo, i suoi neuroni sono attivi simultaneamente, o mostrano, per es., schemi di funzionamento sincronizzati in modo preciso, quando l’attività neuronale si diffonde nell’insieme. Gli insiemi hebbiani di cellule si possono definire come unità funzionali composte da molti neuroni che si formano in una rete associativa, la corteccia, come risultato di una frequente attività neuronale simultanea che causa un rafforzamento sinaptico. Negli ultimi anni, l’idea hebbiana di insiemi distribuiti con topografie corticali definite è stata incorporata nelle teorie neuronali a grande scala del linguaggio e di altre funzioni cognitive. 

[10] Già da tempo gli esseri umani pensavano a sistemi in grado di emulare il comportamento umano, infatti nel 1700 il Barone Von Kempelen realizzò il giocatore di scacchi per impressionare l’imperatrice Maria Teresa. Questo giocatore era posizionato di fronte ad una scacchiera e venne presentato come una vera macchina intelligente in grado di giocare in modo autonomo, ma quello che gli spettatori non sapevano era che all’interno della macchina si nascondeva uno scacchista che svolgeva tutto il lavoro, e che quindi era tutto un inganno. Il giocatore di scacchi di Maelzel, Edgar Allan Poe in Rizzoli 2021 traduzione Flavio Santi.

[11] Il Percettrone generò notevoli aspettative nella comunità scientifica, nei mercati e nella società in generale, ma la sua architettura a due strati non permise di classificare segnali non linearmente separabili e questo mise in luce i limiti dei primi semplici modelli di rete neurale che portò al crollo dei finanziamenti dando inizio al cosiddetto “inverno delle reti neurali”, periodo che durò fino al 1986.

[12] John R. Searle, La mente è un programma?, in Le scienze, n. 259, 1990, pp 16-21.

[13] Quel processo attraverso cui una rete neurale artificiale si dota di un corpo fisico onde consentirgli di interagire con gli oggetti circostanti. http://www.divenire.org/

[14] infatti, Deep Blue era 10 milioni di volte più veloce del computer di Ferranti progettato nel 1951. https://it.wikipedia.org/wiki/IBM_Deep_Blue

[16] Il go ebbe origine in Cina, dove è giocato da almeno 2500 anni. È molto popolare nell'Asia orientale e si è diffuso nel resto del mondo negli anni recenti. È un gioco molto complesso strategicamente malgrado le sue regole semplici; un proverbio coreano dice che nessuna partita di go è mai stata giocata due volte, il che è verosimile se si pensa che ci sono 2,08×10170 diverse posizioni possibili. https://motherboard.vice.com/

[19] Commissione Europea, L'intelligenza artificiale per l'Europa (COM(2018) 237 final)

[20] Gruppo di Esperti ad Alto Livello sull’Intelligenza Artificiale coordinato dalla Commissione Europea

[21] Gruppo di esperti ad alto livello, Una definizione di IA, 2019

[22] Antonio Sassano, Dibattiti in Commissione, 24 luglio 2019.

[23] LISP inventato da John McCarthy, l’informatico statunitense che ha vinto il Premio Turing nel 1971 per i suoi contributi nel campo dell'intelligenza artificiale e che ne coniò il termine, è un linguaggio per lo studio di equazioni di ricorsione in un modello computazionale. Dopo il Fortan, il Lisp è il più vecchio linguaggio di programmazione di alto livello ancora in uso https://www.storiainformatica.it

[24] moltiplicatore di criminalità”.

[25] Nello specifico l’apertura dei mercati e la conseguente integrazione dei sistemi economici, l’abbattimento delle distanze fino al crollo delle frontiere, la creazione di una valuta comune e l’abbattimento dei controlli sui cambi, sono componendi essenziali del processo di mondializzazione.

[26] “AML/CFT supervisory system means the Authority and the supervisory authorities in the Member States”, Proposal for Regulation of the European Parliament and of the Council establishing the Authority for Anti-Money Laundering and Countering the Financing of Terrorism and amending Regulations (EU) No 1093/2010, (EU) 1094/2010, (EU) 1095/2010, (2021/0240 (COD) art. 2, par.1.

[27] Il criminologo Edwin Shuterland tra gli anni 40-50 pone per primo l’attenzione su questo delicato tema nell’opera “White Collar Crime” (1940), che rappresenta una vera e propria svolta nella sociologia della devianza. In precedenza, infatti, la criminalità era considerata appannaggio delle classi meno ricche mentre la teoria di Shutherland mette in evidenza quanto alcuni comportamenti vengano realizzati anche da persone rispettabili.

[28] Struttura bifasica: 1. Money laundering cioè lavaggio; 2. Recycling, cioè reimpiego.

[29] Struttura tripartita, con passaggi distinti cronologicamente e ciascuno autonomamente idoneo ad integrare l’ipotesi di riciclaggio: 1. Placement, il piazzamento o collocamento del provento illecito nel mercato interno o internazionale, avvalendosi di istituzioni o intermediari finanziari, tradizionali e non, ovvero tramite l’acquisto di beni o altra forma di immissione diretta; 2. Layering, la stratificazione nel fornire alla ricchezza proveniente da reato una copertura che ne renda apparentemente legittima la provenienza, avvalendosi di un caleidoscopio di operazioni anche contemporanee, fra loro correlate e sempre mutevoli; 3. Integration, re-immissione nei circuiti economici dei proventi lavati, spesso mescolati in modo indistinguibile con quelli provenienti da qualsiasi attività lecita, dopo averli fatti transitare attraverso banche, società assicurative o di intermediazione accreditate, grossi studi legali o altri filtri al di sopra di ogni sospetto.

[30] Sono molteplici i tratti somatici in grado di ricondurre il volto di tale illecito penale alla fisionomia della legislazione emergenziale: a) La criminalizzazione anche del semplice “compimento di fatti o atti diretti alla realizzazione dell’obiettivo prefissato” consente una forte anticipazione della soglia di punibilità. Il ricorso alla formula del delitto a consumazione anticipata consente una sanzionabilità anche in assenza del verificarsi dell’evento lesivo e fino al ‘semplice possesso di banconote provenienti dal pagamento di somme versate per ottenere la liberazione del sequestrato’ (Cass. Pen. Sez. II n.11011/’88). b) La estrema limitatezza dei reati-presupposto. Il catalogo ridotto a “rapina aggravata, estorsione aggravata e sequestro di persona a scopo di estorsione” risulta deficitario essendovi composto soltanto da condotte criminali che determinano la sottrazione ad altrui patrimoni di ricchezza lecitamente accumulata. Infatti, si rivela l’assenza di ogni riferimento a condotte illecite, prodromiche alla produzione o allo scambio di beni criminali (es. corruzioni, concussioni, bancarotta fraudolenta, reati societari, appropriazioni indebite, truffe, traffico di stupefacenti). c) La previsione della sola condotta sostitutiva rende la fattispecie inadatta a ricomprendere le ipotesi di intervento ripulitivo giuridico (es. estinzioni di debito o taglio di pietre preziose in pietre più piccole), a differenza di quelle ripulitive materiali. L’elemento del dolo specifico “procurare a sé o ad altri un profitto o di aiutare gli autori dei delitti suddetti ad assicurarsi il profitto del reato” ha indotto a parlare di riciclaggio-ricettazione e riciclaggio-favoreggiamento a seconda della finalità perseguita dall’autore, e quindi, come di una modalità di perpetuazione di una condotta di tipo predatorio (rapina e sequestro), o parassitario (estorsione); dunque, una forma speciale. d) Restano da segnalare circa tale formulazione originaria: -l’esclusione della responsabilità del concorrente nel reato base; - la irrilevanza delle cause soggettive di esclusione della pena (entrambe ancora proprie della fattispecie tutt’ora vigente).

[31] Chiunque, fuori dei casi di concorso nel reato e dei casi previsti dagli articoli 648 e 648 bis, impiega in attività economiche o finanziarie denaro, beni o altre utilità provenienti da delitto, è punito con la reclusione da quattro a dodici anni e con la multa da euro 5.000 a euro 25.000.

La pena è della reclusione da due a sei anni e della multa da euro 2.500 a euro 12.500 quando il fatto riguarda denaro o cose provenienti da contravvenzione punita con l'arresto superiore nel massimo a un anno o nel minimo a sei mesi.

La pena è aumentata quando il fatto è commesso nell'esercizio di un'attività professionale.

La pena è diminuita nell'ipotesi di cui al quarto comma dell'art. 648.

Si applica l'ultimo comma dell'articolo 648.

[32] Cass. Pen., 2 aprile 2007, n. 15092.

[33]  Cass. Pen., 6 febbraio 2014, n. 16153.

[34]  Cass. Pen., 2 aprile 2007, n. 15092.

[35] Se le operazioni tese ad ostacolare l’identificazione della provenienza delittuosa possono consistere sia in quelle che incidono sulla cosa o ne alterano i dati esteriori, sia in quelle che lo trasformano o lo modificano parzialmente, allora anche lo smontaggio di un veicolo in singoli pezzi è riconducibile a tale categoria di operazioni. Tale operazione è infatti simile a quelle di taglio di pietre preziose o lo smontaggio e la fusione di gioielli altrimenti riconoscibili, che all’evidenza integrerebbero il delitto di riciclaggio, ricorrendone gli altri presupposti richiesti dalla norma incriminatrice, essendo oggettivamente e soggettivamente finalizzate ad occultare la provenienza delittuosa dei suddetti beni. (Cass. Pen. 02 aprile 2007, n. 15092).

[36]  Seconda forma di condotta punibile, per alcuni (Fiandaca-Musco), terza tipologia di riciclaggio per altri (Mantovani).

[37] Autorevole dottrina ha ritenuto plausibile che le ‘altre operazioni’ costituiscano una risposta diretta a neutralizzare le iniziative investigative da parte dell’autorità giudiziaria, cui – a differenza di quanto avviene nelle ipotesi di sostituzione o trasferimento – sia stato già dato concreto avvio.

[38] Il termine ‘auto-riciclaggio’ non viene impiegato per indicare una species del genus riciclaggio, ma solo per indicare una peculiarità consistente nel fatto che l’autore del reato di riciclaggio è lo stesso del reato presupposto.

[39]  Cass. Pen. 30 gennaio 2007, n. 6350, nella specie, il riciclaggio era stato ritenuto integrato relativamente alla condotta di un soggetto che aveva provveduto a “sostituire” i capitali illeciti con il versamento presso banche di denaro o di assegni, con il successivo ritiro di denaro contante dell’importo corrispondente. La Cassazione ha ritenuto congruamente motivata la sussistenza del dolo argomentata dal giudice di merito con riferimento alla consistenza delle somme movimentate e alla mancanza di giustificazioni diverse.

[40] Cass. Pen. 30 giugno 2015, n. 32491.

[41] Cass. Pen. 30 giugno 2015, n. 32491.

[42] erano evidenti gli sfumati contorni di un non facilmente immaginabile ostacolo tentato, dunque, le difficoltà insite nel tracciare la soglia di rilevanza del tentativo di ostacolo.

[44] Vengono pertanto integralmente abrogati il decreto-legge 3 maggio 1991 n. 143 convertito con modificazioni in legge 5 luglio 1991 n. 19, il decreto legislativo 20 febbraio 2004 n. 56 e i relativi provvedimenti di attuazione, e parzialmente abrogato il decreto legislativo 25 settembre 1999 n. 374.

[45] Dando piena attuazione al criterio direttivo contenuto nella lettera h) dell’art. 22 della legge delega n. 29 del 2006 che prescriveva di adeguare l’applicazione dettagliata delle disposizioni alle peculiarità delle varie professioni.

[46] Approccio differente in funzione del diverso grado di rischio di riciclaggio ex lettera g) dell’art. 22 della legge delega.

[47] Il D. Lgs. 231 2007 impone ai suoi destinatari (suddetti) degli obblighi precisi di collaborazione con le autorità di controllo dello stato, che possono essere di due tipologie:

Collaborazione passiva;

Collaborazione attiva.

La collaborazione passiva consiste nel conoscere approfonditamente i propri clienti, conservando in maniera scrupolosa tutti i documenti che li riguardano. Potremmo definire questa fase collaborazione “preventiva”.

La collaborazione attiva invece è più legata alla segnalazione di situazioni anomale. Queste devono essere inviate ad un organo chiamato UIF. L’operazione sospetta è di fatto qualsiasi situazione che genera un dubbio di illecito nell’operatore. Meglio sempre segnalare che no.

https://studiofinetti.eu/

[48] L’art. 2359, comma 1, n. 3, c.c. contempla tra le ipotesi in cui una società è considerata controllata da un’altra la fattispecie in cui una società sia “sotto influenza dominante in virtù di particolari vincoli contrattuali”.

Giova premettere come non ogni vincolo contrattuale sia tale da integrare la fattispecie del controllo esterno, risultando necessario, ai fini della sua rilevanza, valutare quali siano in concreto gli effetti da esso prodotti, il suo contenuto ed il contesto nel quale viene realizzato.

Come sostiene la Cassazione (Cass., 27 settembre 2001, n. 12094), il controllo contrattuale di cui all’art. 2359, comma 1, n. 3, quale quaestio facti, nasca da vincoli particolari sia per il contenuto giuridico sia per la determinata situazione di fatto in cui si inseriscono. Risulta quindi necessario effettuare in concreto una prognosi della rilevanza giuridica della situazione di predominio, al fine di appurare quando risulti integrata “un’influenza dominante in virtù di particolari vincoli contrattuali”.

La stessa Suprema Corte ha affermato che la configurabilità del controllo esterno di una società su di un'altra, postula la esistenza di determinati rapporti contrattuali la cui costituzione ed il cui perdurare rappresentino la condizione di esistenza e di sopravvivenza della capacità di impresa della società controllata (Cass., 27 settembre 2001, n. 12094, cit.).

https://ilsocietario.it

[49] Denuncia da parte di pubblici ufficiali e incaricati di un pubblico servizio: salvo quanto stabilito dall'articolo 347, i pubblici ufficiali e gli incaricati di un pubblico servizio che, nell'esercizio o a causa delle loro funzioni o del loro servizio, hanno notizia di un reato perseguibile di ufficio, devono farne denuncia per iscritto, anche quando non sia individuata la persona alla quale il reato è attribuito. La denuncia è presentata o trasmessa senza ritardo al pubblico ministero o a un ufficiale di polizia giudiziaria. Quando più persone sono obbligate alla denuncia per il medesimo fatto, esse possono anche redigere e sottoscrivere un unico atto. Se, nel corso di un procedimento civile o amministrativo, emerge un fatto nel quale si può configurare un reato perseguibile di ufficio, l'autorità che procede redige e trasmette senza ritardo la denuncia al pubblico ministero.

[50] Obbligo di riferire la notizia del reato: acquisita la notizia di reato, la polizia giudiziaria, senza ritardo, riferisce al pubblico ministero, per iscritto, gli elementi essenziali del fatto e gli altri elementi sino ad allora raccolti, indicando le fonti di prova e le attività compiute, delle quali trasmette la relativa documentazione.
Comunica, inoltre, quando è possibile, le generalità, il domicilio e quanto altro valga alla identificazione della persona nei cui confronti vengono svolte le indagini, della persona offesa e di coloro che siano in grado di riferire su circostanze rilevanti per la ricostruzione dei fatti.
Qualora siano stati compiuti atti per i quali è prevista l'assistenza del difensore della persona nei cui confronti vengono svolte le indagini, la comunicazione della notizia di reato è trasmessa al più tardi entro quarantotto ore dal compimento dell'atto, salve le disposizioni di legge che prevedono termini particolari.
Se si tratta di taluno dei delitti indicati nell'articolo 407, comma 2, lettera a), numeri da 1 a 6 e, in ogni caso, quando sussistono ragioni di urgenza, la comunicazione della notizia di reato è data immediatamente anche in forma orale. Alla comunicazione orale deve seguire senza ritardo quella scritta con le indicazioni e la documentazione previste dai commi 1 e 2.
Con la comunicazione, la polizia giudiziaria indica il giorno e l'ora in cui ha acquisito la notizia.

[51] LexisNexis Risk Solutions, True Cost of Compliance Study, USA, 2018.

[52] B. Monroe, Fincrime Briefing: AML Fines in 2019 Breach $8 Bilion, Treasury Official Pleads Guilty to Leaking, in Crypto Compliance Outlook, USA, 2021.

[53] Chainalisy, Crypto Crime Report, USA, 2021.

[54] Adeguata Verifica della Clientela.

[55] Organismo intergovernativo che ha per scopo l’elaborazione e lo sviluppo di strategie di lotta al riciclaggio e di prevenzione del finanziamento al terrorismo. Il FATF elabora standards riconosciuti a livello internazionale per il contrasto delle attività illecite finanziarie e valuta e monitora i singoli sistemi nazionali. Gli International Standards on Combating Money Laundering and the Financing of Terrorism & Proliferation, compendiati in quaranta Raccomandazioni e aggiornati interamente nel 2012, costituiscono principi di riferimento che i paesi sono chiamati a recepire nel contesto dei rispettivi ordinamenti giuridici, amministrativi e finanziari.

[56] FATF, Opportunities and challenges of new technologies for AML/CTF, Luglio 2021.

[57] FATF, Opportunities and challenges of new technologies for AML/CTF, Luglio 2021.

[58] McKinsey&Company, Transforming approaches to AML and financial crimes, New York, 2019.

[59] Per Natural Language Processing o elaborazione del linguaggio naturale si intendono algoritmi di intelligenza artificiale in grado di analizzare, rappresentare e quindi comprendere il linguaggio naturale. Le finalità possono variare dalla comprensione del contenuto, alla traduzione, fino alla produzione di testo in modo autonomo a partire da dati o documenti forniti in input.

https://blog.osservatori.net/

[60] I sistemi di riconoscimento ottico dei caratteri (ROC), detti anche OCR (dall'inglese optical character recognition), sono programmi dedicati al rilevamento dei caratteri contenuti in un documento e al loro trasferimento in testo digitale leggibile da una macchina. La conversione viene effettuata solitamente tramite uno scanner. Il testo può essere convertito in formato ASCII semplice, Unicode o, nel caso dei sistemi più avanzati, in un formato contenente anche l'impaginazione del documento stesso. L'utente può modificare il risultato ottenuto con un normale editor di testo.

L'OCR è un campo di ricerca dell'intelligenza artificiale, della visione artificiale e del riconoscimento di pattern, legati al riconoscimento delle immagini.

https://it.wikipedia.org

[61] L’art.1, comma 2 lettera d) del Decreto Antiriciclaggio D.lgs. 231/2007 così come modificato dal D. Lgs. 90/2017, definisce come politicamente esposte, le persone fisiche che occupano o hanno cessato di occupare da meno di un anno importanti cariche pubbliche, nonché’ i loro familiari e coloro che con i predetti soggetti intrattengono notoriamente stretti legami.

Per persone fisiche che occupano o hanno occupato importanti cariche pubbliche si intendono:

Presidente della Repubblica, Presidente del Consiglio, Ministro, Viceministro e Sottosegretario, Presidente di Regione, assessore regionale, Sindaco di capoluogo di provincia o città metropolitana, Sindaco di comune con popolazione non inferiore a 15.000 abitanti nonché’ cariche analoghe in Stati esteri;

deputato, senatore, parlamentare europeo, consigliere regionale nonché’ cariche analoghe in Stati esteri;

membro degli organi direttivi centrali di partiti politici;

giudice della Corte costituzionale, magistrato della Corte di Cassazione o della Corte dei conti, consigliere di Stato e altri componenti del Consiglio di Giustizia Amministrativa per la Regione siciliana nonché’ cariche analoghe in Stati esteri;

membro degli organi direttivi delle banche centrali e delle autorità indipendenti;

ambasciatore, incaricato d’affari ovvero cariche equivalenti in Stati esteri, ufficiale di grado apicale delle forze armate ovvero cariche analoghe in Stati esteri;

componente degli organi di amministrazione, direzione o controllo delle imprese controllate, anche indirettamente, dallo Stato italiano o da uno Stato estero ovvero partecipate, in misura prevalente o totalitaria, dalle Regioni, da comuni capoluoghi di provincia e città metropolitane e da comuni con popolazione complessivamente non inferiore a 15.000 abitanti;

direttore generale di ASL e di azienda ospedaliera, di azienda ospedaliera universitaria e degli altri enti del servizio sanitario nazionale.

direttore, vicedirettore e membro dell’organo di gestione o soggetto svolgenti funzioni equivalenti in organizzazioni internazionali;

Sono invece qualificabili come familiari di persone politicamente esposte i genitori, il coniuge o la persona legata in unione civile o convivenza di fatto o istituti assimilabili alla persona politicamente esposta, i figli e i loro coniugi nonché’ le persone legate ai figli in unione civile o convivenza di fatto o istituti assimilabili.

Rientrano invece tra i soggetti con i quali le PEP intrattengono notoriamente stretti rapporti:

le persone fisiche legate alla persona politicamente esposta per via della titolarità effettiva congiunta di enti giuridici o di altro stretto rapporto di affari;

le persone fisiche che detengono solo formalmente il controllo totalitario di un’entità notoriamente costituita, di fatto, nell’interesse e a beneficio di una persona politicamente esposta

https://www.alavie.it/

[62] Nella teoria dei sistemi, un modello black box è un sistema che, similmente ad una scatola nera, è descrivibile essenzialmente nel suo comportamento esterno ovvero solo per come reagisce in uscita (output) a una determinata sollecitazione in ingresso (input), ma il cui funzionamento interno è non visibile o ignoto. Tale definizione nasce dalla considerazione che nell'analisi del sistema ciò che è veramente importante a livello macroscopico ovvero a fini pratici è il comportamento esterno, specie in un contesto di interconnessione di più sistemi, piuttosto che il funzionamento interno il cui risultato è appunto proprio il comportamento esterno.

https://it.wikipedia.org/

[63] Il principio della privacy by design richiede che la tutela dei diritti e delle libertà degli interessati con riguardo al trattamento dei dati personali comporti l'attuazione di adeguate misure tecniche e organizzative al momento sia della progettazione che dell'esecuzione del trattamento stesso, onde garantire il rispetto delle disposizioni del Regolamento UE 2016/679.

https://www.altalex.com/

[64] Il principio di privacy by default (protezione per impostazione predefinita) prevede, appunto, che per impostazione predefinita le imprese dovrebbero trattare solo i dati personali nella misura necessaria e sufficiente per le finalità previste e per il periodo strettamente necessario a tali fini. Occorre, quindi, progettare il sistema di trattamento di dati garantendo la non eccessività dei dati raccolti. in modo che l'interessato riceva un alto livello di protezione anche se non si attiva per limitare la raccolta dei dati (es. tramite opt out). 

Il principio in questione ovviamente tocca tutti gli aspetti del trattamento, non solo la quantità e qualità dei dati, ma anche il periodo di trattamento e le persone che possono accedere ai dati. 

https://protezionedatipersonali.it

[65] L’art. 22, par. 1 stabilisce che:” l’interessato ha diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona”. Per “decisione basata unicamente sul trattamento automatizzato” si deve intendere una decisione presa senza il coinvolgimento di un essere umano che possa influenzare ed eventualmente cambiare il risultato attraverso la sua autorità o competenza.

https://www.privacy.it/

[66] La pseudonimizzazione comporta il trattamento dei dati personali in modo tale che gli stessi dati non possano più essere attribuiti a un interessato specifico senza l'utilizzo di informazioni aggiuntive, a condizione che tali informazioni aggiuntive siano conservate separatamente e soggette a misure tecniche e organizzative intese a garantire che tali dati personali non siano attribuiti a una persona fisica identificata o identificabile.

https://www.altalex.com/

[67] L'apprendimento federato (noto anche come apprendimento collaborativo) è una tecnica di apprendimento automatico che permette di addestrare un algoritmo attraverso l'utilizzo di dispositivi decentralizzati o server che mantengono i dati, senza la necessità di scambiare i dati stessi. Questo approccio si oppone alle tradizionali tecniche di apprendimento automatico centralizzate dove i dati vengono caricati su un server, o ai più tradizionali metodi decentralizzati che assumono che i dati locali sono distribuiti in modo identico. L’apprendimento federato permette ai diversi partecipanti di costruire un modello per l’apprendimento automatico comune e robusto, senza lo scambio di qualsiasi dato. L'utilizzo di questa tecnica consente di affrontare problemi critici come la protezione, la sicurezza, e i diritti di accesso ai dati e l’impiego di dati eterogenei. Le principali applicazioni dell’apprendimento federato comprendono vari campi come la difesa, le telecomunicazioni, l’IoT e la farmaceutica.

https://it.wikipedia.org

[68] Oltre al danno provocato dal crimine dal quale il denaro sporco ha origine, si ha un ulteriore effetto negativo anche al momento della reintroduzione dei suoi proventi nel ciclo economico, ovvero nella fase di integrazione. A livello microeconomico vengono alterate le condizioni di concorrenza fra aziende, il meccanismo di segnalazione dei prezzi e l’efficienza dell’allocazione delle risorse. L’impresa finanziata da proventi criminali ottiene infatti il vantaggio competitivo di poter disporre di una fonte di denaro a basso costo. A livello macroeconomico, il riciclaggio di denaro può potenzialmente arrivare ad intaccare anche i tassi d’interesse e i tassi di cambio fra valute. Questo poiché i riciclatori sono più propensi ad investire i propri averi in soluzioni che rendano il denaro difficilmente rintracciabile, piuttosto che ad avere un rapporto rischio-rendimento adeguato. Ciò crea una distorsione dei prezzi del denaro e, di conseguenza, altera la domanda di moneta e aumenta la volatilità dei flussi di capitale a livello internazionale.

[69] Poiché il riciclaggio di denaro permette ai criminali di espandere le loro attività, ne conseguono maggiori spese per combattere il crimine, per la sicurezza, per il benessere sociale, ecc. I cittadini sono inoltre esposti a maggiori rischi di cader vittima di atti criminali e, se la corruzione arriva a livelli limite, vi è anche l’eventualità che le organizzazioni criminali operanti nel Paese subentrino al legittimo governo.

Il riciclaggio di denaro diminuisce gli introiti fiscali dello Stato, che di conseguenza disporrà di meno risorse per investimenti e gestione corrente e danneggia indirettamente coloro che pagano correttamente le imposte. Il denaro riciclato, usato per finanziare ulteriori attività criminali e corrompere pubblici ufficiali, indebolisce il controllo dei governi sulla politica. A un livello più elevato questo può minare la reputazione di una nazione, attirare ulteriori attività criminali e diminuire le possibilità di sviluppo e di crescita economica di un Paese.

[70] D. Lgs. 21 novembre 2007, n. 231. Attuazione della direttiva 2005/60/CE concernente la prevenzione dell'utilizzo del sistema finanziario a scopo di riciclaggio dei proventi di attività criminose e di finanziamento del terrorismo nonché' della direttiva 2006/70/CE che ne reca misure di esecuzione.

[71] Nella loro dichiarazione, scrivono: “The Agencies welcome these types of innovative approaches to further efforts to protect the financial system against illicit financial activity “.