Big Data, Intelligenza Artificiale e contrasto all’evasione fiscale:

stato dell’arte e prospettive future

 

 

EDOARDO TEDESCHI

Dottorando di ricerca in Diritto e Impresa (XXXVI ciclo)

LUISS Guido Carli

 

open in pdf

  

 

 

SOMMARIO: 1. Big Data e Intelligenza Artificiale. – 2. Quadro giuridico internazionale ed europeo di riferimento. – 3. Lo “stato dell’arte” in Italia. – 4. Brevi osservazioni giurisprudenziali, dall’estero e dall’Italia. – 5. Nuove forme di contrasto all’evasione, all’elusione ed alle frodi fiscali. – 6. Tecniche di bilanciamento: dal dovere alla contribuzione al diritto alla privacy. – 7. Prospettive future nel contrasto all’evasione fiscale: analisi predittiva e intelligenza artificiale. – 8. Considerazioni conclusive. – Abstract.

  

 

1. – Big Data e Intelligenza Artificiale

 

Clive Humby, data scientist e matematico inglese, nel 2006 coniò lo slogan “I dati sono il nuovo petrolio”.

I Big Data, infatti, hanno assunto, in modo sempre crescente negli ultimi anni, un ruolo primario nei più diversi settori fino ad essere definiti dal settimanale Economist una nuova materia prima del business: input economico pressoché equivalente al capitale e alla forza lavoro”. Il termine Big Data compare per la prima volta negli anni novanta, ma è dal duemila in poi che se ne cristallizzerà una definizione più consolidata, quella di una massa di «dati informatici così grandi, veloci o complessi, difficili o impossibili da elaborare con i metodi tradizionali»[1].

Da un punto di vista normativo, invece, non ne esiste una definizione completamente esaustiva, né sul piano internazionale né su quello domestico.

La Commissione Europea, per vero, ha utilizzato la breve locuzione “refers to large amounts of data produced very quickly by a high number of diverse sources[2], con ciò ponendo in evidenza i tre elementi che connotano i Big Data: grande volume di dati, prodotti (ed elaborati) molto velocemente, provenienti da un elevato numero di fonti differenti.

Anche a livello interno, in un documento pubblicato nel settembre 2020, le Autorità di settore[3] – sempre in assenza di una definizione normativa certa – hanno fatto riferimento «alla raccolta, all’analisi e all’accumulo di ingenti quantità di dati, tra i quali possono essere ricompresi dati di natura personale», in ciò traendo spunto anche dall’art. 4 del regolamento (UE) 2016/679 (infra, GDPR).

Una simile definizione comporta il necessario riferimento ad algoritmi e ad altre tecniche avanzate di produzione, idonee ad individuare correlazioni di natura probabilistica, tendenze e/o modelli: tra questi, ad esempio, gli algoritmi di apprendimento, anche avvalendosi di tecniche avanzate di Intelligenza Artificiale[4] (Artificial Intelligence) come il machine learning, sono in grado di estrarre nuova conoscenza da una massa di dati già costituita.

La caratteristica di simili algoritmi, il cui funzionamento evolve in base all’esperienza acquisita, è quella di essere variabili nel tempo, anche a sostenuti ritmi di velocità. Inoltre, la tendenza ad ottimizzare i modelli computati sulla base dei dati analizzati li rende sempre più precisi ed accurati. Tali peculiarità rendono gli algoritmi di machine learning dotati di una certa “autonomia” di comportamento.

D’altro canto, le tecniche di Intelligenza Artificiale (infra, per brevità, anche IA) consentono alle macchine di imparare dall’esperienza, di adeguarsi alle nuove informazioni ricevute e svolgere, così, compiti simili a quelli dell’uomo. Si tratta, infatti, di un genus di tecnologie in rapida evoluzione, in grado di apportare una vasta gamma di benefici economici e sociali in tutto lo spettro delle attività industriali e sociali. Ciò appare evidente nei settori ambientale e climatico, sanitario, ed in quello pubblico in generale, ma soprattutto in ambito economico-finanziario e, quindi, dell’erogazione di servizi al pubblico.

Come infatti riportato nelle “Proposte per una Strategia italiana per l’intelligenza artificiale”, «l’AI è una famiglia di tecniche in grado di rivoluzionare interi settori industriali, nonché la stessa interazione dei cittadini tra loro e con imprese, amministrazioni e società civile»[5].

In altri termini, l’IA è quel ramo di ricerca che si occupa dello studio della programmazione e della progettazione di sistemi volti a dotare le macchine di una o più caratteristiche tipicamente “umane”, quali l’apprendimento, la percezione visiva o spazio-temporale. Tra queste, si citano le tecniche di model prediction[6], di machine learning e di deep learning[7].

 

 

2. – Quadro giuridico internazionale ed europeo di riferimento

 

Il tema dei Big Data è stato oggetto di approfondite analisi da parte dell’Unione europea in un documento pubblicato dalla Commissione europea nel febbraio 2020, dal titolo “Una strategia europea per i dati[8].

In tale documento la Commissione ha evidenziato come l’evoluzione delle tecnologie digitali avvenuta negli ultimi anni sia stata in grado di trasformare l’economia e la società, con evidenti ripercussioni su ogni settore di attività e sulla vita quotidiana dei cittadini. Un elemento focale di tale trasformazione è costituito, appunto, dai dati, la cui raccolta ed utilizzo dovrà avvenire ponendo al primo posto gli interessi delle persone, conformemente ai valori, ai diritti fondamentali e alle norme europei.

L’auspicio formulato dalla Commissione è che l’UE divenga un «un modello di riferimento per una società che, grazie ai dati, dispone di strumenti per adottare decisioni migliori, a livello sia di imprese sia di settore pubblico»[9].

Secondo la visione antropocentrica formulata dalla Commissione, le regole dovrebbero essere basate sui valori europei per ciò che riguarda la privacy, la trasparenza e il rispetto dei diritti fondamentali dell’uomo; la libera condivisione dei dati dovrebbe essere limitata a quelli non personali o a quelli anonimizzati in modo irreversibile; gli individui dovrebbero, infine, avere il pieno controllo dei propri dati ed essere protetti dal regolamento generale sulla protezione dei dati, il GDPR.

La strategia proposta è, in tal senso, finalizzata alla realizzazione di un “autentico mercato unico dei dati[10], i cui problemi correlati sono affrontati mediante misure strategiche e finanziamenti, nell’ambito di un quadro legislativo agile e innovativo.

L’azione legislativa dovrà, peraltro, basarsi su quattro imprescindibili pilastri:

-        predisporre un quadro di governance intersettoriale per l’accesso ai dati e per il loro utilizzo: ciò si sostanzierebbe nella redazione di una legge sui dati che tenga anche contro dell’importanza dell’economia digitale;

-        investire nei dati e rafforzare le infrastrutture e le capacità europee per l’hosting, l’elaborazione e l’utilizzo di questi, anche nel senso di una maggiore interoperabilità: si tratterebbe di progettare un’architettura europea per la condivisione dei dati, per le infrastrutture cloud ed i servizi collegati affidabile ed efficiente sotto il profilo energetico;

fornire strumenti alle persone, investire nelle competenze e nelle PMI: rafforzare il diritto alla portabilità, in ragione dell’articolo 20 del GDPR, che conferisca agli utenti un maggior controllo riguardo a chi possa avere accesso ai dati generati automaticamente e, di conseguenza, utilizzarli;

-        creare spazi comuni europei di dati in settori strategici ed ambiti di interesse pubblico: ad esempio, in relazione ai dati industriali, al Green Deal, alla mobilità, in ambito sanitario ecc.

Su questa scia, anche il Parlamento europeo ha accolto favorevolmente i contenuti pubblicati nel documento “Una strategia europea per i dati”, ritenendo che «tale strategia sarà un requisito fondamentale per la sostenibilità economica delle aziende europee e per la loro competitività globale, come pure per il progresso delle università, dei centri di ricerca e dell’intelligenza artificiale nascente, e rappresenterà un passo decisivo verso la creazione di una società dei dati incardinata sui diritti e sui valori dell’UE, nonché verso la definizione delle condizioni affinché l’Unione possa esercitare un ruolo guida nell’economia dei dati, cosa che porterà a migliori servizi, a una crescita sostenibile e a posti di lavoro di qualità»[11].

Il Parlamento, al pari della Commissione, ritiene che i valori principali su cui basare la nuova fase di evoluzione dei dati dovranno poggiare sulla centralità dell’uomo ed essere basati, quindi, sui valori unionali del rispetto della vita privata, della trasparenza e del rispetto dei diritti e delle libertà fondamentali meglio enucleati nel contesto dei Trattati, in cui i cittadini siano in grado di prendere decisioni informate in merito ai dati che generano o che li riguardano.

Tra le azioni che si dovranno perseguire in tale prospettiva, vale evidenziare la necessità di «presentare una legge sui dati per incoraggiare e consentire in tutti i settori un flusso di dati più ampio ed equo da impresa a impresa (B2B), dall’impresa alla pubblica amministrazione (B2G), dalla pubblica amministrazione all’impresa (G2B) e da pubblica amministrazione a pubblica amministrazione (G2G)»[12].

Dovrà essere, quindi, valorizzato l’aspetto umano e sociale, quale destinatario dei benefici derivanti da una corretta governance a tutto tondo sul tema dei dati.

Sul parallelo tema dell’Intelligenza Artificiale, nel maggio 2019 l’OCSE ha adottato un pacchetto di raccomandazioni[13] volto a favorire la nascita di un clima di fiducia intorno al tema dell’intelligenza artificiale attraverso la promozione di una gestione responsabile delle nuove tecnologie, del rispetto dei diritti umani e dei valori democratici.

Nel documento poc’anzi citato, l’OCSE ha sancito cinque principi generali necessari a gestire in maniera responsabile un’IA affidabile e all’avanguardia:

-        crescita inclusiva, sviluppo sostenibile e benessere a vantaggio delle persone e del pianeta;

-        valori ed equità incentrati sull’uomo: i sistemi devono essere progettati e sviluppati rispettando lo stato di diritto, i diritti umani, i valori democratici e la diversità, nonché contemplando la possibilità di prevedere l’intervento umano in caso di necessità;

-        trasparenza e divulgazione responsabile: le persone devono essere in grado di percepire e comprendere le caratteristiche e i risultati ottenibili mediante IA;

-        sicurezza e protezione: i sistemi devono essere in grado di funzionare in modo sicuro per tutto il loro ciclo di vita ed i potenziali rischi dovranno essere continuamente valutati e gestiti;

-        responsabilità: le persone e le organizzazioni che sviluppano, distribuiscono o gestiscono sistemi di IA devono essere ritenuti responsabili del loro funzionamento.

A ciò, l’OCSE ha altresì aggiunto ulteriori cinque raccomandazioni rivolte ai governi nazionali, evidenziando la necessità di:

-        investire nella ricerca e nello sviluppo dell’IA;

-        promuovere un ecosistema digitale per l’IA;

-        plasmare un ambiente politico favorevole per l’IA;

-        sviluppare le capacità umane e prepararsi alla trasformazione del mercato del lavoro;

-        favorire la cooperazione internazionale per un’IA affidabile.

Ancora a livello unionale, nel febbraio 2020 la Commissione europea ha pubblicato il “Libro bianco sull’intelligenza artificiale – Un approccio europeo all’eccellenza e alla fiducia[14] ove si propone un approccio normativo orientato agli investimenti, con il duplice scopo di promuovere l’adozione dell’IA e di affrontare i rischi associati a determinati utilizzi di questa nuova tecnologia.

L’obiettivo che intende perseguire la Commissione, anche tramite un partenariato tra il settore pubblico e privato, è quello di mobilitare risorse per conseguire un “ecosistema di eccellenza” lungo l’intera catena del valore, a cominciare dai settori della ricerca e dell’innovazione, creando i giusti incentivi per accelerare l’adozione di soluzioni basate sull’IA, anche da parte delle piccole e medie imprese.

In tale prospettiva, tra le numerose azioni da intraprendere, la Commissione auspica una maggiore interazione tra gli Stati membri, la condivisione delle informazioni, la promozione della ricerca e dell’utilizzazione dell’IA, sia nel settore pubblico che in quello privato (specie nelle piccole e medie imprese).

Sul punto, è il citato Libro Bianco ad osservare come l’Europa non possa più permettersi «di mantenere l’attuale panorama frammentato dei centri di competenza, in cui nessuno di questi raggiunge le dimensioni necessarie per competere con i principali istituti a livello mondiale” e come sia quanto mai “indispensabile creare più reti e sinergie tra diversi centri di ricerca europei sull’intelligenza artificiale e allineare i loro sforzi per migliorarne l’eccellenza, trattenere e attrarre i migliori ricercatori e sviluppare le migliori tecnologie»[15].

Sulla base dei principi enucleati nel Libro Bianco in argomento, in data 21 aprile 2021 la Commissione Europea ha presentato la proposta di “Regolamento del Parlamento Europeo e del Consiglio che stabilisce le regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale)” (d’ora in poi, per brevità, Regolamento IA). La proposta mira ad affrontare i rischi connessi a determinati utilizzi di tale tecnologia, proponendo un quadro giuridico per un’IA affidabile, tenendo conto degli obiettivi di seguito riportati:

-        assicurare che vengano immessi nel mercato sistemi sicuri e conformi alla normativa in materia di diritti fondamentali e di valori dell’Unione;

-        garantire la certezza del diritto per agevolare gli investimenti e l’innovazione;

-        migliorare la governance e l’applicazione effettiva della normativa esistente in materia di diritti fondamentali e requisiti di sicurezza applicabili ai sistemi di IA;

-        agevolare lo sviluppo di un mercato unico per applicazioni di tecnologie lecite, sicure e affidabili nonché prevenirne la frammentazione.

Per conseguire ciò, la proposta prevede un approccio equilibrato e proporzionato, volto ad enucleare i requisiti minimi necessari ad affrontare i rischi senza limitarne lo sviluppo tecnologico o aumentarne il costo sul mercato. Si vuole, quindi, fissare una serie di regole armonizzate in relazione allo sviluppo, all’immissione e all’utilizzo dei sistemi di IA secondo un approccio basato sul rischio.

La proposta delinea l’ambito di applicazione delle regole concernenti l’intero ciclo di vita dei sistemi di intelligenza artificiale, ovvero l’immissione sul mercato, la messa in servizio e l’utilizzo.

Ulteriore aspetto, senza dubbio significativo, è rappresentato dalla classificazione dei requisiti normativi multilivello, a seconda del rischio intrinseco relativo al sistema e/o alle tecniche di IA utilizzate.

Il documento, infatti, esplicita le pratiche di IA “vietate”, ossia quelle il cui uso è considerato contrario ai valori dell’Unione. Rientrano in questa casistica, in specie, l’uso dell’IA «da parte delle autorità pubbliche ai fini di ottenere il cosiddetto “punteggio sociale” per la valutazione del comportamento degli individui (social scoring), l’uso di sistemi di identificazione biometrica a distanza in tempo reale in spazi accessibili al pubblico ai fini dell’applicazione della legge (salvo determinate eccezioni), e le tecniche subliminali finalizzate ad alterare significativamente il comportamento di una persona in modo dannoso»[16].

D’altro canto, i sistemi ad alto rischio sono quelli che generano un rischio tale da provocare danni sensibili, il cui uso è consentito solo a seguito di specifici controlli di sicurezza. Nella categoria rientrano, ad esempio, il credit scoring, i sistemi di IA relativi a infrastrutture pubbliche essenziali, giustizia e sicurezza sociale, dispositivi medici ed altri dispositivi regolamentati, sistemi di trasporto.

La proposta di regolamento prevede altresì obblighi di trasparenza per taluni sistemi di IA così come misure a sostegno dell’innovazione, meglio delineati nel già menzionato Libro Bianco, il tutto sotto l’egida di una comune linea di governance che gli Stati membri dovranno impegnarsi ad adottare.

Per concludere sullo specifico tema, il 20 ottobre 2020 il Parlamento Europeo ha adottato tre risoluzioni contenenti raccomandazioni per la Commissione Europea in vista della redazione e stesura dei futuri regolamenti sull’intelligenza artificiale (IA). Si tratta, in particolare, della:

-        “Risoluzione recante raccomandazioni alla Commissione su un regime di responsabilità civile per l’intelligenza artificiale”;

-        “Risoluzione recante raccomandazioni alla Commissione concernenti il quadro relativo agli aspetti etici dell’intelligenza artificiale, della robotica e delle tecnologie correlate”;

-        “Relazione sui diritti di proprietà intellettuale per lo sviluppo di tecnologie di intelligenza artificiale”.

Da quanto appena espresso emerge con tutta evidenza l’obiettivo del Parlamento di stabilire una rinnovata fiducia nell’IA, oltre che di favorirne lo sviluppo mediante un quadro normativo e regolamentare che promuova la certezza del diritto, assicurando al contempo il rispetto dei diritti fondamentali, la protezione dei consumatori ed il rispetto dei principi etici. Per raggiungere un simile fine risulta quanto mai necessaria la promozione della trasparenza e dello scambio di informazioni tra i cittadini e le entità coinvolte nello sviluppo, impiego o utilizzo dell’IA.

 

 

3. – Lo “stato dell’arte” in Italia

 

In ambito nazionale, nel marzo 2018 l’Agenzia per l’Italia Digitale (d’ora in poi, per brevità, AgID), unitamente a una task force di esperti di settore, ha pubblicato il “Libro Bianco sull’Intelligenza Artificiale al servizio del cittadino” che ha l’obiettivo di analizzare l’impatto dell’IA nella società e, segnatamente, nella Pubblica Amministrazione: l’intenzione è quella di facilitare l’utilizzo di detta tecnologia da parte del settore pubblico per migliorare i servizi che questo eroga ai cittadini e alle imprese.

Tra le diverse definizioni di IA, il Libro Bianco annovera quella formulata dall’Università di Stanford, ossia «una scienza e un insieme di tecniche computazionali che vengono ispirate - pur operando tipicamente in maniera diversa - dal modo in cui gli esseri umani utilizzano il proprio sistema nervoso e il proprio corpo per sentire, imparare, ragionare e agire»[17].

Di sicuro interesse appaiono le proposte formulate da AgID in tema di potenzialità di utilizzo dell’IA nell’ambito della Pubblica Amministrazione, garantendo maggiore accessibilità ai servizi, favorendo notevole abbattimento dei costi di questi, con vantaggi in termini di riduzione della spesa sociale, che potrà essere cosi riallocata.

All’uopo, il Libro Bianco indica ben nove sfide da affrontare per integrare efficacemente l’IA[18]. Tra queste, merita di essere citata la “sfida etica”, che ribadisce un approccio antropocentrico teso a porre lo strumento dell’intelligenza artificiale al servizio delle persone. Secondo tale visione, l’utilizzo degli strumenti IA deve sottostare ai principi generali dell’equità, in modo da garantire il rispetto delle libertà e dei principali diritti dell’individuo e della collettività.

Ad esempio, sono stati sollevati problemi in tema di “neutralità dei dati”, di forme di responsabilità da parte di chi utilizza gli algoritmi, di trasparenza ed apertura alla condivisione di questi, nonché di tutela della privacy dell’utente.

Per ciò che concerne l’aspetto tecnologico, invece, i sistemi di IA non sembrano, al momento, in grado di riprodurre il complesso funzionamento della mente umana, riuscendo comunque ad approssimare talune abilità circoscritte. L’intenzione è quindi quella di aumentare lo sforzo tecnologico affinché i sistemi più all’avanguardia possano cooperare meglio con gli esseri umani, recependone i comportamenti e le abilità.

Su questa direttrice è necessario favorire l’ampliamento delle competenze e delle conoscenze sia dei cittadini che degli erogatori di servizi pubblici, in un sistema in cui la governance del Paese accompagni il processo della nuova trasformazione digitale.

La predetta trasformazione dovrà essere sviluppata mediante un quadro legale e normativo che sappia bilanciare gli interessi della collettività e quelli del cittadino (ad esempio, per quanto riguarda l’attività della Pubblica Amministrazione). La sfida è chiaramente quella di trovare un corretto bilanciamento tra un utilizzo efficace dell’IA al servizio dei cittadini e il rispetto del diritto alla riservatezza di questi, fornendo loro una efficace possibilità di esprimere il proprio consenso informato al trattamento dei dati da parte di sistemi intelligenti. A ben opinare, l’utilizzo di dati sensibili da parte delle tecnologie di IA in uso alla Pubblica Amministrazione potrebbe, infatti, compromettere il diritto alla privacy dell’individuo, nonché taluni diritti fondamentali di questo.

Oltre a ciò, è necessario considerare anche gli effetti dell’estensione dell’algoritmo intelligente sul principio della trasparenza degli atti amministrativi, principio cardine che regola l’attività procedimentale della Pubblica Amministrazione: in quest’ottica i criteri da utilizzare sembrano senza dubbio quello della trasparenza degli algoritmi, delle logiche di costruzione dei database su cui questi operano, definendone le correlate responsabilità.

Al fine di verificare e valutare i vantaggi effettivi derivanti dall’uso dell’IA da parte della Pubblica Amministrazione è allora necessario effettuarne una misurazione d’impatto, con riferimento sia al miglioramento della qualità della vita delle persone e della customer satisfaction dell’utente che all’ottimizzazione dei processi organizzativi della PA, in termini di efficienza ed efficacia.

A seguito della pubblicazione del Libro Bianco, nel luglio 2020 è stato divulgato, ad opera di un team di esperti del Ministero dello Sviluppo Economico, un documento intitolato “Proposte per una Strategia italiana per l’Intelligenza Artificiale[19]. La pubblicazione integra e completa l’indirizzo europeo che nell’ultimo periodo ha annoverato numerosi interventi nell’ambito di una strategia europea sull’Intelligenza Artificiale.

Il documento sottolinea l’enorme potenzialità dei sistemi di IA, evidenziando, al contempo, la necessità di implementare un «percorso teso allo sviluppo della stessa affinché si possa contribuire ad incrementare la competitività delle imprese sul piano internazionale e a una migliore efficienza dei servizi pubblici»[20]. Così come il Libro Bianco della Commissione Europea, anche la Strategia italiana nasce dalla convinzione per cui la tecnologia basata sui sistemi IA possa e debba contribuire a migliorare la vita delle persone, di nuovo secondo un approccio che sia il più possibile “antropocentrico”. Sulla scorta di questa premessa, la strategia italiana si prefigge l’obiettivo di tutelare l’individuo, riconoscendo come profili e principi fondamentali quelli della trasparenza, sicurezza, robustezza ed accountability dei sistemi IA.

Purtuttavia, se mal utilizzata o concepita, è ormai evidente come l’IA possa comportare conseguenze pregiudizievoli per i cittadini, l’economia e la società: ciò dipende dall’uso che se ne fa. Invero, devono allora essere primariamente salvaguardati la capacità dell’individuo di autodeterminarsi rispetto all’utilizzo della tecnologia intelligente, il diritto alla conservazione della propria sfera privata nonché la possibilità di ricevere una adeguata educazione, supporto e protezione nei sistemi di IA in qualità di individuo, cittadino, utente, consumatore e lavoratore.

Nella transizione verso il “Rinascimento industriale” reso possibile dall’IA (c.d. RenAIssance)[21] spetta alla governance statuale svolgere il ruolo di propulsore, quale interlocutore diretto del comparto produttivo e dei clienti/utenti, al fine di generare fiducia verso il sistema orientato all’individuo ed allo sviluppo sostenibile.

Ecco, allora, delineate le direttrici lanciate dagli esperti del MiSE in relazione alla strategia italiana in tema di IA, con l’auspicio che possa aumentare il livello di fiducia da parte dei cittadini nei confronti dei sistemi intelligenti, il tutto sotto l’egida dei principi e dei valori delineati dalla Costituzione e dall’ordinamento giuridico nazionale tutto.

Sviluppi vi sono stati, di recente, anche sul tema dei Big Data: nel febbraio 2020 è stato pubblicato da parte dell’Autorità Garante della Concorrenza e del Mercato, dall’Autorità Garante delle Comunicazioni e dal Garante per la Protezione dei Dati Personali un documento congiunto, intitolato “Indagine conoscitiva sui Big Data[22], con il dichiarato intento di «approfondire la conoscenza degli effetti prodotti dal fenomeno dei Big Data e analizzarne le conseguenze in relazione all’attuale contesto economico-politico-sociale e al quadro di regole in vigore»[23].

Particolarmente interessante appaiono le proposte di utilizzo di tali “dati aggregati” in diverse applicazioni economiche. In primis, si rende evidente come i Big Data possano contribuire all’efficientamento ed al miglioramento dei processi direzionali, gestionali e operativi delle organizzazioni. In secondo luogo, sono in grado di costituire materiale pregiato per l’offerta di prodotti e servizi innovativi nei confronti degli utenti/clienti (si pensi, ad esempio, alle diffuse applicazioni in grado di descrivere le condizioni del traffico sulle arterie stradali).

In una prospettiva d’analisi diametralmente opposta, ovvero dal punto di vista del fornitore di servizi, i Big Data possono consentire alle imprese di conoscere in maniera estremamente dettagliata i consumatori, al fine di aumentare la personalizzazione dei prodotti e dei servizi offerti.

Infatti, «piattaforme di e-commerce e piattaforme attive nella distribuzione di contenuti digitali possono utilizzare i Big Data per offrire agli utenti suggerimenti di prodotti e servizi da acquistare o di contenuti editoriali e audiovisivi da fruire. Altre piattaforme come i motori di ricerca e i social network possono personalizzare i risultati delle ricerche e i contenuti presentati all’attenzione degli utenti finali sulla base delle informazioni che hanno raccolto ed elaborato sui singoli individui»[24].

Anche le Pubbliche Amministrazioni possono trarre benefici dal sapiente utilizzo delle informazioni derivanti dai Big Data: «processati attraverso algoritmi di machine learning, tali dati, insieme a quelli tradizionali, possono essere impiegati per costruire indicatori dell’attività economica più accurati e tempestivi, ad esempio per stimare il tasso di disoccupazione o il tasso di inflazione, per migliorare le previsioni di variabili rilevanti a fini di policy, per misurare il clima di fiducia di consumatori e imprese»[25].

Da quanto osservato, emerge allora chiaramente l’intima connessione fra i settori dell’Intelligenza Artificiale e dei Big Data. I principi cardine che guidano il processo di sviluppo tecnologico sono, infatti, comuni: la garanzia della presenza di un controllo e di una supervisione umana, il rispetto dei principi di non discriminazione ed equità nella relazione con gli esseri umani coinvolti nelle attività, la massimizzazione del benessere sociale e di quello ambientale e, infine, il rispetto del principio di responsabilità, per il quale dovrebbero essere istituiti meccanismi di monitoraggio dei risultati dei sistemi di AI e di individuazione di precisi responsabili per il loro funzionamento. Le modalità di raccolta dei dati, infatti, anche se effettuate con sistemi di IA, devono comunque garantire il rispetto della privacy e della protezione dei dati personali e «devono avvenire nell’ambito di adeguati meccanismi di governance di tali dati, tenendo conto della qualità e dell’integrità dei database e garantendo un accesso legittimo da chi ne faccia ragionevole richiesta»[26].

Pare indubbia, quindi, la stretta correlazione tra l’Intelligenza Artificiale e i Big Data e il corretto e parallelo sviluppo di entrambe le tematiche, anche dal punto di vista normativo-regolatorio, garantirà la vera transizione digitale ed innovativa del Paese.

 

 

4. – Brevi osservazioni giurisprudenziali, dall’estero e dall’Italia

 

Sui temi finora trattati appaiono estremamente interessanti, quanto ai principi di diritto ivi enucleati, alcune pronunce giurisprudenziali di Corti straniere.

In Olanda, infatti, la Rechtbank den Haag (Corte distrettuale dell’Aja) ha bandito l’uso dell’algoritmo SyRI, (System Risk Indication)[27].

SyRI è un sistema di welfare digitale anti-frode, sviluppato nel 2014 dal Ministero degli Affari Sociali e dell’Occupazione, capace di prevedere la probabilità di un individuo di truffare lo Stato, sulla base di dati precedentemente raccolti e analizzati per creare dei “profili di rischio”. Si tratta, quindi, di un modello di decisione automatizzata sviluppato al fine di prevedere l’inclinazione a commettere frodi nella richiesta e nell’ottenimento di benefici sociali[28]. Lo strumento in argomento attingeva da vasti gruppi di dati personali e sensibili raccolti da varie agenzie governative: dai registri delle assunzioni, alle informazioni sui sussidi già richiesti, fino ai debiti personali e all’istruzione.

La Corte ha affermato come il governo olandese non sia riuscito a contemperare il diritto alla privacy dell’individuo e l’interesse pubblico, mancando peraltro di garantire un utilizzo dello strumento proporzionato rispetto all’obiettivo prefissato.

Infatti, sono stati raccolti principalmente i dati dei cittadini olandesi a basso reddito, ritenuti i più propensi a commettere illeciti di natura fiscale, così concentrando il controllo a mezzo dell’algoritmo su interi quartieri e sui rispettivi abitanti, senza che vi fosse alcun concreto sospetto di commissione di illeciti.

Per tale motivo, nel vietare l’utilizzo dello strumento in argomento, il giudice ha avuto a riferimento non solo la normativa europea sulla protezione dei dati personali, ma anche le più generali previsioni delle Carte sovranazionali dedicate alla tutela dei diritti umani, eccependo la discriminatorietà di un metodo d’indagine basato su mere presunzioni reddituali ed entiche.

Anche nel Regno Unito si registra una pronuncia estremamente interessante sul tema del facial recognition, sistema che utilizza software di riconoscimento facciale e che opera avvalendosi di un algoritmo in grado di rilevare «le cosiddette impronte facciali (faceprint), ovvero un certo numero di tratti, quali la posizione degli occhi, del naso, delle narici, del mento, delle orecchie e per il loro tramite [di] elabora[re] un modello biometrico finalizzato al riconoscimento»[29].

La High Court of Justice dell’Inghilterra e Galles nella pronuncia di cui è causa[30] ha affrontato in modo analitico la questione della compatibilità dell’utilizzo da parte delle forze di polizia di mezzi di riconoscimento facciale con i diritti fondamentali alla riservatezza ed alla tutela dei dati personali dei soggetti sottoposti ad indagine.

La Corte ha infatti ritenuto l’utilizzo di un simile strumento conforme alla tutela del diritto alla riservatezza, in ragione dell’art. 8, par. 2, CEDU, laddove la limitazione sia anche alla sicurezza nazionale e alla pubblica sicurezza. Allo stesso modo, la Corte non ha rilevato violazioni in tema di privacy e comportamenti discriminatori.

Differentemente da quella olandese, appare quindi palese l’apertura della giurisprudenza britannica all’utilizzo delle tecnologie di IA per finalità di pubblica sicurezza.

Anche in Italia, mentre si discute sempre più sulla cd. “decisione robotica” (anche “algoritmi predittivi”), ossia sull’ausilio apportato dalla strumentazione informatica al processo decisionale[31], si annovera una interessante pronuncia del giudice amministrativo in punto di algoritmo applicato al procedimento amministrativo.

Di recente, infatti, proprio il Consiglio di Stato ha avuto in esame la questione dell’utilizzo degli algoritmi nell’ambito della Pubblica amministrazione, segnando interessanti arresti in diritto. La censura del giudice amministrativo, in particolare, si innesta sull’utilizzo, nel corso del procedimento, di un algoritmo al quale sarebbe stata affidata l’individuazione dei criteri sui quali improntare l’intero iter decisionale amministrativo. I ricorrenti hanno infatti lamentato lo svolgimento di una procedura «gestita da un sistema informatico per mezzo di un algoritmo (…) e (…) sfociata in provvedimenti privi di alcuna motivazione, senza l’individuazione di un funzionario dell’amministrazione che abbia valutato le singole situazioni ed abbia correttamente esternato le relative determinazioni provvedimentali[32]».

Tanto constatato, non può ignorarsi la rilevanza della pronuncia del giudice di seconde cure, giacché finalizzata ad esaminare la valenza dell’impiego dell’intelligenza artificiale proprio in un settore, quello pubblico, nel quale da più parti si richiede invece un potenziamento nell’utilizzo dell’informatica, utile ad assicurare la più efficiente prestazione del servizio pubblico.

D’altronde, è lo stesso Consiglio di Stato a rilevare, nel corpo della sentenza, come «non possa essere più messo in discussione che un elevato livello di digitalizzazione dell’amministrazione pubblica sia fondamentale per migliorare la qualità dei servizi resi ai cittadini e agli utenti». In tal misura, il Codice dell’amministrazione digitale potrebbe essere senz’altro considerato un punto di svolta, assieme alla sempre maggiore affermazione che sta avendo il concetto di e-government, basato sull’introduzione di modelli decisionali che si fondano sulla tecnologia informatica.

Tanto premesso, il giudice amministrativo non disconosce gli «indiscutibili vantaggi derivanti dall’automazione del processo decisionale dell’amministrazione mediante l’utilizzo di una procedura digitale ed attraverso un algoritmo (…) che in via informatica sia in grado di valutare e graduare una moltitudine di domande». Un simile modello decisionale, invero, pare tanto più utile in procedimenti connotati da serialità o standardizzazione, che implicano l’elaborazione di innumerevoli dati e non necessitano alcun “apprezzamento discrezionale”, dando per di più una efficace attuazione ai canoni dell’efficienza e dell’economicità dell’azione amministrativa, compendiati nella legge sul procedimento amministrativo[33].

Quanto sopra, tuttavia, non può spingersi fino a costituire motivo di elusione dei principi che regolano lo svolgimento dell’attività amministrativa, osserva il Consiglio di Stato. Il profilo di maggiore interesse della pronuncia in commento, allora, sta proprio nella capacità di riconduzione della regola algoritmica all’interno delle regole sul procedimento amministrativo, solo in tal misura essendo capace di acquisire “una piena valenza giuridica ed amministrativa”. Al contempo, gli spazi applicativi rimessi alla discrezionalità amministrativa non possono mai essere – osserva il giudice – demandati ad un elaboratore elettronico che, per propria natura, ne è privo. Si osservi: «la regola algoritmica “non può lasciare spazi applicativi discrezionali (…), ma deve prevedere con ragionevolezza una soluzione definita per tutti i casi possibili, anche i più improbabili (e ciò la rende in parte diversa da molte regole amministrative generali); la discrezionalità amministrativa, se senz’altro non può essere demandata al software, è quindi da rintracciarsi al momento dell’elaborazione dello strumento digitale».

In tal misura, è sempre la pubblica amministrazione a dover compiere un ruolo di mediazione ex ante, nonché a dover assicurare la piena conoscibilità del meccanismo algoritmico alla base della decisione.

Sembra, allora, che simili riflessioni del giudice amministrativo siano in grado di aprire la strada a procedimenti sempre più “digitalizzati”, con i profili critici che ne derivano e con le garanzie che debbono sempre essere apprestate affinché siano rispettati i principi che presidiano il corretto svolgimento del procedimento amministrativo.

Quanto sinora rilevato si inserisce, peraltro, nel più ampio dibattito relativo alle modalità con le quali l’introduzione delle tecnologie dell’intelligenza artificiale, e delle nuove tecniche informatiche in genere, possa impattare sull’articolarsi del fenomeno democratico: «nella prospettiva del diritto costituzionale, l’applicazione delle nuove tecnologie nei più disparati ambiti della vita sociale non pone soltanto problemi relativi alla necessità di salvaguardare i diritti coinvolti, ma tocca anche il tema della condivisione delle stesse tecnologie, spesso ostacolate dal digital divide, nel quale trova espressione una delle più penalizzanti disparità del nostro tempo», osservava una dottrina, con argomenti destinati ad essere sempre più al centro del dibattito[34].

 

 

5. – Nuove forme di contrasto all’evasione, all’elusione ed alle frodi fiscali

 

Una delle applicazioni delle tecnologie legate all’Intelligenza Artificiale, avvalendosi anche dell’analisi dei Big Data, riguarda anche il contrasto ai fenomeni di evasione, elusione e frode fiscale.

Si tratta di una tematica fortemente sentita nel nostro ordinamento, in una cornice normativa che prevede norme sanzionatorie (amministrative e penali) parametrate al grado di censurabilità della condotta illecita posta in essere.

Oltre alla risposta sanzionatoria, un enorme passo in avanti nella lotta ai fenomeni dannosi per l’Erario è costituito dalla possibilità di effettuare un’analisi predittiva, condotta mediante acquisizione di Big Data, quale espressione di IA e utile ai fini della selezione dei target da sottoporre a più specifiche e penetranti attività di controllo da parte dell’Amministrazione finanziaria.

L’ingresso dei sistemi di IA nel settore fiscale, ancorché nel nostro paese le Agenzie fiscali e la Guardia di finanza siano dotate di un complesso di banche dati contenenti informazioni piuttosto delicate e sensibili, costituisce un ulteriore passo in avanti non solo per la repressione delle condotte illecite già poste in essere, bensì quale strumento di prevenzione di tutto il sistema tributario, volto a favorire strumenti di compliance alla platea di contribuenti.

Tuttavia, il percorso da seguire è ancora molto lungo, non soltanto da un punto di vista tecnico-scientifico ma anche da quello giuridico-normativo, che allo stato non “reca una disciplina completa di una materia che coinvolge aspetti critici dei diritti fondamentali, in primis il diritto alla privacy, in contrapposizione con il dovere di contribuzione alla spesa pubblica, entrambi costituzionalmente sanciti.

Ciò nonostante, attualmente il tema del contrasto alle forme evasive più perniciose nei confronti dell’Erario ha raggiunto una fondamentale importanza e va in stretto collegamento con la forte espansione del progresso tecnologico. Invero, l’utilizzo di banche dati interconnesse e l’analisi del rischio e, successivamente, dei Big Data e dei modelli di analisi predittiva, da parte dell’Amministrazione Finanziaria comporta un ponderato bilanciamento dei diversi interessi in gioco: interesse pubblico e diritti individuali.

 

 

6. – Tecniche di bilanciamento: dal dovere alla contribuzione al diritto alla privacy

 

Tra i principi fondamentali della carta costituzionale che hanno un impatto nel sistema tributario si citano:

-        art. 2, nella misura in cui statuisce il dovere di solidarietà politica, economica e sociale, collocando questo tra i valori cardine dell’ordinamento giuridico, tra i doveri alla base della convivenza sociale[35];

-        art. 3, che stabilisce l’uguaglianza, formale e sostanziale, nei diritti e nei doveri dei cittadini, anch’essa alla base dei principi fondanti della Carta fondamentale. Il secondo comma, giova rammentarlo nella sede che ci occupa, impegna la Repubblica a «rimuovere gli ostacoli di ordine economico e sociale, che, limitando di fatto la libertà e l’eguaglianza dei cittadini, impediscono il pieno sviluppo della persona umana e l’effettiva partecipazione di tutti i lavoratori all’organizzazione politica, economica e sociale del Paese»[36]. In tale ottica, l’uguaglianza sostanziale non costituisce solo una petizione di principio, ma uno scopo cui tendere sotto tutti i profili, anche da quello strettamente fiscale;

-        art. 53, che afferma il dovere generalizzato del concorso alla spesa pubblica in ragione della capacità contributiva di ognuno. In un simile enunciato si rinvengono due elementi fondamentali: la collettività del concorso ai carichi pubblici e il limite (sostanziale) della capacità contributiva del singolo[37].

Le entrate pubbliche, infatti, costituiscono il mezzo mediante il quale viene assolta l’attività dell’erogazione dei servizi necessari alla collettività. In tal senso, non può mancare di rilevarsi come il dovere generalizzato di contribuzione sia strettamente collegato al principio di solidarietà sociale, politica ed economica richiamato all’art. 2 Cost.

D’altro canto, il concetto di capacità contributiva costituisce diretta espressione del principio di uguaglianza di cui all’art. 3 citato, nella misura in cui costituisce il parametro, il presupposto e la misura massima cui deve improntarsi il prelievo tributario.

La disamina delle fonti del diritto che appaiono d’interesse per questa analisi deve, tuttavia, tenere conto anche dell’evoluzione e della tutela del diritto alla riservatezza. Sono, in effetti, le stesse logiche che regolano l’acquisizione massiva di dati ad imporre una valutazione circa la normativa che regola il trattamento dei dati personali, di recente riformata a mezzo del noto “pacchetto privacy europeo del 2016. Il riferimento, in tal senso, è al Reg. (UE) n. 2016/679 ed alla Direttiva (UE) n. 2016/680, cui l’ordinamento italiano si è adeguato a mezzo, rispettivamente, del D.Lgs. n. 101/2018 e del D.Lgs. n. 51/2018, in molta parte innovando lo stesso Codice della privacy.

D’altra parte, in relazione all’erompere del fenomeno “big data”, è recente preoccupazione della dottrina[38] che le garanzie apprestate dal GDPR siano già divenute insufficienti: si pensi, in specie, all’effettiva applicabilità dei principi che regolano l’acquisizione del consenso, le modalità del trattamento o l’esercizio dei rimedi da parte dell’interessato, a fronte di un sistema concepito per un’acquisizione ed aggregazione di dati massiva. Sul punto, basti porre mente alle più recenti sentenze in materia di diritto all’oblio, che hanno impegnato i commentatori nella ricerca del miglior bilanciamento fra le esigenze della società digitale e la tutela dei diritti fondamentali dell’individuo[39]. I noti casi Google Spain[40] e Google/CNIL[41] hanno, in effetti, fornito diverse evidenze circa le criticità di cui la diffusione incontrollata di materiale sul web possa essere foriera, soprattutto laddove la portata del right to be forgotten garantito all’interessato sia inteso assumere una portata “territorialmente” limitata[42].

In tal senso, la stessa Autorità Garante per la protezione dei dati personali italiana ha rilevato che «la disciplina di protezione dei dati personali, anzitutto quella ora contenuta nel RGPD, è un essenziale banco di prova per chi intenda esplorare le potenzialità offerte dai Big Data»[43].

Come anticipato, allora, lo stesso Garante non ha potuto fare a meno di spendere qualche considerazione circa i possibili profili di contrasto delle attività legate all’uso dei big data con aspetti che il GDPR ritiene fondamentali: «anzitutto con riferimento ai principi di liceità e correttezza nel trattamento, aspetto quest’ultimo che rinvia ad una effettiva (e compiuta) consapevolezza degli interessati (e correlativa trasparenza dei titolari del trattamento) circa le operazioni di trattamento dei dati personali connesse all’utilizzo dei dati personali che li potrà riguardare; alla violazione del principio di finalità; alla corretta individuazione della base giuridica posta a fondamento di tali operazioni di trattamento, anzitutto con riguardo al consenso degli interessati»[44].

La sfida per l’interprete va, perciò, nel senso dell’individuazione di un più adeguato quadro regolatorio che garantisca la correttezza dei trattamenti di profilazione effettuati con tecniche di Big Data Analysis. È una simile tecnica, in effetti, quale «forma di trattamento automatizzato di dati personali», ad essere sempre più impiegata per la valutazione di molteplici aspetti della vita della persona fisica: «in particolare per analizzare o prevedere aspetti riguardanti il rendimento professionale, la situazione economica, la salute, le preferenze personali, gli interessi, l’affidabilità, il comportamento, l’ubicazione o gli spostamenti di detta persona fisica»[45].

La più recente dottrina, in effetti, non manca di evidenziare come una Big Data Strategy debba farsi consapevole dei limiti da imporre «alle analisi conducibili e ai risultati ottenibili»[46], fissati in primo luogo dalle norme in materia di protezione del dato personale: solo così potranno dirsi rispettati i diritti e le libertà fondamentali delle persone.

A tal proposito, pare interessante menzionare, in chiave comparata (mentre il dibattito sul punto cresce anche in Italia[47]), l’articolo 154 della legge finanziaria francese per il 2020, che espressamente attribuisce la possibilità al fisco di utilizzare algoritmi ed analisi dati per individuare gli evasori. Ciò avverrà, in particolare, attraverso la selezione e raccolta in forma automatizzata sul web; la legge ha peraltro ricevuto l’avallo, in sede di controllo preventivo, dal Conseil Constitutionnel (sent. 796 del 27 dicembre 2019).

In che forma simili interventi potranno impattare sul diritto alla protezione ed al lecito trattamento del dato personale del contribuente? Il quesito non è di poco conto neppure per l’Italia, sempre più alle prese con l’utilizzo delle nuove frontiere tecnologiche anche nell’ambito del diritto tributario. Di seguito, quindi, alcuni interessanti profili d’analisi, che coinvolgono di certo entrambi gli aspetti del problema.

 

 

7. – Prospettive future nel contrasto all’evasione fiscale: analisi predittiva e intelligenza artificiale

 

Per accingersi, in conclusione, a delineare le prospettive future del problema in esame, occorre operare una preliminare distinzione tra analisi di rischio e analisi predittiva: la prima consente di individuare, anche mediante le banche dati in uso all’Amministrazione finanziaria (che non costituiscono Big Data), elementi di rischio utili a far emergere posizioni individuali da sottoporre a controllo; la seconda, ben più evoluta, consente di acquisire da un paniere di dati ben più ampio e strutturato (i c.d. Big Data) nuove tendenze dalle quali enucleare potenziali minacce (nello specifico, di evasione), comportamenti, trend anche mediante l’utilizzo di algoritmi dedicati.

Lo stato dell’arte ha subito un profondo innovamento dal punto di vista normativo grazie alle novità introdotte dalla L. 27 dicembre 2019, n. 160 (c.d. Legge di Bilancio 2020), la quale, all’art. 1, dal comma 681 al 686, dispone che per le attività di analisi del rischio di evasione effettuate utilizzando le informazioni contenute nell’archivio dei rapporti finanziari tenuto presso l’Anagrafe tributaria, l’Agenzia delle Entrate e la Guardia di Finanza si possano avvalere delle tecnologie, delle elaborazioni e delle interconnessioni con le altre banche dati di cui dispongono, allo scopo di individuare criteri di rischio utili per far emergere posizioni da sottoporre a controllo e incentivare l’adempimento spontaneo, nel rispetto di specifiche condizioni poste a protezione dei dati personali dei cittadini.

Nello specifico, l’art. 1 della citata legge di bilancio:

-        al comma 681, modifica il D.Lgs. n. 196/2003, integrando gli artt. 2-sexies[48], comma 2, lett. i)[49] e 2-undecies[50], comma 1, lett. f-bis)[51], includendo le attività di contrasto all’evasione fiscale fra quelle di “interesse pubblico rilevante”[52] ed ammettendo, quindi, il trattamento dei dati personali e la limitazione dei diritti dell’interessato, pur nel rispetto degli specifici presidi normativi;

-        al comma 682, statuisce che l’Agenzia delle Entrate[53] può effettuare analisi di rischio di cui all’art. 11 [54], comma 4 [55], del D.L. 6 dicembre 2011, n. 201 [56], con riferimento all’utilizzo dell’archivio dei rapporti finanziari, avvalendosi delle tecnologie, delle elaborazioni e delle interconnessioni con le altre banche dati di cui dispone, allo scopo di individuare criteri di rischio utili per far emergere posizioni da sottoporre a controllo e incentivare l’adempimento spontaneo.

Il citato D.L. n. 201/2011 ha “rafforzato” l’archivio dei rapporti finanziari, introducendo l’obbligo, per tutti gli operatori finanziari, di comunicare periodicamente all’Anagrafe tributaria tutte «le movimentazioni che hanno interessato i rapporti di cui all’articolo 7, sesto comma, del decreto del Presidente della Repubblica 29 settembre 1973, n. 605, ed ogni informazione relativa ai predetti rapporti necessaria ai fini dei controlli fiscali, nonché l’importo delle operazioni finanziarie indicate nella predetta disposizione».

Com’è possibile intuire, quindi, l’irrompere delle tecnologie digitali nell’ambito del diritto tributario, unitamente alla rapida evoluzione sovranazionale degli strumenti volti al contrasto delle attività di impiego del denaro a scopi illeciti, deve comunque tenere conto, come si diceva poc’anzi, dell’impatto sul diritto alla riservatezza del dato del contribuente.

D’altronde, che il GDPR trovi oggi importanti applicazioni anche in ambito tributario è stato evidenziato dagli stessi interventi dell’Autorità Garante per la protezione dei dati personali (si veda, in particolare, quello del 15 dicembre 2018 in tema di trattamento del dato personale nell’ambito della fatturazione elettronica[57]).

L’impiego dell’interconnessione fra banche dati deve, allora, essere condotto nella più evidente considerazione per cui una corretta interconnessione non possa prescindere da una valutazione d’impatto sul trattamento del dato personale: in tal senso sia le modalità di raccolta che quelle di utilizzo devono essere resi noti al contribuente, così come il trattamento deve rispettare i principi cardine dettati dal legislatore europeo.

D’altra parte, già nell’ambito della vigenza della Direttiva 95/46 la Corte di Giustizia dell’Unione europea si era occupata, in un noto caso del 2017, della contestazione di un contribuente slovacco del suo inserimento in una banca dati fiscale. Il ricorso, in specie, era diretto alla cancellazione del proprio nome da un elenco di persone considerate dalla Direzione delle Finanze slovacca dei prestanome. In quell’occasione la Corte di Giustizia bilanciò i principi del trattamento del dato personale con le esigenze della lotta alle frodi fiscali, pur imponendo, tuttavia, il rispetto dei principi cardine allora vigenti in tema di diritto alla protezione del dato[58].

Per tornare, allora, a quanto si diceva sopra, quel che è certo è che l’articolato normativo della legge di bilancio 2020 consente, oggi ancor di più, di condurre analisi di rischio mirate al contrasto dei fenomeni maggiormente pericolosi per le casse dell’erario, mediante l’estrapolazione dei soggetti che presentano forti indici di pericolosità fiscale, anche a mezzo dell’incrocio delle banche dati in uso all’Amministrazione finanziaria, al fine di intraprendere specifici controlli individuali più pervasivi e mirati.

Verso questa direzione l’Agenzia delle Entrate ha pubblicato, in data 7 maggio 2021, la circolare n. 4/E nella quale ha fornito, anche alla luce dell’attuale situazione epidemiologica, le linee guida e gli indirizzi operativi per il contrasto all’evasione fiscale in piena aderenza alle direttive contenute nel D.L. 22 marzo 2021, n. 41, che ha consolidato il quadro normativo relativo alla ripresa delle attività ispettive. L’Agenzia delle Entrate ha nuovamente ribadito la necessità di orientare le attività ispettive nei confronti dei soggetti maggiormente pericolosi che pongono in essere fenomeni fraudolenti, anche mediante l’indebito utilizzo di crediti inesistenti in compensazione (ad esempio i crediti derivanti da attività in materia di ricerca e sviluppo).

Ciò al fine di orientare le attività ispettive tributarie al contrasto delle forme di evasione più insidiose e che generano un sensibile danno per l’erario, tralasciando i rilievi meramente formali, sulla base di un processo di selezione del contribuente da sottoporre ad attività ispettiva volto a rendere proficua l’azione amministrativa.

La verifica della posizione fiscale dovrà quindi avvenire con l’ausilio degli strumenti e degli applicativi informatici in uso, dai quali enucleare un “giudizio di rischiosità” che terrà conto degli indicatori di rischio desumibili dagli elementi informativi disponibili.

La proiezione futura, invece, come già anticipato, potrebbe essere quella di contrastare i fenomeni evasivi mediante moderne tecniche di machine learning, quali progresso dell’intelligenza artificiale.

I metodi statistico-induttivi, infatti, ricercano all’interno di una vasta base di dati l’esistenza di elementi di rischio precedentemente ignoti, identificando correlazioni tra informazioni reddituali, patrimoniali e finanziarie: il modello “impara” dai dati storici e li valorizza per ipotizzare futuri comportamenti con indice di rischio.

L’analisi predittiva è, quindi, «l’insieme di tecniche di analisi statistiche, di machine learning, oltre che di modellazione, preparazione e querying dei dati proprie dei sistemi database»[59].

Il data mining, inteso come l’insieme metodologie finalizzate all’estrazione di informazioni di interesse da una considerevole mole di dati, anche attraverso metodi automatici o semi-automatici, ha quindi lo scopo predittivo di possibili profili di rischio fiscale e, in un futuro prossimo, sicuramente costituirà un valido strumento di ausilio all’Amministrazione finanziaria nel contrasto ai fenomeni evasivi.

 

 

 

8. – Considerazioni conclusive

 

In relazione a quanto sopra esposto, appare oggi più che mai chiara l’importanza delle applicazioni di intelligenza artificiale nello sviluppo dei big data anche nella lotta all’evasione fiscale.

Tale circostanza assume una connotazione ancora più significativa alla luce dell’emergenza economica tuttora in corso dovuta alla crisi pandemica da COVID-19, che ha indubbiamente messo in ginocchio l’economia nazionale e mondiale, nonostante gli aiuti che i Governi hanno messo a disposizione dei propri tessuti economico-commerciali.

Peraltro, l’imponente Piano Nazionale di Ripresa e Resilienza (c.d. PNRR), che simboleggia il traghettamento del Paese nell’uscita dalla crisi, prevede un piano di investimenti mai visto prima, che impone, necessariamente, un adeguato sistema di controllo fiscale allo scopo di non creare disuguaglianza tributaria tra i soggetti interessati nel percepire le risorse utili al risanamento dell’economia nazionale.

In tal senso, l’utilizzo di strumenti predittivi di intelligenza artificiale anche mediante l’analisi di enormi quantità di dati potrebbe consentire, a seguito di una sua più stringente e favorevole regolamentazione, pur nel rispetto dei principi fondamentali dell’ordinamento giuridico, uno strumento “chiave” nella lotta all’evasione e nel favorire l’adempimento spontaneo dei contribuenti.

 

 

BIBLIOGRAFIA

 

AA.VV., “Big Data”, Indagine congiunta Agcom, Agcm, Garante privacy, febbraio 2020, consultabile sul sito ufficiale dell’Autorità Garante per la protezione dei dati personali

AA.VV., “Artificial Intelligence and life in 2030, One hundred year study on Artificial Intelligence”, Stanford University, 2016, Report of the 2015-2016 Study Panel

Autorità Garante della Concorrenza e del Mercato, Autorità Garante per le Comunicazioni, Garante per la Protezione dei dati personali, Indagine conoscitiva sui Big data, Roma, 10 febbraio 2020, 7

Autorità Garante per la protezione dei dati personali, “Provvedimento in materia di fatturazione elettronica”, doc. web. n. 9069072, 15 dicembre 2018

F. BALDUCCI ROMANO, “La Corte di Giustizia resetta il diritto all’oblio”, Federalismi.it, 5 febbraio 2020

C. BARTELLI, “Controlli fiscali con i Big Data”, in ItaliaOggi, n. 065 del 19 marzo 2021

Comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni, “Creare fiducia nell’intelligenza artificiale antropocentrica”, Bruxelles, 8.4.2019, COM (2019) 168 final;

Commissione europea per l’efficienza della giustizia (Cepej) del Consiglio d’Europa, “European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and their environment”, Strasbourg, 3-4 December 2018

A. CARLEO, a cura di, “La decisione robotica”, Il Mulino, Bologna 2019

A. CONTRINO, “Banche Dati tributarie, scambio di informazioni fra autorità fiscali e “protezione dei dati personali: quali diritti e tutele per i contribuenti?”, in Rivista di diritto tributario, 29 maggio 2019

J. DELLA TORRE, “Novità dal Regno Unito: il riconoscimento facciale supera il vaglio della High Court of Justice”, Diritto Penale Contemporaneo, 1/2020, 231 ss.

E. FALLETTI, Machine learning: alcune sentenze straniere, in Quotidiano Giuridico, 28 febbraio 2021, Diritto Penale Contemporaneo, 1/2020, 142

A. FEDI, “Big Data, il GDPR non è sufficiente: l’uso delle informazioni si perde nel mare magnum”, in CORCOM, 20 marzo 2019

F. FARRI, “Digitalizzazione dell’amministrazione finanziaria e diritti dei contribuenti”, in Rivista di Diritto Tributario fasc. 6/2020

T.E. FROSINI, “Il diritto all’oblio preso sul serio”, consultabile sul sito dell’Università di Roma3 - romatrepress.uniroma3.it

F.C. GASTALDO, “Il giudice-robot: l’intelligenza artificiale nei sistemi giudiziari tra aspettative ed equivoci”, in Ius in itinere, 22 marzo 2021

M. LUCIANI, “La decisione giudiziaria robotica”, Rivista AIC, n. 3/2018

G. LUSARDI, Regolamento UE sull’Intelligenza Artificiale: uno strumento articolato per gestire il rischio, in Quotidiano Giuridico, 3 giugno 2021

A. MORELLI, “Il giudice robot e il legislatore naif: la problematica dell’applicazione delle nuove tecnologie all’esercizio delle funzioni pubbliche”, in Consulta OnLine, 6 agosto 2020, Liber Amicorum in onore di P. Costanzo

Ministero dello Sviluppo Economico, Proposte per una Strategia italiana per l’intelligenza artificiale, pubblicato in data 2 luglio 2020

Relazione del Parlamento europeo su “Una strategia europea per i dati”, Documento di seduta del 2 marzo 2021

O. POLLICINO, “Un digital right to privacy preso (troppo) sul serio dai giudici di Lussemburgo? Il ruolo degli artt. 7 e 8 della Carta di Nizza nel reasoning di Google Spain”, in Il diritto dell’informazione e dell’informatica, fascicoli 4-5, 2014

G. RESTA, V. ZENO-ZENCOVICH (a cura di), Il diritto all’oblio dopo la sentenza Google Spain, edizioni Roma Tre-Press, Roma 2015

A. REZZANI, “Big data Analytics”, Maggioli Editore, 2017

C.C. ROMITO, Intelligenza Artificiale: pubblicate le proposte per la Strategia italiana, in Quotidiano Giuridico, 15 luglio 2020

 

 

 

Abstract

 

The paper deals with the main issue of “Big data, Artificial Intelligence and tax fraud”. Big data, particularly, is taking a leading role in several areas, becoming today a fundamental subject for business. But what makes big data stand out? How can governments use big data in a useful way? These are the most important issues addressed in this paper, in the particular context of the fight against tax evasion. Jurisprudence is in fact increasingly examining the use of Big Data also in administrative procedures: this may also be relevant from a tax law perspective and help in the fight against illegal phenomena. At the same time, institutions (both European and Italian) are studying the impact of big data on the rights of individuals and the community. In sum, this is a subject rich in analysis and which deserves to be deepened.

 

 

 



 

[1] SAS, Big Data. Cosa sono e perché sono così importanti, consultabile link https://www.sas.com/it_it/insights/big-data/what-is-big-data.html.

[2] Commissione Europea, Big Data. Shaping Europe’s digital future, consultabile al seguente link: https://ec.europa.eu/digital-single-market/en/big-data.

[3] Autorità Garante della Concorrenza e del Mercato, Autorità Garante per le Comunicazioni, Garante per la Protezione dei dati personali, Indagine conoscitiva sui Big data, Roma, 10 febbraio 2020, 7.

[4] Cfr. Comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato economico e sociale europeo e al Comitato delle regioni, Creare fiducia nell’intelligenza artificiale antropocentrica, Bruxelles, 8.4.2019, COM (2019) 168 final; Commissione europea per l’efficienza della giustizia (Cepej) del Consiglio d’Europa, European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and their environment, Strasbourg, 3-4 December 2018.

[5] Ministero dello Sviluppo Economico, Proposte per una Strategia italiana per l’intelligenza artificiale, pubblicato in data 2 luglio 2020.

[6] La modellazione predittiva contempla numerose tecniche in grado di raccogliere dati a disposizione e apprendere modelli da applicare a nuovi dati.

[7] È uno dei rami più importanti di machine learning che prevede un insieme di tecniche che simulano i processi di apprendimento del cervello attraverso reti neurali artificiali stratificate sfruttando i progressi nella potenza di calcolo per imparare i modelli complessi presenti nelle grandi quantità di dati.

[8] Consultabile al link https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=CELEX:52020DC0066.

[9] Una strategia europea per i dati, cit., 1.

[10] Una strategia europea per i dati, cit., 13.

[11] Relazione del Parlamento europeo su una strategia europea per i dati, Documento di seduta del 2 marzo 2021, 9, consultabile al link https://www.europarl.europa.eu/doceo/document/A-9-2021-0027_IT.html#title1.

[12] Relazione del Parlamento europeo su una strategia europea per i dati, Documento di seduta del 2 marzo 2021, 18.

[13] Consultabile al link https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449.

[14] Consultabile al link https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_it.pdf.

[15] Libro Bianco sull’intelligenza artificiale, 6.

[16] G. LUSARDI, Regolamento UE sull’Intelligenza Artificiale: uno strumento articolato per gestire il rischio, in Quotidiano Giuridico, 3 giugno 2021.

[17]Artificial Intelligence and life in 2030, One hundred year study on Artificial Intelligence”, Stanford University, 2016, 5.

[18] Libro Bianco Intelligenza Artificiale, 37. Le sfide sono identificate in: “etica, tecnologica, competenze, ruolo dei dati, contesto legale, accompagnare la trasformazione, prevenire le disuguaglianze, misurare l’impatto, l’essere umano”.

[19] Consultabile sul sito https://www.mise.gov.it/images/stories/documenti/Proposte_per_una_Strategia_italiana_AI.pdf .

[20] C.C. ROMITO, Intelligenza Artificiale: pubblicate le proposte per la Strategia italiana, in Quotidiano Giuridico, 15 luglio 2020.

[21] Proposte per una Strategia italiana per l'Intelligenza Artificiale, 60.

[23] Indagine conoscitiva sui Big Data, 4.

[24] Cfr. audizione dei Proff. Preta, Maggiolino e altri (30 gennaio 2018).

[25] Indagine conoscitiva sui Big Data, 20.

[26] Indagine conoscitiva sui Big Data, 44.

[27] Sentenza n. C/09/550982 / HA ZA 18-388 in data 5 febbraio 2020.

[28] E. FALLETTI, Machine learning: alcune sentenze straniere, in Quotidiano Giuridico, 28 febbraio 2021.

[29] J. DELLA TORRE, Novità dal Regno Unito: il riconoscimento facciale supera il vaglio della High Court of Justice, in Diritto Penale Contemporaneo, 1/2020, 142.

[30] High Court of Justice, Queen’s Bench Division, Divisional Court, 4 settembre 2019, Case No: CO/4085/2018, R (Bridges) v. CCSWP e SSHD.

[31] Cfr. le osservazioni di M. LUCIANI, La decisione giudiziaria robotica, in Rivista AIC, n. 3/2018; A. MORELLI, Il giudice robot e il legislatore naif: la problematica dell’applicazione delle nuove tecnologie all’esercizio delle funzioni pubbliche, in Consulta OnLine, 6 agosto 2020, Liber Amicorum in onore di P. Costanzo; v. anche A. CARLEO, a cura di, La decisione robotica, Il Mulino, Bologna 2019; ancora, F.C. GASTALDO, Il giudice-robot: l’intelligenza artificiale nei sistemi giudiziari tra aspettative ed equivoci, in Ius in itinere, 22 marzo 2021.

[32] Cfr. “In fatto e in diritto”, 7.

[33] Così osserva il giudice amministrativo (pt. 8.1): «Per questa ragione, in tali casi – ivi compreso quello di specie, relativo ad una procedura di assegnazione di sedi in base a criteri oggettivi – l’utilizzo di una procedura informatica che conduca direttamente alla decisione finale non deve essere stigmatizzata, ma anzi, in linea di massima, incoraggiata: essa comporta infatti numerosi vantaggi quali, ad esempio, la notevole riduzione della tempistica procedimentale per operazioni meramente ripetitive e prive di discrezionalità, l’esclusione di interferenze dovute a negligenza (o peggio dolo) del funzionario (essere umano) e la conseguente maggior garanzia di imparzialità della decisione automatizzata».

[34] A. MORELLI, ult. op. cit., 2.

[35] Art. 2 Cost.: «La Repubblica riconosce e garantisce i diritti inviolabili dell’uomo, sia come singolo sia nelle formazioni sociali ove si svolge la sua personalità, e richiede l’adempimento dei doveri inderogabili di solidarietà politica, economica e sociale».

[36] Art. 3 Cost.: «Tutti i cittadini hanno pari dignità sociale e sono eguali davanti alla legge, senza distinzione di sesso, di razza, di lingua, di religione, di opinioni politiche, di condizioni personali e sociali.

E’ compito della Repubblica rimuovere gli ostacoli di ordine economico e sociale, che, limitando di fatto la libertà e l’eguaglianza dei cittadini, impediscono il pieno sviluppo della persona umana e l’effettiva partecipazione di tutti i lavoratori all’organizzazione politica, economica e sociale del Paese».

[37] Art. 53 Cost.: «Tutti sono tenuti a concorrere alle spese pubbliche in ragione della loro capacità contributiva. Il sistema tributario è informato a criteri di progressività».

[38] Cfr., A. FEDI, Big Data, il GDPR non è sufficiente: l’uso delle informazioni si perde nel mare magnum, in CORCOM, 20 marzo 2019.

[39] O. POLLICINO, Un digital right to privacy preso (troppo) sul serio dai giudici di Lussemburgo? Il ruolo degli artt. 7 e 8 della Carta di Nizza nel reasoning di Google Spain, in Il diritto dell’informazione e dell’informatica, fascicoli 4-5, 2014; G. RESTA, V. ZENO-ZENCOVICH (a cura di), Il diritto all’oblio dopo la sentenza Google Spain, edizioni Roma Tre-Press, Roma 2015. Più di recente anche T.E. Frosini, Il diritto all’oblio preso sul serio, consultabile sul sito dell’Università di Roma 3 - romatrepress.uniroma3.it. Ancora, si consiglia la lettura di F. BALDUCCI ROMANO, La Corte di Giustizia resetta il diritto all’oblio, in Federalismi rivista online, 5 febbraio 2020.

[40] Sentenza resa nella causa C-131/12.

[41] Sentenza 24 settembre 2019, resa nella causa C-507/17.

[42] In effetti, per riprendere le affermazioni della Corte di Giustizia nella pronuncia Google/CNIL, allo stato «non sussiste, per il gestore di un motore di ricerca che accoglie una richiesta di deindicizzazione presentata dall’interessato, eventualmente a seguito di un’ingiunzione di un’autorità di controllo o di un’autorità giudiziaria di uno Stato membro, un obbligo, derivante dal diritto dell’Unione, di effettuare tale deindicizzazione su tutte le versioni del suo motore». La Corte aggiunge, tuttavia, che «il diritto dell’Unione obbliga tuttavia il gestore di un motore di ricerca a effettuare tale deindicizzazione nelle versioni del suo motore di ricerca corrispondenti a tutti gli Stati membri e ad adottare misure sufficientemente efficaci per garantire una tutela effettiva dei diritti fondamentali della persona interessata». V., per brevità, CGUE - Comunicato stampa n. 112/19, in data 24 settembre 2019.

[43] Big data: indagine congiunta Agcom, Agcm, Garante privacy, febbraio 2020, consultabile sul sito ufficiale dell’Autorità Garante per la protezione dei dati personali.

[45] Cfr. art. 4 del GDPR, e Considerando n. 24 e n. 30.

[46] C. COMELLA, Origine dei Big Data, in Gnosis n. 2/2017.

[47] V.C. BARTELLI, Controlli fiscali con i Big Data, in ItaliaOggi, n. 065 del 19 marzo 2021; F. FARRI, Digitalizzazione dell’amministrazione finanziaria e diritti dei contribuenti, in Rivista di Diritto Tributario, fasc. 6/2020.

[48]Trattamento di categorie particolari di dati personali necessario per motivi di interesse pubblico rilevante”.

[49] «… i) attività dei soggetti pubblici dirette all’applicazione, anche tramite i loro concessionari, delle disposizioni in materia tributaria e doganale, comprese quelle di prevenzione e contrasto all’evasione fiscale».

[50]Limitazioni ai diritti dell’interessato.

[51] «…. f-bis) agli interessi tutelati in materia tributaria e allo svolgimento delle attività di prevenzione e contrasto all’evasione fiscale».

[52] La norma citata considera rilevante l’interesse pubblico relativo a trattamenti effettuati da soggetti che svolgono compiti di interesse pubblico o connessi all’esercizio di pubblici poteri in materie tassativamente indicate.

[53] Il comma 686 contempla anche la Guardia di finanza.

[54] “Emersione di base imponibile”.

[55] «Oltre che ai fini previsti dall’articolo 7, undicesimo comma, del decreto del Presidente della Repubblica 29 settembre 1973, n. 605, le informazioni comunicate ai sensi dell’articolo 7, sesto comma, del predetto decreto e del comma 2 del presente articolo sono utilizzate dall’Agenzia delle entrate per le analisi del rischio di evasione. Le medesime informazioni, inclusive del valore medio di giacenza annuo di depositi e conti correnti bancari e postali, sono altresì utilizzate ai fini della semplificazione degli adempimenti dei cittadini in merito alla compilazione della dichiarazione sostitutiva unica di cui all’articolo 10 del regolamento di cui al decreto del Presidente del Consiglio dei ministri 5 dicembre 2013, n. 159, nonché in sede di controllo sulla veridicità dei dati dichiarati nella medesima dichiarazione. Fermo restando quanto previsto dal comma 3, le stesse informazioni sono altresì utilizzate dalla Guardia di finanza per le medesime finalità, anche in coordinamento con l’Agenzia delle entrate, nonché dal Dipartimento delle finanze, ai fini delle valutazioni di impatto e della quantificazione e del monitoraggio dell’evasione fiscale».

[56] Disposizioni urgenti per la crescita, l’equità e il consolidamento dei conti pubblici, convertito, con modificazioni, dalla L. 22 dicembre 2011, n. 214.

[57] Autorità Garante per la protezione dei dati personali, “Provvedimento in materia di fatturazione elettronica”, doc. web. n. 9069072, 15 dicembre 2018. Si legga: «Il nuovo obbligo di fatturazione elettronica comporta, infatti, un trattamento sistematico di dati personali su larga scala, relativo anche a dati che rientrano nelle categorie particolari e a dati relativi a condanne penali e reati di cui agli artt. 9 e 10 del Regolamento, potenzialmente riferibili ad ogni aspetto della vita quotidiana, che, presentando un rischio elevato per i diritti e le libertà degli interessati, richiede un’adeguata valutazione di impatto, ai sensi dell’art. 35 del Regolamento, da ultimo trasmessa dall’Agenzia (…)».

[58] Sentenza CGUE 27 settembre 2017, nella causa C-73/16, seconda sezione. Così la Corte si era pronunciata: «L’articolo 7, lettera e), della direttiva 95/46 deve essere interpretato nel senso che esso non osta a un trattamento dei dati personali da parte delle autorità di uno Stato membro ai fini della riscossione delle imposte e della lotta alla frode fiscale, come quello a cui si procede con la redazione di un elenco di persone del tipo oggetto del procedimento principale, senza il consenso delle persone interessate, a condizione, da un lato, che a tali autorità siano stati affidati compiti di interesse pubblico dalla normativa nazionale ai sensi di detta disposizione, la redazione di tale elenco e l’iscrizione in quest’ultimo del nome delle persone interessate siano effettivamente idonee e necessarie al raggiungimento degli obiettivi perseguiti e sussistano elementi sufficienti per presumere che le persone interessate figurino a ragione in tale elenco e, dall’altro lato, che siano soddisfatte tutte le condizioni di liceità di tale trattamento dei dati personali imposte dalla direttiva 95/46».

[59] A. REZZANI, Big data Analytics, Maggioli Editore, 2017, 33.