Contributi-2017

 

 

DSC05666BISRIFLESSIONI SULLE INTELLIGENZE ARTIFICIALI. NEUTRALITA’ DELLA RETE

print in pdf

SEBASTIANO TAFARO

Professore Onorario

Università di Bari

 

 

SOMMARIO: 1. L’intelligenza artificiale: questioni aperte. – 2. Le nuove aggressioni alla persona. – 3. Segue: le bolle di filtraggio. – 4. Tutela della neutralità della rete. 5. Neutralità della rete. 6. Le implicazioni della Carta dei Diritti di Internet. – Abstract.

 

 

1. – L’intelligenza artificiale: questioni aperte

 

Lo sconvolgimento epocale nella storia dell’umanità provocato dall’avvento o (verrebbe di dire) dal sopravvento dell’intelligenza artificiale, destinato a mettere a soqquadro e cambiare la percezione del mondo, mina le fondamenta dell’antropocentrismo che, con varie accezioni, ha caratterizzato ogni costruzione filosofica e giuridica ed investe appieno anche il diritto.

Il dibattito è avviato ed è ampio.

Quasi tutti coloro che stanno prendendo coscienza della specificità e della novità indotte dalla robotica[1] sembrano concordare sul punto che le questioni da e per essa sollevate propongono continuamente interrogativi e sfide nuove al diritto ed ai giuristi, con la caratteristica che non è possibile prevedere in anticipo quali saranno; di modo che occorre essere pronti a rivisitare tutto il diritto e la concezione stessa di esso, superando la dicotomia oggetto-persona, con la certezza che le tecnologie stanno prospettando un futuro imprevedibile.

Dinanzi alle nuove situazioni ci si è chiesto se ci si possa avvalere della metafora[2] e/o della analogia[3], ritenendo, tuttavia, che sebbene le categorie utilizzate finora nella interpretazione giuridica si possono rivelare utili ad un primo approccio ai problemi della robotica e delle IA, non appaiono appaganti, perché, invece, partendo da esse, occorre andare oltre e cogliere le diversità del ‘nuovo’[4].

In Europa (e non solo) il discorso può partire da un atto di grande rilievo e respiro: la Risoluzione del 16 febbraio 2017 (2015/2103) del Parlamento Europeo, contenente anche una raccomandazione per la commissione sulle norme civili in tema di robotistica (European Civil Law Rules in robotics)[5].

Essa individua i nodi dell’intera problematica e traccia la via per un impegno futuro.

 

 

2. – Le nuove aggressioni alla persona

 

Punto nodale, nel cammino da compiere, appare quello della privacy, considerata nella detta Risoluzione di importanza primaria e da essa vista nel suo intrinseco collegamento con la libertà e la dignità[6].

La protezione della privacy è affermata (dalla Risoluzione) in differenti punti ed è ritenuta in stretta relazione con la protezione dei dati personali[7].

Nel mio approccio alla materia, con riguardo al campo nel quale proprio la privacy corre i maggiori rischi, vorrei partire da una considerazione preliminare. L’età presente può dirsi caratterizzata da una nuova forma di capitalismo: il capitalismo di sorveglianza[8], contraddistinto dalla massiccia raccolta e analisi dei dati, dalla sperimentazione psicologica e dalla persuasione personalizzata.

Oggi si parla di Internet of Things (IoT). La rete è penetrata in tutta la società da quando è diventata disponibile in sempre più posti, specialmente attraverso lo smartphone ed i social networks. La robotica moderna si basa su queste reti esistenti e di conseguenza cambia la natura di queste reti. Attraverso la robotica, a Internet vengono dati "sensi" tramite sensori e ‘mani e piedi’. In questo modo, viene modellata quella che è stata indicata come Internet of Robotic Things: una vasta gamma di ICT (Information Communication Technology) emergenti (come reti di sensori, Internet, big data, IA, la robotica) stanno giocando un ruolo di primo piano in questo sviluppo[9].

La pervasività di queste ICT è in costante aumento e porta ad un offuscamento delle distinzioni tra uomo e macchina, tra le nostre attività online e offline, tra il mondo fisico e quello virtuale e tra realtà e realtà virtuale o aumentata. Per indicare questa condizione umana, è stato usato il termine onlife[10].

Nel mondo onlife le macchine sono dotate di autonomia e possono cambiare i propri stati grazie alla quantità esponenziale di dati che vengono raccolti, elaborati e conservati. Il dialogo tra macchine permette ai dati di essere scambiati con altre macchine per venire utilizzati in maniere nuove, dando così la possibilità di creare sistemi personalizzati in un ambiente pervaso da flussi di informazioni.

Mai nella nostra storia ci sono stati così tanti dati raccolti su così tante persone, immagazzinati in così tanti luoghi (siti) e analizzati e utilizzati. In uno studio dell’Università di Bergen[11] è stata posta in evidenza la notevole incertezza su come questo possa influenzare il diritto alla privacy considerata come elemento fondamentale per lo sviluppo della personalità. Tale incertezza di per sé è importante fonte di preoccupazione. Quando ci si riferisce al diritto al rispetto della privacy, si suole far riferimento al diritto alla protezione dei dati personali, sancita dall'articolo 8, § 1, della Carta dei diritti fondamentali dell'Unione europea e previsto dalla Convenzione 108 e dal suo protocollo[12], nonché al diritto al rispetto della vita privata sancito dall'articolo 7 della Carta dei diritti fondamentali dell'Unione Europea e articolo 8 della CEDU.

La protezione dei dati personali è messa in discussione da softbot che operano attraverso Internet, principalmente tramite il World Wide Web; pertanto è d’uopo domandarsi in che modo il diritto alla protezione dei dati personali viene influenzato dai processi di Robotic Things.

Va osservato che la principale fonte di guadagno attraverso Internet è basata sulla sorveglianza di massa[13].

L’UE si è fatta carico dei problemi nascenti dall’era del digitale e, per affrontarne le relative sfide, ha emanato un Regolamento generale sulla protezione dei dati (GDPR), che si applicherà dal 25 maggio 2018 [14] e costituisce l’ultimo anello degli interventi per la protezione dei dati sia riguardo ai dati strettamente personali, sia riguardo all’utilizzo di cookie o degli indirizzi IP[15].

Il Consiglio d'Europa ha affrontato numerosi quesiti concernenti i big data, sia con riguardo alla protezione della vita privata sia riguardo ai diritti e alle libertà fondamentali in un mondo di big data. Attualmente, secondo linee guida adottate dal Consultativo Comitato di Convenzione 108, sta procedendo all’ammodernamento della Convenzione 108, con l’intento di affrontare le sfide per derivanti alla privacy dall'uso di nuove TIC[16].

Oggi vi sono macchine funzionanti all'interno di Internet. Le cose possono essere utilizzate per raccogliere dati. Si pensi a un robot per auto che registra i dintorni o controlla la rotta di viaggio (dati sulla posizione) o a un robot-assistente che rileva il volto o l'emozione di una persona anziana. I proprietari dei negozi utilizzano già tecnologie per rintracciare i loro clienti all'interno del loro negozio o persino monitorare persone che passano dal loro negozio.

La maggior parte delle sfide relative alla protezione dei dati dei servizi Internet si applicano anche a Internet delle cose.

Ma c’è di più. Aziende tecnologiche (Google, Amazon, Apple, Microsoft …) hanno sviluppato strategie di business basate su dati raccolti all'interno e intorno alla casa. Di conseguenza, la propria casa è diventato un luogo in cui i movimenti o il comportamento di una persona possono essere continuamente osservati, (ad es. tramite smartphone, smart meter o smart television). La raccolta dei dati tramite Internet of Things consente a queste aziende di ottenere una visione dettagliata del comportamento e delle vite di milioni di persone.

L'ascesa dell'Internet of Things solleva questioni sulla trasparenza dell'elaborazione dei dati e su come l'individuo sia in grado di esercitare i propri diritti, secondo quanto stabilito nella Convenzione 108 o nel Regolamento (GDPR) sulla protezione generale dei dati.

Uno dei principali pilastri del trattamento dei dati, cioè la richiesta che il singolo sia informato e presti il proprio consenso a qualsiasi attività di raccolta e/o utilizzo dei dati, dovrebbe comunque presiedere alla raccolta di dati[17]. Invece, più i dispositivi "intelligenti" circondano le persone, più appare difficile per gli individui esercitare il controllo sulle attività di elaborazione dei dati di tutti questi dispositivi. In una certa misura, si cerca e si deve sempre più fare in modo che il trattamento di questi dati sia coperto da norme sulla protezione dei dati, miranti ad offrire determinati diritti individuali e salvaguardie; specialmente quando i dati possano anche essere analizzati e utilizzati in direzioni che influiscono sui diritti umani, a partire dal diritto al rispetto della vita privata ai sensi dell'articolo 8 della CEDU, il quale protegge l’autonomia delle persone, la privacy informativa e l’autodeterminazione. Tanto più perché un'interferenza con il diritto al rispetto per la vita privata, potrebbe esserci anche laddove il soggetto che elabora i dati personali (ad esempio uno Stato o un'azienda) lo faccia nel rispetto di tutti gli obblighi previsti dalle norme sulla protezione dei dati.

Occorre, perciò essere consapevoli che le forme di controllo e rilevamento moderni, tramite Internet of Things, comportano implicitamente il trattamento e la potenziale manipolazione dei dati personali. Quali siano le conseguenze di ciò non è ancora sufficientemente chiaro ed è oggetto di studio e ricerca, per tentare di ovviare ad alcuni effetti negativi, come quelli che si traducono in comportamenti inconsapevoli (ad esempio quello di conformarsi a stimoli indotti senza che lo si sappia)[18]. I ricercatori stanno cercando di cogliere l'intera portata degli effetti nocivi sulla vita delle persone, causati dalla continua e spesso inconsapevole sorveglianza. Un dato certo è che sia gli Stati sia le società si rafforzano a vicenda nelle loro attività di sorveglianza[19]. Malgrado le perplessità espresse dalle Corti internazionali[20] i Governi procedono e legittimano la massiccia raccolta di dati, come, (per dirne una) ha stigmatizzato la Corte di Giustizia dell'UE quando ha dichiarato invalida la direttiva europea sulla conservazione dei dati[21]. È stato rilevato che gli individui ormai sono stati ridotti a materia prima utilizzata e manipolata da Governi e aziende private[22].

È urgente una reazione più efficace, che dovrebbe vedere coinvolti sempre di più il Consiglio d’Europa e l’ONU.

Spunto significativo può venire dall’art. 8 CEDU:

 

«1. Ogni persona ha diritto al rispetto della propria vita privata e familiare, del proprio domicilio e della propria corrispondenza. 2. Non può esservi ingerenza di una autorità pubblica nell’esercizio di tale diritto a meno che tale ingerenza sia prevista dalla legge e costituisca una misura che, in una società democratica, è necessaria alla sicurezza nazionale, alla pubblica sicurezza, al benessere economico del paese, alla difesa dell’ordine e alla prevenzione dei reati, alla protezione della salute e della morale, o alla protezione dei diritti e delle libertà altrui».

 

L’articolo è finalizzato fondamentalmente a difendere l’individuo dalle ingerenze non autorizzate dei pubblici poteri, ma la Corte Europea dei Diritti dell’Uomo progressivamente ne ha interpretato il dettato come avente valenza generale e lo ha riferito all’esigenza di assicurare in ogni circostanza e nei confronti di chiunque il diritto al rispetto per il privato, spiegando che questo diritto è ampio e non è suscettibile di una definizione esaustiva: per esempio, il diritto al rispetto della vita privata non è limitato alla casa di un individuo, ma è applicabile anche ad altri luoghi, come il posto di lavoro. Inoltre, non si concentra solo sulle libertà negative (dignità umana e autonomia individuale) ma comprende anche le libertà positive (sviluppo personale e sviluppo delle comunità)[23].

In questo senso la norma è parsa applicabile anche agli sviluppi della tecnologia, partendo da quella dei computer e di Internet, così come di ogni prodotto informatico interattivo, spesso creato per influenzare e/o modificare il comportamento delle persone. Di modo che da essa nascono importanti limitazioni all’uso di tecnologie che invadano la riservatezza e la intimità personale e famigliare delle persone, e, in ogni caso, in base alla sentenza si è cercato di imporre estrema trasparenza sia agli ideatori e ai costruttori di robots sia a chi si serva di robots nei confronti di altri (anche, come si sta sperimentando, con fini meritori: ad esempio, per cura o assistenza agli anziani ed ai malati o ai disabili) sia agli utilizzatori. L’interpretazione dell’art. 8 CEDU si è anche rivolta proficuamente alla protezione di tutte le tecniche (comprese le neuroscienze) di persuasioni in grado di creare dipendenze (causate con insistenza e crescente frequenza attraverso attività sempre più invasive), conseguenti all’uso di messaggi e stimoli accattivanti veicolati tramite la TV, Internet o con robots[24].

Contro questi rischi la maggiore protezione ad oggi è data dai codici etici professionali[25]; ma non bastano, perché non proteggono appieno e dipendono da chi dovrebbe applicare le norme etico-comportamentali.

In particolare va poi detto che, per lo più, i codici etici contemplano gli individui e, perciò, resta comunque da potenziare la tutela del diritto alla vita famigliare. Esso si concreta nel diritto di stabilire e sviluppare relazioni con gli altri esseri umani e il mondo esterno, specialmente nel campo emotivo, per lo sviluppo e la realizzazione della propria personalità. Anche per esso si tende a farlo rientrare nella previsione dell’art. 8 CEDU: le forme, però, sono ancora da chiarire; specialmente dinanzi alla circostanza che il rapporto sempre più frequente tra uomini (specialmente ragazzi) e macchine tendono a limitare i rapporti sociali ed interumani: al punto che è stato denunciato il pericolo di un social deskilling (l'incapacità di far fronte agli altri umani, con i loro problemi e carenze, e la riluttanza a investire nelle relazioni umane)[26].

Strettamente legati alla riservatezza appaiono i diritti alla libertà nelle articolazioni concernenti la persona e le sue facoltà di acquisizione e utilizzo dei dati, sul quale (qui) non posso che limitarmi a pochissimi cenni.

Appare superfluo, ma necessario, ricordare sempre che i diritti di libertà sono affermati con forza dalla CEDU (artt. 5-12).

C’è da interrogarsi sul valore di essi riguardo a robots e IA. Nel 1990 Isaac Asimov pose l’interrogativo sul se abbia senso ed in quali termini si possa parlare di libertà riguardo ai robots[27]. La questione è prettamente giuridica e, non a caso, Asimov la fingeva sollevata all’interno di un processo.

A siffatto interrogativo ad oggi non pare esservi adeguata risposta; è necessario che i giuristi la elaborino al più presto sia in considerazione della progressione tecnologica (che porta a ipotizzare un futuro con robots autonomi e capaci di scelte proprie) sia per la suggestione dell’esortazione del Parlamento europeo a riconoscere personalità ai robots.

Al momento gli interpreti esaminano le questioni quasi esclusivamente dal punto di vista delle libertà degli uomini e focalizzano la propria attenzione particolarmente sulla libertà di espressione. Infatti, quanto anche sopra richiamato riguardo alla raccolta ed all’uso dei dati desta preoccupazione proprio riguardo alla possibilità di coartare la formazione della volontà e il diritto di espressione.

In Europa la riflessione parte dagli artt. 9 e 10 CEDU[28].

Riguardo al diritto riconosciuto di promuovere o comunicare informazioni e idee senza interferenze non vi è dubbio che l’impiego di robots e di sistemi di IA possano tanto favorire quanto ostacolare un libero flusso di informazioni. Se il programmatore di IA fornisce all'utente gli strumenti per raccogliere e diffondere informazioni potrebbe favorire il diritto alla libertà di espressione. Tuttavia, se l'IA è in grado di decidere quali informazioni devono essere mostrate, rende critica l’effettiva libertà di ricevere e diffondere informazioni e idee senza interferenze. I limiti possono anche sorgere quando si selezionano (automaticamente) informazioni da un cloud o da un cloud computing[29]. E questo ha molta influenza nella formazione e nei processi decisionali dei giovani[30].

 

 

3. – Segue: le bolle di filtraggio

 

Sul punto vi è un nodo cruciale ed emergente: quello delle ormai ineludibili bolle di filtraggio[31].

Il concetto di bolla di filtraggio non è univoco. Esso è stato introdotto da Eli Pariser, che ne creò l’espressione per denunciare come, oggi, sempre di più agli utenti di Internet sono forniti sempre meno punti di vista conflittuali e/o alternativi, sicché rischiano di diventare intellettualmente isolati in una propria bolla di informazioni[32], con evidenti conseguenze negative per il cittadino e per i suoi rapporti sociali. Pariser avverte che un potenziale difetto della ricerca filtrata è che «ci taglia da nuove idee, argomenti e informazioni importanti»e «crea l'impressione che i nostri stretti interessi siano tutto ciò che esiste». Il che è potenzialmente dannoso tanto per gli individui quanto per la società. L’a. accusa Google e Facebook di offrire agli utenti «troppe caramelle, e non abbastanza verdure»; avvisa: che «algoritmi invisibili che modificano il web» potrebbero «limitare la nostra esposizione a nuove informazioni e restringere la nostra mentalità». Sempre secondo Pariser, gli effetti negativi delle bolle di filtraggio includono un danno alla società nel suo complesso, nel senso che esse sono in grado di «indebolire il discorso civico» e rendere le persone più vulnerabili a «manipolazioni e propaganda».

Volendo tentare una definizione, in prima approssimazione, si può dire che la bolla sia il risultato di un sistema che organizza intorno ad una persona i risultati delle ricerche effettuate sui siti Web, registrando la sequenza dei suoi comportamenti in modo da ottenere il suo profilo e dedurre indicazioni sui suoi interessi e sulle sue preferenze. In tal modo il o i gestori dei siti possono utilizzare informazioni sull'utente (come posizione, click precedenti, ricerche passate) per scegliere quello che va successivamente proposto all’utente, isolando e nascondendo ciò che, in base ai dati raccolti, sembri in contrasto con i suoi interessi e il suo punto di vista. Ne può conseguire un isolamento dell’utente che viene come racchiuso in quella che la profilazione indica essere sua bolla culturale o ideologica[33] o, secondo alcuni, a fronte di determinati svantaggi non decisivi, può aiutare gli utenti nelle loro attività.

Il fenomeno è stato descritto anche come «quel personale ecosistema di informazioni che viene soddisfatto da alcuni algoritmi»[34] e si è parlato anche di «cornice ideologica»[35] o di «sfera metaforica che ti circonda come cerchi su internet»[36].

Il cloud consegna alle aziende che lo gestiscono informazioni utili per pubblicità mirata e può interferire con il diritto alla libertà di espressione.

Già dal 2013 è stato evidenziato che Google e Facebook sono diventati i custodi delle informazioni centrali della nostra società[37]. La stessa Facebook, che è di gran lunga la rete più importante per trovare, leggere, guardare e condividere notizie[38], ha ammesso di avere responsabilità per il modo in cui la sua piattaforma viene utilizzata. L'agenzia Reuters[39] (RISJ) rileva che almeno il 12% di utenti usano social media come principale fonte di notizie. I servizi di informazione attraverso Internet (gatekeeping online) si presentano come un mix di umani e codici software progettati dagli umani e (come già dal 2006 è stato posto in luce attraverso la storia degli interventi giudiziari e legislativi succedutisi negli usa sui problemi causati dal mondo online) fanno emergere sia una certa prudenza nell’intervenire in modi che alterino significativamente le architetture online sia una sollecitudine riguardo alla considerazione dell’eventuale danno collaterale, che gli interventi potrebbero provocare su attività innocenti, in modo da non permettere che attività inequivocabilmente dannose rimangano incontrollate, persino dove sia possibile ridurle[40].

Un caso eclatante è quello di Facebook. Il Report dell’Instituut Rathenau punta l’indice in modo specifico sulla sezione trending topics di Facebook; la quale nel 2016, in connessione con il dibattito politico (focalizzato sulla presidenza Trump), ha ricevuto accuse di parzialità e di tentare di veicolare pregiudizi liberali. Facebook ha negato le accuse; la sua indagine interna «non ha rivelato alcuna evidenza sistematica di pregiudizi politici nella selezione o nella diffusione di storie incluse nella sezione Argomenti trattati», ma ha anche indicato che non potrebbe escludere completamente la possibilità di pregiudizi involontari. Di conseguenza, la società ha modificato la funzione relativa agli argomenti di tendenza «per prevenire potenziali abusi e ridurre al minimo i rischi per i quali è implicato un giudizio umano». A settembre 2016, Facebook ha rimosso un post dal suo sito contenente la famosa fotografia della “ragazza napalm vietnamita” perché era in violazione della politica del sito web in materia di nudità. La foto è stata successivamente reintegrata. Si presume che il post sia stato taggato per la rimozione da un algoritmo e poi sia stato seguito da un editor umano. Ciò indica che l'assistenza di gatekeeping algoritmica non rimuove tutti i pregiudizi umani, perché «Esistono pregiudizi tecnici come la manipolazione o la popolarità di terzi a causa della forma computerizzata del gatekeeping. Inoltre, fattori individuali come giudizi personali, fattori organizzativi come le politiche aziendali, fattori esterni come le richieste governative o degli inserzionisti saranno ancora presenti a causa del ruolo degli umani nel fornire i suoi servigi»[41].

I gatekeeper a volte operano accostamenti improvvidi tra i contenuti e la pubblicità; questo, come è avvenuto per Google, provocando la protesta delle aziende pubblicizzate, le quali abbandonarono Google quando i loro annunci furono associati a contenuti offensivi o razziali. Si evidenziò così la necessità di sottoporre la pubblicazione online a supervisori umani in grado di selezionare i contenuti. Nacque e nasce, comunque, il problema della responsabilità civile o di altro tipo di pubblicazioni inappropriate o offensive.

Recentemente, gli azionisti di Facebook hanno avanzato una proposta sulla «minaccia alla democrazia e alla libertà di parola delle cosiddette notizie false diffuse sul forum dei social media e sui pericoli che potrebbe rappresentare per la società stessa». Gli azionisti hanno suggerito alla società di effettuare un’ampia revisione delle regole di inserzione, compresa la modalità di blocco dei post falsi, per non influire sulla libertà di opinione e di espressione[42].

Sembra che più che sulla struttura delle bolle di filtraggio il diritto possa intervenire sui loro effetti, che, poi, sono quelli che preoccupano gli utenti. In una indagine del 2016, i ricercatori hanno concluso che al momento non ci sono prove sperimentali che giustifichino forti preoccupazioni sulle bolle dei filtri[43]. Tuttavia, gli stessi ricercatori hanno affermato che un dibattito sulle bolle dei filtri è importante, poiché da loro potrebbero sorgere problemi per la democrazia, considerato che la tecnologia di personalizzazione verrà ulteriormente intensificata, diventando più penetrante ed invasiva, e le notizie personalizzate diventeranno la principale fonte di informazione delle persone. Attualmente, come si è detto[44], già circa il 12% degli utenti di Internet in tutto il mondo utilizza i social media come principale fonte di notizie.

Perciò, certamente la legislazione deve intervenire con tempestività.

Qualcosa già si sta muovendo in questa direzione: la Germania, ad esempio, ha previsto che i social network come Facebook siano tenuti a rimuovere rapidamente post online diffamatori o minacciosi, comminando (in caso di inottemperanza) sanzioni che possono ammontare fino a 50 milioni di euro[45]. Questo però non sempre è di agevole applicazione ed auspicabile: vi è, infatti, la difficoltà di contemperare le esigenze di rispetto dei diritti e dei sentimenti con quelle della libertà di espressione. Invero esiste il rischio che - anche con l'ausilio di strumenti automatizzati - si possano eliminare in modo ingiustificato post o commenti che interferirebbero con la libertà di espressione di qualcun altro. Non sorprende perciò che un gruppo di consumatori nella stessa Germania si opponga a siffatta eventuale, sostenendo che costituisce un approccio sbagliato.

La verità è che la riflessione sul punto appare soltanto agli inizi e deve proseguire attraverso un dibattito pubblico e coinvolgente, che aiuti, eventualmente, a stendere nuove norme e a risolvere le questioni attraverso una corretta ermeneutica. La quale deve prestare attenzione non solo alla funzione dei media a diffondere informazioni e idee, ma anche alle aspettative e al diritto del pubblico a riceverle.

Il Consiglio d'Europa potrebbe fornire chiarimenti sul ruolo di sorveglianza incombente sui collettori di informazioni, come Google e Facebook[46], particolarmente riguardo al loro ruolo di editori di notizie, poiché non è affatto chiaro se siffatti Networks debbano essere considerati società di media o agenzie giornalistiche o periodici con tutte le responsabilità connesse. Ove ciò sia fatto, la successiva tappa consisterà nell’impegno a far sì che le discipline delineate possano essere rispettate a livello planetario, dato che planetarie sono le dimensioni dei social networks.

 

 

4. – Tutela della neutralità della rete

 

Va comunque osservato che proprio riguardo ad eventuali attività di controllo e/o selezione delle notizie e dell’accesso alla rete, scaturiscono molte problematiche; le quali hanno bisogno di nuove elaborazioni, di cui il diritto si fa carico e soprattutto dovrà occuparsi in misura crescente a causa del vertiginoso aumento del ricorso alla robotica nell’esperienza quotidiana.

Da qui, secondo autorevoli autori, nasce una nuova branca del diritto, indicata come cyberlaw[47], nella quale un posto centrale è costituito proprio dalle questioni concernenti l’accesso e l’uso delle reti.

Gli usa hanno ritenuto di intervenire con specifiche normative già nel 1984, per prevenire e reprimere le frodi informatiche, e successivamente attraverso il Computer Fraud and Abuse Act (CFAA) approvato dal Congresso nel 1986, come emendamento alla legge sulle frodi informatiche (18 USC § 1030) inclusa nel Comprehensive Crime Control Act del 1984. La normativa vieta l'accesso ad un computer senza autorizzazione od oltre i limiti dell’autorizzazione. Pur avendo come scopo soprattutto la repressione dei crimini informatici, essa ha disciplinato l’appartenenza e la disponibilità dei dati informatici, ricevendo pesanti critiche da parte di quanti l’hanno giudicata eccessivamente protettiva nei confronti della proprietà digitale. Il dibattito che ne è scaturito ha mostrato quanto sia centrale la domanda concernente i limiti che si possano apporre sia per motivi di sicurezza (nazionale) sia per le possibili e spesso devastanti notizie false. Il dibattito è rovente in tutto il mondo anche a causa dei tentativi, che spesso affiorano, di introdurre il controllo sui contenuti informatici. Finora è stata ritenuta fondamentale l’affermazione della neutralità della rete e la libertà, anche rispetto agli Stati, dei cybernauti.

In America si sono verificati i casi clamorosi di Julian Assange (co-promotore nel 2007 di Wikileaks), che ha diffuso documenti segreti del Governo e, perciò, perseguitato e costretto, per evitare l’arresto, a vivere nell’Ambasciata dell’Ecuador e di Aaron Swartz, morto suicida dopo l’incriminazione e l’arresto, nel 2011, per sottrazione di dati da jstor (biblioteca virtuale accademica fondata nel 1995) che egli voleva diffondere, in modo da renderli disponibili a tutti[48], in consonanza con il suo sogno-progetto di Open Library.

I casi hanno portato in primo piano l’importanza e l’acutezza della proprietà dei dati digitali. Riguardo ad essi nel 2011 il deputato repubblicano Lamar S. Smith, rappresentante del Distretto 21 del Texas, presentò un disegno di legge per il controllo dei contenuti veicolati dalla ‘rete’: lo Stop Online Piracy Act (SOPA), anche chiamato H.R. 3261. La proposta mirava a consentire ai titolari di copyright statunitensi di agire direttamente per impedire la diffusione di contenuti protetti. Inoltre avrebbe permesso al Dipartimento di Giustizia e ai titolari di copyright di procedere legalmente contro i siti web accusati di diffondere o facilitare le infrazioni del diritto d'autore. A seconda del richiedente, le sanzioni avrebbero potuto includere il divieto ai network pubblicitari o ai siti di gestione dei pagamenti (come, ad esempio, Paypal) d'intrattenere rapporti d'affari con il sito accusato delle infrazioni, il divieto ai motori di ricerca di mantenere attivi link verso il sito in questione e la richiesta agli Internet Service Provider di bloccare l'accesso al sito web.

 

 

5. – Neutralità della rete

 

Di maggior rilievo, riguardo alla spettanza ed all’uso dei contenuti e in generale alla navigazione nel web appare la problematica nota come Neutralità della Rete.

Nel 2015 l’allora presidente Barack Obama creava, insieme alla Federal Communications Commission (FCC), il documento Open Internet Order. Si trattava di uno statuto molto importante, che definiva il Web come bene di primaria necessità, indivisibile e da garantire in ogni maniera. A distanza di poco più di due anni, il governo USA, per volontà di Donald Trump, è tornato sui propri passi, cancellando le dette prerogative alla rete e definendo nuovi parametri.

L’atto firmato ed emesso dalla FCC il 14 Dicembre 2017 ha il nome di Restoring Internet Freedom Order e mette in lingua burocratica il voto espresso dalla commissione nel dicembre 2017: i service provider possono bloccare, rallentare o stabilire priorità nell’acceso al network, a seconda di proprie strategie commerciali o di quelle decise con i fornitori di contenuti. In altre parole: due clienti di uno stesso ISP, connessi da una medesima zona, potranno godere di accessi differenti e stabiliti in base alle offerte dei contratti. C’è da dire che, seppur pubblicato dalla FCC, il provvedimento, in base al Congressional Review Act, deve essere fatto proprio dal Congresso, il quale può rigettare o accettare la normativa, confermandola o aprendo un’ulteriore discussione. Si afferma che se vengano approvate dal Congresso le proposte dell’Amministrazione si verificherebbe una invasione di campo, perché, in base alla Costituzione, i contratti di concessione ed utilizzo della rete sono demandati alla competenza dei singoli Stati. La questione è ancora in itinere, poiché la decisione della FCC è stata ufficialmente pubblicata nel Registro federale, le porte per l'adesione e la presentazione delle cause rimarranno aperte fino al 23 aprile 2018.

Alcuni stati e città, come San Francisco, pensano a modi netti di proteggere la neutralità, ad esempio ponendola come requisito essenziali per qualunque ISP voglia offrire servizi basati sull’infrastruttura pubblica. Al momento 26 Stati e 5 Governatori hanno emesso ordini esecutivi a favore del mantenimento del precedente Open Internet Order, il quale stabilisce che tutti i bit che passano per il Web sono uguali e che come tali vanno trattati, vietando di discriminare il traffico in base alle differenze fra i contenuti che ci passano dentro. Esso, quindi, garantisce che quando si usa Internet si ha il diritto di accedere in egual misura al sito di una pubblica amministrazione, di un quotidiano, di un blog antimafia, o ad un servizio offerto da un colosso della Silicon Valley.

Viceversa abolire la neutralità della rete significa che gli operatori delle telecomunicazioni, che hanno in mano le infrastrutture, possono creare delle corsie preferenziali (per lo più) a pagamento ad esempio per garantire che un certo servizio video funzioni sempre bene o che l'accesso ad un determinato sito sia sempre veloce. Il rischio quindi è quello di avere una rete a due velocità: l'autostrada per chi paga, (verosimilmente le grandi compagnie) e la mulattiera per chi non può farlo. Il secondo rischio è che i fornitori degli accessi ad Internet si intromettano nelle scelte dei loro abbonati.

Chi è a favore della neutralità della rete sostiene che l'assenza di barriere d'ingresso nel mercato della comunicazione online ha fino ad ora permesso la nascita di giornali online, siti di e-commerce e di intrattenimento ugualmente legittimati a farsi raggiungere e con le stesse tempistiche. Si osserva, soprattutto da parte delle compagnie Telco (cioè le società di telecomunicazioni)[49] che i colossi del Web occupano ormai quasi tutta la banda passante, guadagnano miliardi e non mettono un solo euro per migliorare le infrastrutture che permettono loro di fare soldi, perciò dovrebbe essere ritenuta legittima l’eventuale selezione operata da chi si accolla i costi della diffusione dei dati.

Sulla questione è scoppiata una vera e propria ‘battaglia’ giudiziaria e politica.

Numerosi procuratori generali hanno contestato la decisione del 14 dicembre della FCC, che (come si è visto) abroga le regole di neutralità della rete, prevista da Obama. Essi si sono organizzati ed hanno dato il via alla lotta per salvare la rete. A guidare questa battaglia è stato il procuratore generale di New York, Eric Schneiderman, il quale crede che un Internet aperto e gratuito sia addirittura funzionale al mantenimento della democrazia. A lui si sono uniti i procuratori generali di California, Connecticut, Delaware, Hawaii, Illinois, Iowa, Kentucky, Maine, Maryland, Massachusetts, Minnesota, Mississippi, New Mexico, New Jersey, North Carolina, Pennsylvania, Rhode Island, Vermont, Virginia, Washington e il distretto di Columbia.

L’accusa rivolta al provvedimento della FCC voluto da Trump è quella di violare la legge federale. In particolare:

 

- perché introduce forme di arbitrario, capriccioso e abuso di discrezione ai sensi della legge sulla procedura amministrativa.

- Perché viola la legge federale, inclusa, la Costituzione degli Stati Uniti, il The Communications Act del 1934 e i regolamenti FCC ivi promulgati.

 

Si rivendica per le imprese, a New York e in tutto il Paese, il diritto a una connessione Internet gratuita e aperta.

Alla coalizione dei Procuratori Generali scesa in campo per il mantenimento della neutralità della rete si sono affiancati Stati come New York, Oregon, New Jersey e Montana; i quali stanno approvando disposizioni sulla neutralità della rete a favore dei cittadini.

L’ultimo atto della FCC è ritenuto pericoloso perché consente un ingiustificato ed arbitrario accesso ai contenuti[50] e concreta un esiziale attacco alla Privacy[51]. I fornitori di servizi Internet, infatti, verrebbero autorizzati a bloccare determinati contenuti, ad addebitarne i costi agli utenti, a decidere quali e quanti contenuti siano fruibili[52].

Tutto ciò potrebbe rivelarsi mortale soprattutto per le Start Up a favore di grossi aziende (Google in testa) che potrebbero rivendicare la proprietà e l’esclusività di gran parte delle notizie e degli altri dati, sottraendoli alla fruizione diffusa. È, infatti, un nodo da sciogliere se i dati possano essere considerati ormai beni comuni e come tali siano nella appartenenza e nella disponibilità di tutti oppure possano essere in proprietà di alcuni gruppi, con facoltà di escludere chi vogliano dalla fruizione, in modo da ricavare ingenti somme dalla messa a disposizione dell’accesso ai dati.

Questo costituisce, per la struttura stessa delle reti, un problema mondiale e non soltanto americano, sicché non è fuori luogo temere che le nuove normative usa possano avere un impatto fuori dagli Stati Uniti d’America.

In Europa, sull’onda dell’approvazione della net neutrality sotto la presidenza Obama, si sono approvate norme simili, seppur con alcuni buchi, presenti anche nelle vecchie normative USA. Basti pensare al fenomeno dello “zero rating”, che consiste nel garantire accesso privilegiato a un servizio rispetto a un altro, proponendo un piano di consumo che esclude dal limite di banda previsto nel contratto i contenuti prodotti dal proprio provider (o da fornitori terzi che lo pagano per questo); un fenomeno che nonostante le norme viene ancora riscontrato in molte offerte di vari ISP. Cosa succederà se passano le restrizioni volute da Trump e dalla FCC? È difficile dirlo, considerato che l’UE ha norme più liberali, ma le Compagnie che operano anche in Europa potrebbero volere applicare le regole a loro più favorevoli, per loro fonte di guadagno e potere.

 

 

6. – Le implicazioni della Carta dei Diritti di Internet

 

In Italia esiste la Carta dei Diritti di Internet, approvata come Raccomandazione dalla Camera dei Deputati nel novembre 2015. Essa però non vincola in nessun modo e al più sarà una guida per promuovere leggi sul digitale. Essa comunque potrebbe avviare un discorso necessario, che è appena alle battute iniziali e dovrà essere affrontato con urgenza, seppure con la consapevolezza che si tratta di disciplinare situazioni non circoscrivibili in confini nazionali.

La Carta, sul presupposto che occorre garantire il pieno riconoscimento di libertà, eguaglianza, dignità e diversità di ogni persona si snoda in 14 articoli[53], tesi a realizzare la «condizione necessaria perché sia assicurato il funzionamento democratico delle Istituzioni, e perché si eviti il prevalere di poteri pubblici e privati che possano portare ad una società della sorveglianza, del controllo e della selezione sociale».

Riguardo all’accesso alla rete ed all’appartenenza dei dati prende posizione netta e si schiera per la neutralità (artt. 2 e 4).

Riafferma la proprietà dei dati personali ed il rispetto, in ogni caso, della dignità di ogni persona, compreso il diritto all’oblio (art. 5 e art. 11).

Significativi sono il riconoscimento dell’interesse pubblico per la sicurezza in rete e la tutela dei diritti di ciascun utente, relativamente ai dati immessi in rete:

 

Art. 13. (Sicurezza in rete). 1. La sicurezza in Rete deve essere garantita come interesse pubblico, attraverso l’integrità delle infrastrutture e la loro tutela da attacchi, e come interesse delle singole persone. 2. Non sono ammesse limitazioni della libertà di manifestazione del pensiero. Deve essere garantita la tutela della dignità delle persone da abusi connessi a comportamenti quali l’incitamento all’odio, alla discriminazione e alla violenza.

 

Art. 14. (Governo della rete). 1. Ogni persona ha diritto di vedere riconosciuti i propri diritti in Rete sia a livello nazionale che internazionale.

 

Come si è detto la Carta attende di diventare il contenuto di qualche legge.

L’interprete, però, potrebbe ravvisare in essa qualcosa di più, scorgendovi la individuazione e l’enunciazioni di princìpi generali che già esistono e che potrebbero essere invocati sia a livello nazionale[54] che internazionale. C’è, infatti da domandarsi se non sia il caso di richiedere (su iniziativa dell’onu o dell’Italia, in conseguenza di questa Carta) una pronuncia della Corte Internazionale di Giustizia (CIG)[55], quanto mai opportuna per il riconoscimento dei princìpi da applicare in un campo che concerne l’intero pianeta e che non può dipendere né dalle pressioni delle grandi società né dai singoli Stati o dagli umori dei loro governanti di turno.

È altresì compito dei giuristi affermare che la ‘Rete’ ed i dati circolanti in essa appartengono al titolare dei singoli dati e, riguardo alla facoltà di accesso, costituiscono beni comuni, almeno per gli utenti: questo già ora e di là da eventuali provvedimenti legislativi[56].

I giureconsulti, peraltro, hanno ben presente che i beni digitali sono da annoverare tra i beni immateriali, con la conseguenza che, per loro stessa natura, non si prestano ad essere goduti in modo pieno ed esclusivo, come i beni materiali, nei quali, come si è rilevato, «il godimento dell'uno esclude il godimento dell'altro [...]», laddove, invece, «le idee sono suscettibili di godimento contemporaneo da parte di una generalità di persone»[57], in virtù e dal momento della loro estrinsecazione attraverso il corpus mechanicum[58].

 

 

Abstract

 

El avance incesante de la robótica y de la inteligencia artificial plantea tendencias globales que preocupan particularmente el derecho.

Entre estas son particularmente relevantes y tópicos aquellas relacionados con la privacidad, el nuevo capitalismo llamado capitalismo de vigilancia, TIC (Tecnología de la Comunicación de la Información), Robotic Things, big data, Cloud, Filter bubbles...

Frente al rico problema que surge, es central la cuestión de la neutralidad de la red, alrededor de la cual se está llevando a cabo una movilización en los Estados Unidos, mientras que Europa tiene más posiciones abiertas.

La Cámara de Diputados de Italia aprobó la Carta de Derechos de Internet, que parece útil para identificar los principios generales que se aplicarán a lo nuevo en una cuestión en la que el recurso a la analogía es insuficiente.

En particular, se reitera el papel de los juristas.

 

 



 

[Per la pubblicazione degli articoli della sezione “Contributi” si è applicato, in maniera rigorosa, il procedimento di peer review. Ogni articolo è stato valutato positivamente da due referees, che hanno operato con il sistema del double-blind]

 

[1] Sull’impatto delle tecnologie informatiche sulle categorie giuridiche tradizionali da ultimo cfr., in particolare, A.a.V.v., Internet e diritto civile, C. Perlingieri e L. Ruggeri (a cura di), Napoli 2015; A.a.V.v., Manuale di diritto dell’informatica, D. Valentino (a cura di), Napoli 2016; G. Pascuzzi, Il diritto dell’era digitale. Tecnologie informatiche e regole privatistiche, Bologna 2006, 16 ss.; Id., Tecnologie digitali e regole, in Dir. dell’internet 2005, 303 ss.

 

[2] La metafora risale ad Aristotele ed è stata, per così dire, riscoperta nel Novecento, dopo la pubblicazione di The philosophy of Rhetoric di Ivor Armstrong Richards, suscitando una notevole crescita di interesse in ogni ambito dello scibile, producendo un'alluvionale letteratura caratterizzata da un altissimo grado di interdisciplinarietà. In tal senso, C. Sarra, Lo scudo di Dioniso. Contributo allo studio della metafora giuridica. Principî di filosofia forense, Milano 2010.

 

[3] Non c’è qui lo spazio per soffermarsi sull’analogia: della immensa bibliografia, a partire, nell’età contemporanea, dagli studi del pensatore polacco Chaïm Perelman, in particolare dall’ormai storico volume: C. Perelman, Traité de l'argumentation: La nouvelle rhétorique, Paris 1958 = Trattato sull’argomentazione. La nuova retorica, Torino 2011. Cfr.: L. Caiani, v. Analogia (Teoria generale), in Enciclopedia del diritto, II, Milano 1958; G. Carcaterra, v. Analogia (Teoria generale), in Enciclopedia giuridica, II, Roma 1988; per la manualistica v. A. Torrente - P. Schlesinger, Manuale di diritto privato, curatore: F. Anelli, C. Granelli, Milano 2017, 43 s.

 

[4] Cfr.: R. Calo, Robotics and the Lessons of Cyberlaw, in California Law Review 103, 6-1-2015, n 3 Article 2, 36 s. V. Meg Leta Jones & Jason Millar, Hacking Analogies in the Regulation of Robotics, in Oxford Handbook Of The Law And Regulation Of Technology, Oxford 2016.

 

[5] La riflessione articolatasi sulla risoluzione accentua la centralità dell’uomo anche dinanzi all’intelligenza artificiale: v., ad es. A. Morelli, Parlamento Europeo. Approvata la risoluzione per le leggi, in www.lacostituzione.info/index.php/2017/01/14/parlamento-europeo-approvata-la-risoluzione-per-le-leggi-sulla-robotica . Punto o uno dei principali punti focali è costituito dal fatto che la crescente autonomia che i robots in parte hanno, ma soprattutto acquisteranno impone di interrogarsi sulla loro natura. In virtù delle categorie note ci si chiede se debbano essere considerati ‘persone’ (fisiche o giuridiche) oppure semplicemente oggetti o animali. La difficoltà di farli rientrare in una o l’altra di queste categorie spinge a congetturare l’eventuale opportunità di una categoria del tutto nuova, con caratteristiche da individuare, particolarmente riguardo all’eventuale riconoscimento di diritti e doveri ed alla responsabilità.

 

[6] Della copiosissima letteratura concernente riservatezza e privacy mi limito a citare (rinviando al volume anche per i riscontri bibliografici), S. Rodotà, Intervista su Privacy e libertà, a cura di Paolo Conti, Bari 2005 (ultimo saggio nel quale l’a. da conto della sua reiterata riflessione sul tema).

 

[7] Risoluzione del parlamento Europeo. Introduction. G. whereas many basic questions of data protection have already become the subject of consideration in the general contexts of the internet and e-commerce, but whereas further aspects of data ownership and the protection of personal data and privacy might still need to be addressed, given that applications and appliances will communicate with each other and with databases without humans intervening or possibly without their even being aware of what is going on;

Ethical principles. 5. Notes that the potential for empowerment through the use of robotics is nuanced by a set of tensions or risks relating to human safety, privacy, integrity, dignity, autonomy and data ownership.

 

[8] S. Zuboff, Big other: Surveillance capitalism and the prospects of an information civilization, in Journal of Information Technology 3 (1), London 2015, 75 s.

 

[9] V. Instituut Rathenau, Human Rights, cit., 15 s.

 

[10] L. Floridi, The onlife manifesto: Being human in a hyperconnected world, Londra 2015. Ebook, SBN 978-3-319-04093-6. Traduz. Italiana a cura di Maria Cristina Tortorelli, rinvenibile in PDF, consultabile al sito: www.labcd.unipi.it/wp-content/uploads/.../Seminario-Maria-Cristina-Tortorelli.pdf , 5.

 

[11] V.: Cfr.: R. Strand & M. Kaiser, Report on Ethical issues Raised by Emerging Sciences and Technologies, in Centre for the Study of the Sciences and the Humanities, University of Bergen, Norway 23 January 2015.

 

[12] The Convention for the Protection of Individuals with regard to Automatic Processing of Personal Data (Convention 108) e annesso Protocollo supervisory authorities and transborder data flows are available, consultabile al sito: https://www.coe.int/en/web/conventions/full-list/-/conventions/treaty/108 .

 

[13] Cfr.: B. Schneier, The Public-Private Surveillance Partnership, Bloomberg View, 2013, consultabile al sito https://www.bloomberg.com/view/articles/2013-07-31/the-public-private-surveillancepartnership . È stato fatto notare che il comportamento di navigazione degli utenti di Facebook (ad esempio il loro numero di "Mi piace") potrebbe rivelare molte informazioni personali sensibili sulla vita di questi utenti, come le loro età, genere, orientamento sessuale, etnia, opinioni religiose e politiche, tratti della personalità, livello di intelligenza, livello di felicità, se usano sostanze che creano dipendenza e se i loro genitori sono divorziati: v., M. Kosinski- D. Stillwell- T. Graepel, Private traits and attributes are predictable from digital records of human behavior, ed. National Academy of Sciences of the United States of America (PNAS), vol. 110 n°. 15, 5802–5805, 2013.

 

[14] Il General Data Protection Regulation- Regolamento (UE 2016/679, adottato il 27 aprile 2016), non richiede alcuna forma di legislazione applicativa da parte degli Stati membri. Esso è un Regolamento con il quale la Commissione europea intende rafforzare e rendere più omogenea la protezione dei dati personali di cittadini dell'Unione Europea e dei residenti nell'Unione Europea, sia all'interno che all'esterno dei confini dell'Unione Europea (UE). Il testo, pubblicato nella Gazzetta Ufficiale Europea il 4 maggio 2016 ed entrato in vigore il 25 maggio dello stesso anno, inizierà ad avere efficacia il 25 maggio 2018. Esso disciplina l'esportazione di dati personali al di fuori dell'UE mirando a restituire ai cittadini il controllo dei proprî dati personali e a semplificare il contesto normativo, in modo da rendere omogenea la disciplina della privacy dentro l'UE. Quando entrerà in vigore, il GDPR andrà a sostituire la direttiva sulla protezione dei dati (ufficialmente Direttiva 95/46/EC) istituita nel 1995 e abrogherà le norme del Codice per la protezione dei dati personali (dlgs.n. 196/2003), ove incompatibili. Manca, allo stato, una normativa italiana "di raccordo" che metta ordine e inserisca le norme del Codice sulla privacy non incompatibili all'interno dell'impianto normativo del Regolamento. Il Regolamento è integrato da altra ed apposita Direttiva, la UE 2016/680, concernente i trattamenti dei dati da parte dell'Autorità Giudiziaria e di tutte le forze di polizia.

 

[15] V. Rathenau Instituut, Human rights in the robot age. Challenges arising from the use of robotics, artificial intelligence, and virtual and augmented reality, The Hague 10 May 2017, 19. Si tratta del documento commissionato dalla Parliamentary Assembly of the Council of Europe (PACE) in vista della propria Raccomandazione (2012), su Technological convergence, artificial intelligence and human rights, adottata dall’Assemblea il 28 Aprile 2017.

 

[16] V. Rathenau Instituut, Human rights, cit., 20 s., dove è fornita una documentata indicazione di alcune problematiche e della letteratura più rilevante.

 

[17] Cfr.: S. Eskens, J. Timmer, L. Kool & Rinie van Est, Beyond control - Exploratory study on the discourse in Silicon Valley about consumer privacy in the Internet of Things, 2016 consultabile al sito: https://www.rathenau.nl/en/publication/beyond-control .

 

[18] Sul punto v. M.E. Kaminski – S. Witnov, The Conforming Effect: First Amendment Implications of Surveillance, University of Richmond Law Review, Vol. 49, Richmond 2015; Ohio State Public Law Working Paper No. 288, consultabile al sito: https://ssrn.com/abstract=2550385 .

 

[19] Cfr.: J.E. Cohen, The Surveillance-Innovation Complex: The Irony of the Participatory Turn, in D. Barney, G. Coleman, C. Ross, J. Sterne, T. Tembeck, (eds.), The Participatory Condition in the Digital Age, Minneapolis 2016.

 

[20] Sia La Corte dei diritti dell'uomo e la Corte di giustizia dell'Unione Europea hanno espresso le loro preoccupazioni numerose occasioni riguardanti le attività di sorveglianza statale e l'impatto sui diritti alla privacy v. Rathenau Instituut, Human rights, cit., 21.

 

[21] V. Rathenau Instituut, Human rights, cit., 21.

 

[22] V. l’articolo del Cohen (v. supra nt. 18) e quello a cura della London School of Economics and Political Science, Code and Law between Truth and Power’, 11 March 2015, consultabile al sito www.lse.ac.uk/newsAndMedia/videoAndAudio/channels/publicLecturesAndEvents/player.aspx?id=2972 . Adde: E.M. Kaminski, Robots in the Home: What Will We Have Agreed To?, in Idaho Law Review 51, 2015, 661 ss.; R. Calo, Robots and Privacy, in Robot Ethics: The Ethical And Social Implications of Robotics, Cambridge 2012, consultabile al sito http://ssrn.com/abstract=1599189 ; T. Denning, A spotlight on security and privacy risks with future household robots: Attacks and lessons, in Proceedings of the 11th International Conference on Ubiquitous, Orlando Sept. 30–Oct. 3, 2009.

 

[23] V.: B. Van der Sloot, Privacy as human flourishing: Could a shift towards virtue ethics strengthen privacy protection in the age of Big Data?, JIPITEC 5, 2014, 230 ss., consultabile al sito: https://www.jipitec.eu/ns/jipitec-5-3-2014/4097 .

 

[24] Lucida e significativa esemplificazione è esposta in Rathenau Instituut, Human Rights, cit., 22 s.: «Le tecnologie persuasive si basano sulla raccolta dei dati, sull'analisi tramite intelligenza artificiale e interfacce intelligenti. Per prima cosa ci rivolgiamo il massiccio uso segreto di tecnologie persuasive su Internet e la sua influenza sugli esseri umani e sui loro diritto al rispetto della vita privata. …. Le tecnologie persuasive sono in uso da diversi decenni nel settore del gioco d'azzardo, in particolare in slot machine computerizzate. Con l'avvincente tecnologia digitale e video, le slot machine trascinano i giocatori in uno stato di trance, che i giocatori chiamano la 'machine zone', in cui le loro preoccupazioni quotidiane, consapevolezza corporea e persino il loro senso di autonomia svaniscono. Una volta nella 'zona', il gioco d'azzardo i giocatori giocano non per vincere, ma semplicemente per continuare a giocare. Si stanno fondendo con la macchina, o in altre parole, vengono catturati nel loop della macchina progettata per essere accolti. Questi tipi di piccoli anelli di feedback ripetitivi di stimolo e risposta, i cosiddetti cicli di costrizione, che sono molto coinvolgenti, vengono utilizzati sempre di più nel mondo in generale, specialmente nella gamification online. … Un altro esempio è il servizio di appuntamenti online OkCupid, che ha condotto esperimenti progettati per testare quali aspetti del profilo di un membro hanno avuto la maggiore influenza sull'attirare altri membri nel servizio. Come possono le persone scegliere il proprio percorso se le organizzazioni, tramite siti Web o app, li possono spingere verso determinate emozioni e scelte? Questa domanda diventa particolarmente urgente quando le persone non sono consapevoli di essere state influenzate, rendendole praticamente indifese da queste attività d'influenza» (la traduzione è mia).

 

[25] Su di essi v. Rathenau Instituut, Human Rights, cit., 22 s.

 

[26] Illuminante il quadro fatto nel Report dell’Instituut Rathinau (loc. cit.): «Negli ultimi anni, il dibattito è cresciuto su come le nuove TIC influenzano le capacità emotive e sociali delle persone e la qualità delle relazioni umane. Lo psicologo clinico e sociologo Turkle (2011, 2015) rappresenta una voce influente in questo dibattito. Trova che molti giovani, assorti nei loro dispositivi, non riescono a svilupparsi pienamente e con indipendenza. I ricercatori dell'Università del Michigan, ad esempio, hanno riscontrato una forte diminuzione dell'empatia tra gli studenti americani dall'inizio di questo secolo, in parte a causa dell'uso e del contenuto dei social media. Come risultato dell'attaccamento delle persone ai loro dispositivi, Turkle vede il rischio di un social deskilling: l'incapacità di far fronte agli altri umani con i loro problemi e carenze e la riluttanza a investire nelle relazioni umane. Andando avanti, questo fenomeno potrebbe comportare un sempre minor numero di relazioni tra gli umani e ad evitare l'intimità umana. Poiché i robots sono dotati di abilità sociali, come si può articolare il diritto al rispetto della vita famigliare? Alcuni tipi di robots sono dotati di intelligenza artificiale e sono programmati per simulare le abilità sociali al fine, ad esempio, di stabilire una conversazione con il loro utente; per esempio, un robot di cura può usare il calcolo affettivo per riconoscere le emozioni umane e successivamente regolarne il comportamento. Potenzialmente, i robots possono stimolare le relazioni umane. Si pensi a un robot di assistenza, come il robot per cure olandese Alice, che chiede ai destinatari delle sue cure se hanno recentemente contattato i loro familiari, con l'obiettivo di ristabilire contatti e mantenere le loro relazioni. Diversi studi sull'effetto di Paro, un robot a tenuta morbida, sugli anziani in case di riposo sembrano suggerire che l'umore delle persone anziane migliora e che i livelli di depressione diminuiscono; anche la loro condizione mentale migliora, fa progredire la comunicazione tra coloro che vivono nella casa di cura e rafforza i loro legami sociali. Tuttavia, poiché la tecnologia si annida sempre più tra di noi, esiste il rischio che i robots possano interferire con il diritto al rispetto della vita familiare come conseguenza anche non intenzionale della loro influenza sui loro utenti. A causa dell'antropomorfismo, le persone vulnerabili come gli anziani possono credere che un robot sociale sia una persona reale, ad esempio il loro nipote. Se la situazione non viene trattata attentamente, il curante può concentrarsi principalmente sul robot di cura invece, ad esempio, che sui membri della sua famiglia o su altri umani» (traduz. libera mia).

 

[27] I. Asimov, Robot Visions, in Byron Press Visual Publications, 1990; tr. it. P. Cavallari, G. Cossato, S. Sandrelli, Visioni di robot, Milano 2010, part. 191 s.

 

[28] Art. 9: Libertà di pensiero, di coscienza e di religione. 1. Ogni persona ha diritto alla libertà di pensiero, di coscienza e di religione; tale diritto include la libertà di cambiare religione o credo, così come la libertà di manifestare la propria religione o il proprio credo individualmente o collettivamente, in pubblico o in privato, mediante il culto, l’insegnamento, le pratiche e l’osservanza dei riti. 2. La libertà di manifestare la propria religione o il proprio credo non può essere oggetto di restrizioni diverse da quelle che sono stabilite dalla legge e che costituiscono misure necessarie, in una società democratica, alla pubblica sicurezza, alla protezione dell’ordine, della salute o della morale pubblica, o alla protezione dei diritti e della libertà altrui. Art. 10: Libertà di espressione. 1. Ogni persona ha diritto alla libertà d’espressione. Tale diritto include la libertà d’opinione e la libertà di ricevere o di comunicare informazioni o idee senza che vi possa essere ingerenza da parte delle autorità pubbliche e senza limiti di frontiera. 2. L’esercizio di queste libertà, poiché comporta doveri e responsabilità, può essere sottoposto alle formalità, condizioni, restrizioni o sanzioni che sono previste dalla legge e che costituiscono misure necessarie, in una società democratica, alla sicurezza nazionale, all’integrità territoriale o alla pubblica sicurezza, alla difesa dell’ordine e alla prevenzione dei reati, alla protezione della salute o della morale, alla protezione della reputazione o dei diritti altrui, per impedire la divulgazione di informazioni riservate o per garantire l’autorità e l’imparzialità del potere giudiziario.

 

[29] Ad esempio, i risultati di ricerca personalizzati di Google dipendono, almeno in parte, dalla nostra precedente cronologia delle ricerche. Sulla funzione ed il funzionamento dei cloud, cfr.: Borko Furht – Armando Escalante, Handbook of Cloud Computing, Londra 2011; A. Ferrari – E.L. Zanleone, Cloud computing. Aspettative, problemi, progetti e risultati di aziende passate al modello “as service”, Milano 2011. Adde: G. Noto La Diega, Cloud computing e protezione dei dati nel web 3.0, in Europa e diritto privato, Milano 2014, 591. Al riguardo, in dottrina, si osserva che «Il servizio di gestione dei dati da remoto ricomprende la fornitura, sempre attraverso internet, di un servizio che consente all’utente, oltre alla mera archiviazione, di modificare i file salvati attraverso software che vengono impiegati per via telematica»: D. Mula, Il contratto di archiviazione e gestione da remoto dei documenti informatici. Qualificazione del contratto di cloud services, cit., 50. In estrema sintesi, il cloud computing è una forma di terziarizzazione tecnologica avanzata. Nel secondo millennio, infatti, le imprese possono affidare a un provider specializzato la gestione di una o più risorse informatiche che, da quel momento in poi, vengono erogate via Web attraverso un contratto di outsourcing. Tutto questo, senza che l’azienda debba accollarsi gli oneri di acquisto di licenze o macchine per usufruire di servizi indispensabili al business. Grazie al cloud, sarà il fornitore a mantenere tutta l’infrastruttura necessaria a gestire e a distribuire i servizi in base alla richiesta (on demand) e con una formula pay per use.

 

[30] Cfr.: M. Zentner, Education for participation in a digitalised world, in Youth Partnership – Partnership between the European Commission and the Council of Europe in the field of youth. in Report – Symposium on youth participation in a digitalised world, Budapest 14-16 September 2015, consultabile al sito https://pjp-eu.coe.int/web/youth-partnership/digitalised-world .

 

[31] Essi sono il risultato del sistema di personalizzazione degli esiti di ricerche su siti che registrano la storia del comportamento dell'utente. Questi siti sono in grado di utilizzare informazioni sull'utente (come posizione, click precedenti, ricerche passate) per scegliere selettivamente tra tutte le risposte quelle che vorrà vedere l'utente stesso. L'effetto è di isolare l'utente da informazioni che sono in contrasto con il suo punto di vista, effettivamente isolandolo nella sua bolla culturale o ideologica.

 

[32] Nel suo libro The Filter Bubble: What the Internet Is Hiding from You, New York 2011.

 

[33] Esempi importanti sono la ricerca personalizzata di Google e le notizie personalizzate di Facebook.

 

[34] L. Parramore, The Filter Bubble, in The Atlantic 10 ottobre 2010: «Since Dec. 4, 2009, Google has been personalized for everyone. So when I had two friends this spring Google "BP," one of them got a set of links that was about investment opportunities in BP. The other one got information about the oil spill ...».

 

[35] Cfr.: D. Gross, What the Internet is hiding from you, 19 maggio 2011, consultabile al sito http://articles.cnn.com/2011-05-19/tech/online.privacy.pariser_1_google-news-facebook-internet/2?_s=PM:TECH : «I had friends Google BP when the oil spill was happening. These are two women who were quite similar in a lot of ways. One got a lot of results about the environmental consequences of what was happening and the spill. The other one just got investment information and nothing about the spill at all».

 

[36] B. Bosker, Tim Berners-Lee: Facebook Threatens Web, Beware, in The Guardian 22 novembre 2010:«Social networking sites are threatening the Web's core principles ... Berners-Lee argued. "Each site is a silo, walled off from the others", he explained. "The more you enter, the more you become locked in ...».

 

[37] E. Bozdag, Bias in algorithmic filtering and personalization, in Ethics and Information Technology, London September 2013, Vol. 15, n° 3, 209-227; ISSN 10.1007/s10676-013-9321-6; J. Brodkin, Google may remotely deactivate Glass if you sell it or lend to a friend, in Ars Technica 18 April 2013, consultabile al sito https://arstechnica.com/information-technology/2013/04/google-may-remotely-deactivateglass-if-you-sell-it-or-lend-to-a-friend .

 

[38] V. Rathenau Instituut, Human rights, cit., 38.

 

[39] La Reuters è un'agenzia di stampa britannica. Fa parte del gruppo Reuters Group plc con sede a Londra.

 

[40] J. Zittrain, A History of Online Gatekeeping, in Harvard Journal of Law and Technology 19, 2006, 253 ss. Published Version http://cyber.law.harvard.edu/publications/2006/A_History_of_Online_Gatekeeping .

 

[41] Rathenau Instituut, Human rights, cit., 38 s.

 

[42] V. Rathenau Instituut, Human rights, cit., 39.

 

[43] F. Zuiderveen Borgesius - D. Trilling, J. Möller, B. Bodó, C. de Vreese & N. Helberger, Should we worry about filter bubbles?, in Internet Policy Review (Journal on Internet regulation) 5(1), 2013; ISSN 10.14763/2016.1.401.

 

[44] V. supra 15.

 

[45] V. Instituut Rathenau, Human rights, cit., 39 ed ivi ntt. 87-88.

 

[46] Google e Facebook sono diventati i custodi delle informazioni centrali della nostra società (cfr. supra Bozdag cit. alla nt. 36). Va tenuto presente che, ad oggi, Facebook costituisce il più grande canale di notizie al mondo, con oltre 1,86 miliardi attivi utenti.

 

[47] V. R. Calo, Robotics, cit.; Idem, Robots in American Law, in Legal Studies Research Paper n° 2016-04, della School of Law – University of Washington; H.A. Simon, Models of man social and rational, New York 1957; Idem, The Shape Of Automation For Men And Management, 1st edition, London 1965.

 

[48] Già nel 2009, Swartz scaricò e diffuse pubblicamente circa il 20% del database PACER (Public Access to Court Electronic Records) della Corte Federale degli Stati Uniti. Nell’Ottobre del 2011 fu decisivo per bloccare la SOPA.

 

[49] Va tenuto presente che la possibilità di tracciare con precisione ed elevata frequenza la posizione degli utenti, unita all’opportunità di inferirne il comportamento, consente alle compagnie Telco di costruire banche dati altamente dettagliate, da cui estrarre valore per il proprio business e per compagnie terze, cambiando il proprio ruolo da semplice Data Storer a Data Broker.

 

[50] Infatti il modo in cui si accede ai contenuti potrebbe cambiare, passando da quello odierno abbastanza aperto, il quale consente a tutti di cercare quello che si voglia e quando lo si voglia, a costi contenuti o nulli: questo potrebbe drasticamente cambiare.

 

[51] Saremmo continuamente monitorati su come acquistiamo, paghiamo e guardiamo i contenuti online, di modo che i nostri comportamenti online saranno potenzialmente soggetti a terze parti come gli ISP.

 

[52] I punti esposti sono stati attinti dall’accorata analisi fatta su Forbes, dal giurista e opinionista Andrew Rossow.

 

[53] Dichiarazione dei diritti in Internet. Questo documento costituisce il nuovo testo della Dichiarazione elaborato dalla Commissione per i diritti e i doveri relativi ad Internet a seguito della consultazione pubblica, delle audizioni svolte e della riunione della stessa Commissione del 14 luglio 2015. Si parte dal Preambolo, nel quale si traccia lo schema degli interventi auspicabili: «Internet ha contribuito in maniera decisiva a ridefinire lo spazio pubblico e privato, a strutturare i rapporti tra le persone e tra queste e le Istituzioni. Ha cancellato confini e ha costruito modalità nuove di produzione e utilizzazione della conoscenza. Ha ampliato le possibilità di intervento diretto delle persone nella sfera pubblica. Ha modificato l’organizzazione del lavoro. Ha consentito lo sviluppo di una società più aperta e libera. Internet deve essere considerata come una risorsa globale e che risponde al criterio della universalità. L’Unione europea è oggi la regione del mondo dove è più elevata la tutela costituzionale dei dati personali, esplicitamente riconosciuta dall’articolo 8 della Carta dei diritti fondamentali, che costituisce il riferimento necessario per una specificazione dei principi riguardanti il funzionamento di Internet, anche in una prospettiva globale. Questa Dichiarazione dei diritti in Internet è fondata sul pieno riconoscimento di libertà, eguaglianza, dignità e diversità di ogni persona. La garanzia di questi diritti è condizione necessaria perché sia assicurato il funzionamento democratico delle Istituzioni, e perché si eviti il prevalere di poteri pubblici e privati che possano portare ad una società della sorveglianza, del controllo e della selezione sociale. Internet si configura come uno spazio sempre più importante per l’autorganizzazione delle persone e dei gruppi e come uno strumento essenziale per promuovere la partecipazione individuale e collettiva ai processi democratici e l’eguaglianza sostanziale. I principi riguardanti Internet tengono conto anche del suo configurarsi come uno spazio economico che rende possibili innovazione, corretta competizione e crescita in un contesto democratico. Una Dichiarazione dei diritti di Internet è strumento indispensabile per dare fondamento costituzionale a principi e diritti nella dimensione sovranazionale». I titoli degli articoli sono i seguenti: Riconoscimento e garanzia dei diritti (Art. 1); Diritto di accesso (Art. 2); Diritto alla conoscenza e all’educazione in rete (Art. 3); Neutralità della rete (Art. 4); Tutela dei dati personali (Art. 5); Diritto all’autodeterminazione informativa (Art. 6); Diritto all’inviolabilità dei sistemi, dei dispositivi e domicili informatici (Art. 7); Trattamenti automatizzati (Art. 8); Diritto all’identità (Art. 9); Protezione dell’anonimato (Art. 10); Diritto all’oblio (Art. 11); Diritti e garanzie delle persone sulle piattaforme (Art. 12); Sicurezza in rete (Art. 13); Governo della rete (Art. 14).

 

[54] Cfr.: P. Stanzione – B. Troisi, Principi generali del diritto civile, Torino 2011.

 

[55] Art. 38, lett. c), dello Statuto della Corte internazionale di giustizia. Cfr.: A. Pizzorusso, Sistemi giuridici comparati, 2a ed., Milano 1998, partic. 295 s.

 

[56] V. U. Mattei, Beni comuni. Un manifesto, Roma-Bari 2011, partic. 89 s. Si deve tener presente che, in Italia, i beni comuni rientrano nell’ordine pubblico (economico) riconosciuto e sancito dalla Costituzione con gli artt. 41, 42: v. P. Maddalena, Il territorio bene comune degli Italiani, Roma 2014, il quale (91 s.) delinea il concetto di ordine pubblico economico conseguente ai detti articoli della Costituzione.

 

[57] Il punto è stato acclarato da tempo nella dottrina italiana; v.: R. Franceschelli, Beni immateriali (Saggio di una critica del concetto), in Riv. dir. ind. 1956, I, 381 ss.; M. Are, Beni immateriali (diritto privato), in Enc. dir., V, Milano 1959, 252; G. Oppo, Creazione ed esclusiva nel diritto industriale, in Riv. dir. comm. 1964, I, 187 ss., spec. 191; D. Messinetti, Oggetto dei diritti, in Enc. dir., XXIX, Milano 1979, 808 ss.; G. Ferri, Manuale di diritto commerciale, Torino 1980, 169. Il quale riconosceva ai beni immateriali «la possibilità di un integrale e contemporaneo godimento»; O.T. Scozzafava, Oggetto dei diritti, in Enc. giur., XXI, Roma 1990.

 

[58] Suggestivo appare, in proposito, il richiamo al concetto di bene comune elaborato dai giuristi romani riguardo all’aqua profluens. Lo scorrere di un fiume appartiene a tutti, ancorché singoli rivieraschi possano appropriarsi dell’acqua, ma senza mai impedire che il fiume continui il suo corso: proprio come nella rete, i cui dati possono appartenere ai singoli, ma, contestualmente, la rete appartiene a tutti: D. 1.8.2.1 (Marc. l. 3 institutionum); v. M. Marrone, Istituzioni di diritto romano, 8a ed., Palermo 2006, 279.