Italia Non Profit - Ti guida nel Terzo Settore
 

Fake news e Disinformazione: definizioni, tecniche, soluzioni

  • Pubblicato il: 15/09/2018 - 08:03
Autore/i: 
Rubrica: 
STUDI E RICERCHE
Articolo a cura di: 
Anna Detheridge
La responsabilità dell’informazione. Il testo che segue è stato elaborato durante il mese di agosto in risposta inizialmente a una mia personale necessità di fare chiarezza nella confusione generale e in risposta a tanta rassegnazione - nonostante l’insoddisfazione e le preoccupazioni di molti amici e colleghi - sul tema dell’informazione.
Una corretta informazione è indispensabile per la salvaguardia dei valori alla base dello Stato Democratico, pur con tutte le sue imperfezioni. Ciò che segue vuol essere null’altro che un contributo a un dibattito che percepisco come urgente e cruciale. Spero che questo invito alla condivisione possa far nascere altre riflessioni, articoli e contributi sul tema del diritto fondamentale dei cittadini di poter conoscere la verità, comprendere le trasformazioni in atto e partecipare attivamente alla costruzione della società futura.” Una riflessione di Anna Detheridge, in parte sintesi e traduzione del primo Rapporto “Disinformation and Fake News: Interim Report” del Parlamento del Regno Unito.

 
I tempi sembrerebbero maturi per un novello Le Carré, maestro di intrighi globali, con al centro protagonisti vecchi e nuovi, le Super Potenze di sempre, una seconda Guerra Fredda, complotti eversivi, con l’aggiunta dei nuovi Titani del web, oltre a forme inedite di spionaggio, il furto di Big Data ecc. ecc.:  tutto assolutamente avvincente. Se non fosse già realtà, bisognerebbe inventarla.
 
Dai primi di agosto, infatti, tutti i giornali riportano rivelazioni sugli attacchi digitali concertati ai danni del Presidente della Repubblica Sergio Mattarella, avvenuti la notte tra il 27 e il 28 maggio, in seguito alla sua decisione contraria alla designazione di Paolo Savona, euroscettico, a Ministro dell’Economia. Nello spazio di una notte 400 profili hanno chiesto le dimissioni di Sergio Mattarella, seguiti dalla presentazione di numerose denunce in Procura che sollecitavano la sua messa in stato di accusa per alto tradimento.
Lo stesso 27 maggio - come riporta il 5 agosto 2018 Fiorenza Sarzanini sul Corriere della Sera[1] - dopo il rifiuto di Mattarella e la rinuncia di Giuseppe Conte a formare un governo, Di Maio chiede pubblicamente di parlamentarizzare la crisi istituzionale utilizzando l’articolo 90 della Costituzione per la messa in stato d’accusa del presidente della Repubblica, la massima carica dello Stato. L’iniziativa non viene formalizzata ma poche ore dopo parte l’attacco via web e vengono presentati esposti formali.
Sempre il 5 agosto, Il Sole 24 Ore ha pubblicato un’inchiesta su Stephen Bannon[2] mentre tra le altre testate, il Corriere continua ad indagare lo strapotere dei titani del web con un’inchiesta a doppia pagina (lunedì 13 agosto).[3]
Si susseguono tante notizie frammentarie sullo strapotere delle multinazionali dei social media, sul fenomeno delle fake news e inquietanti rivelazioni su interferenze di sconosciuti nelle elezioni e nelle scelte politiche di diverse nazioni, in grado di mettere a soqquadro le istituzioni democratiche non soltanto italiane ed europee, ma in molte parti del mondo. Fatto ancora più inquietante: si scoprono legami e complicità tra la campagna elettorale di Trump negli Stati Uniti, e quella a favore della Brexit, nel Regno Unito, ma forse anche con le scelte separatiste in Catalonia e più recentemente le interferenze in Italia. Cosa significa tutto ciò? Possiamo ipotizzare (senza farneticare) una regìa - se non unica - di “intenti comuni”? Con quali obiettivi, e con quale effetto destabilizzante?
 
Per cominciare a fare finalmente un po’ di chiarezza potrebbe essere utile riferirsi al recente rapporto del Parlamento del Regno Unito intitolato Disinformation and fake news: Interim Report,[4] pubblicato il 29 luglio 2018, e che già preannuncia un Libro Bianco più completo in autunno.
La relazione di un’ottantina di pagine è preziosa perché rappresenta finalmente un’inchiesta a più mani di un gruppo interdisciplinare di professionisti e deputati del Parlamento britannico, uniti nel tentativo di venire a capo di un problema inedito della nostra società contemporanea. Senza voler demonizzare la tecnologia, ma ponendosi l’obiettivo di difendere il diritto del cittadino (ma anche del consumatore) di avere accesso a verità accertate, oltre al diritto delle istituzioni a difendere il loro buon nome, il Rapporto pone il problema della ricerca di soluzioni realistiche a tanta mala informazione e confusione.
Ciò che segue riassume i contenuti del Rapporto e pone alcune domande rilevanti per la società italiana.
 
Cosa vuol dire informare oggi? Lo scenario
Secondo alcune statistiche riportate da Tristan Harris, co fondatore e direttore esecutivo della Center for Humane Technology, oggi oltre due miliardi di persone usano Facebook, l’equivalente più o meno dei cristiani nel mondo; 1.8 miliardi usano YouTube, circa l’equivalente dei seguaci dell’Islam. Nel mondo cosiddetto “sviluppato” le persone in media controllano il loro cellulare 150 volte al giorno. Con questi dati è evidente che le persone ormai s’informano soprattutto attraverso i social media in grado di processare, analizzare, incrociare i nostri dati costruendo un profiling (schedatura) psicologico individuale per raggiungere le persone con contenuti selezionati ad personam, seguendo obiettivi a noi sconosciuti. Contenuti non necessariamente veritieri, né verificabili, in quanto i soggetti che li ricevono sono oggetto di micro targeting, raggiunti da “dark ads”, pubblicità occulta, dai contenuti personalizzati che hanno avuto un impatto profondo, fino ad oggi poco compreso.
 
Nel corso dell’indagine sull’uso politico dei social media, la Commissione ha dialogato con molti parlamenti nel mondo, dagli USA alla Spagna, Francia, Estonia, Latvia, Australia, Singapore, Canada, condividendo informazioni, testimonianze, riflessioni e raccogliendo una quantità di informazioni che ha posto le basi per inchieste più approfondite in futuro. Ma già dalle prime rivelazioni le trame che vengono alla luce sono fitte di legami sorprendenti e preoccupanti, strappi alle regole della democrazia come l’abbiamo sempre conosciuta e difesa in Occidente.
L’inchiesta parlamentare britannica è volta principalmente a chiarire il ruolo di alcune agenzie e di Facebook nella campagna per la Brexit, arrivando ad accertare responsabilità nella raccolta di dati illeciti da parte di agenzie di web marketing, omissioni nella protezione dei dati da parte di Facebook, e responsabilità certe di alcune agenzie con finanziamenti spesso illegali e ben oltre le cifre permesse per la campagna referendaria in Gran Bretagna.
 
Fake news” termine che oggi indica tutto e niente, non serve per comprendere meglio il fenomeno, piuttosto si dovrebbe parlare di manipolazione, misinformazione o disinformazione, vecchio concetto da rispolverare e che si complica con nuovissime implicazioni.
Il fenomeno della disinformazione oggi - commenta il Rapporto - è complesso e globalizzato, utilizza soprattutto tecnologie in rapida evoluzione, talmente sfuggenti che la legislazione degli Stati, fondata su divieti, non servirà per combatterla. La Commissione suggerisce piuttosto una ricerca di principi base sufficientemente adattabili alle rapide evoluzioni tecnologiche quali, ad esempio, degli standard inalienabili. Si apre così una richiesta implicita alla quale i cittadini potrebbero associarsi, che riguarda anche il nostro Paese, assente fino ad oggi nel dibattito internazionale, di aprire un’inchiesta formale e un dibattito aperto e costruttivo con la partecipazione di parlamentari, giornalisti, tecnici e individui competenti per far crescere tale consapevolezza. L’obiettivo a lungo termine è quello di trovare le modalità più idonee per difendere i valori della Democrazia rappresentativa e del libero mercato.
 
Quali sono le responsabilità delle società tecnologiche (tech companies)?
Il ruolo delle società tecnologiche, che spesso si definiscono “piattaforme”, è centrale. Il termine “piattaforma” è scorretto in quanto le società quali Facebook, Google, Twitter ecc. non si limitano a caricare contenuti su una piattaforma, ma in effetti controllano accuratamente ciò che noi vediamo, in quanto è proprio questo il loro modello di business. L’obiettivo è in fatti di accrescere il loro pubblico di utenti, cambiando il flusso delle informazioni a dispetto della loro pretesa neutralità. Facebook, ad esempio, sceglie di prioritizzare alcuni contenuti rispetto ad altri. Dietro le quinte algoritmi, analisi, data matching, e profiling sono le modalità di utilizzo delle informazioni raccolte, concesse a terzi senza il consenso degli interessati, impiegati nella promozione pubblicitaria e nel micro targeting attraverso i social media.
 
Ciò che le società tecnologiche paventano di più è qualsiasi tipo di regolamentazione. Tuttavia in futuro sarà importante poter vedere più chiaro sulla digital advertising supply chain, (la filiera pubblicitaria digitale) per capire quanto sia davvero equa e trasparente, tema in realtà per nulla tecnologico e sempre più rilevante anche per tutti i settori merceologici (ad esempio riguardo al tema centrale per il futuro della sostenibilità, sia in ambito ambientale sia alimentare, sia nell’industria tessile che della moda). Citando la Cairncross Review, il deputato Matt Hancock ha infatti parlato del ruolo e dell’impatto dei motori di ricerca digitali e delle società di social media.
Di fatto l’ambito dei social media si configura come la nuova piazza pubblica contemporanea. Una piazza, tuttavia, totalmente priva di regole e di trasparenza nel prevenire pratiche scorrette e dannose per le persone e per la società. Se un cittadino comincia a malmenare un altro e, soprattutto, se un gruppo si accanisce su un altro, nella piazza reale c’è sempre un rappresentante della legge che potrà intervenire a difesa dell’aggredito. Nella piazza virtuale nulla di tutto ciò.
Le informazioni false o scorrette, sia di natura commerciale, sia di natura politica, sono occultate, inviate a un micro target di persone sulla base di dati raccolti da potenti società di web marketing, senza che gli interessati ne siano a conoscenza. Tali dati vengono prelevati, offerti o semplicemente non preservati con la dovuta riservatezza o con il rispetto dei diritti delle persone alla non divulgazione di informazioni che le possono danneggiare.
Ma l’aspetto più inquietante è ancora un altro. Sempre di più i grandi temi del nostro tempo, temi di grande complessità e di difficile soluzione che riguardano il futuro di tutti - dalle migrazioni, alla salute pubblica, a temi di natura ambientale, scientifica, persino temi che riguardano il diritto all’incolumità (come si è visto recentemente a Genova) che richiedono competenze e capacità di articolazione espositiva - sono ostaggio di giocatori sconosciuti, lasciati a briglie sciolte sui social media. Il dibattito pubblico viene espropriato e dirottato da occulte campagne di marketing del consenso, fatte di slogan che riempiono lo spazio pubblico ad esclusione di ogni possibile dibattito informato. Un tweet, non importa quanto tendenzioso o scorretto, è in grado di condizionare le informazioni della giornata spopolando anche sugli altri media. “Il comportamento delle persone viene modificato e trasformato in seguito alle azioni delle società di social media”, si legge nel Rapporto e al momento attuale non c’è alcun tentativo di arrestare o influire su tali trasformazioni.
 
La Commissione lamenta soprattutto la mancanza di trasparenza da parte di Facebook e di altri social media riguardo l’utilizzo dei dati, le interferenze dall’estero e la pubblicità occulta ad personam. Edward Lucas, autore ed esperto di sicurezza, ha dichiarato che Facebook non dovrebbe essere nella posizione di poter “correggere i propri compiti”.
Tra gli slogan non ufficiali di Facebook vi è quello di “muoversi velocemente e rompere le cose”. Il tema della Disruption è diventato, infatti, un valore di “innovazione” che per Facebook ha avuto il significato di prendere rischi senza considerare le conseguenze. Un ex impiegato di Facebook, Sandy Parakilas, ha raccontato alla Commissione che quasi tutti gli obiettivi della società erano puntati sulla crescita in termini numerici di users dei servizi e sul conseguente incremento delle entrate.
 
Questa crescita senza regole sta continuando oggi con Free Basics, un servizio che FB fornisce nei Paesi in via di sviluppo alle persone con accesso gratuito a internet dal cellulare. Tale servizio porta con sé informazioni, news, notizie sulla salute, locali ecc.
Sulla qualità di questi contenuti forniti gratuitamente da Facebook non esiste alcun controllo. Un esempio: in Myanmar su una popolazione di 50 milioni di persone, 30 milioni accedono a internet attraverso FB con Free Basics, che al tempo stesso limita le informazioni disponibili in quanto rappresenta praticamente l’unica fonte di informazione. Le Nazioni Unite hanno accusato FB di avere avuto un ruolo determinante nella fomentazione di odio contro la minoranza musulmana Rohingya nello Stato di Rakhine. Tali politiche hanno avuto conseguenze molto gravi in quanto secondo il Rapporto “l’odio costruito ad arte su FB in gran parte disseminato attraverso account falsi e la conseguente pulizia etnica hanno causato la cancellazione di alcuni programmi di aiuto per queste popolazioni. L’attività di FB ha di fatto pregiudicato e compromesso gli aiuti internazionali a Myanmar”. Il Rapporto parla di collusione da parte di FB nella disseminazione di notizie false e giudica il loro prodotto pericoloso e profondamente antietico.
 
I Bot
Soprattutto si indaga sui Bot. Il bot (abbreviazione di robot) è, secondo Wikipedia, un programma che accede alla rete attraverso lo stesso tipo di canali utilizzati dagli utenti umani. Nei Paesi anglosassoni s’intende un programma autonomo che nei social network fa credere all’utente di comunicare con un’altra persona umana. I bot migliorano di anno in anno ed è sempre più difficile distinguere un bot da una persona umana. Tali programmi, seguendo i link ipertestuali, raccolgono informazioni sui contenuti delle pagine allo scopo di indicizzarle nel database principale del motore di ricerca.
Alcuni Bot sono creati per motivi politici, come i post automatici che aumentano i numeri dei follower che sostengono campagne politiche; oppure sono costruiti appositamente per diffondere disinformazione. Samantha Bradshaw dell'Internet Institute dell'Università di Oxford, descrive diversi tipi di bot che definisce simili a dei cyborg. “Gli account creati da bot sono più difficili da trovare per i ricercatori perché sembrano più genuini. Invece di automatizzare un gruppo di tweet in modo da far ritwittare diversi account 100 volte al giorno, i bot possono postare commenti e discutere con altri users, persone vere, sugli account.
I bot, secondo Mike Schroepfer CTO di Facebook, sono centinaia di migliaia; si tratta di tentativi continui in tutto il mondo di creare account falsi attraverso sistemi automatizzati.
Bot sono anche programmi di computer guidati da algoritmi per realizzare compiti precisi come data scraping, l’estrapolazione di dati attraverso tecniche o sistemi software. Web scraping in definitiva vuol dire la capacità di estrapolare delle informazioni presenti nella pagina per usarle in altri contesti. Per quanto riguarda i dati sensibili delle persone questo dovrebbe essere reso tecnicamente impossibile da chi tratta tali dati (le società di social media).
 
Il dominio di poche società tecnologiche quali FB, Twitter e Google ha permesso alle stesse di comportarsi come monopoli nella loro area specifica. Secondo dati forniti dal Corriere della Sera[5], le aziende high tech stanno diventando colossi dalle dimensioni irraggiungibili: Apple è la prima a oltrepassare i mille miliardi di dollari (un trilione) di capitalizzazione in Borsa, mentre Amazon negli ultimi trimestrali ha superato i 2 miliardi; Alphabet, la società che controlla Google, prevede di controllare il 31 percento della pubblicità globale nel 2018. Facebook, per ora in calo di popolarità, ha bruciato in Borsa circa 100 miliardi di dollari.
D’altra parte una demonizzazione delle società tecnologiche viste soltanto in quanto monopoli, non permetterebbe di apprezzare i benefici di un servizio condiviso in cui le persone possono comunicare liberamente. Tuttavia il modo spregiudicato in cui attualmente utilizzano enormi quantitativi di dati sui loro utilizzatori dovrà essere regolato.
Forse non è un caso se la richiesta di Facebook alle maggiori banche americane, tra le quali JP Morgan, Wells Fargo e Citigroup, di condividere le informazioni finanziarie sui propri clienti, compreso il controllo dei conti correnti, non sia stata ricevuta con entusiasmo. All’indomani della rivelazione, inoltre, anche Unicredit si è scagliata contro, criticando il comportamento anti etico di FB.[6]
Il danno al consumatore in questo tipo di business è più difficile da dimostrare che in altri settori, perché non riguarda soltanto il costo della merce. La protezione degli interessi del consumatore in questi casi non riguarda il prodotto acquistato, ma la protezione dei dati dell’utilizzatore del servizio.  Le società tecnologiche vantano il fatto di offrire innovazione gratuitamente, ma in realtà siamo noi ad essere trasformati in merce. La logica conclusione è che sarà necessario cambiare paradigma per quanto riguarda i criteri di giudizio, e dunque la valutazione del danno che non riguarderà più il prodotto, ma il suo utilizzatore.
 
Il parere della Commissione è che allo stesso modo in cui le finanze delle società sono oggetto di auditing o revisione contabile, parimenti gli aspetti non finanziari delle attività delle società tecnologiche, compresi i loro meccanismi di sicurezza e quegli algoritmi che servono per operare in modo responsabile, dovrebbero essere assoggettate allo stesso tipo di certificazione. Il Governo, secondo gli estensori del Rapporto (in questo caso il Governo del Regno Unito), dovrebbe formare un ente apposito con il potere di verificare queste società anche attraverso un “algorithmic auditing” o controllo algoritmico. Per una regolamentazione futura l’idea di adottare una legislazione internazionale, che effettui auditing sull’attività delle società di social media e di web marketing, potrebbe essere un’indicazione importante da perseguire anche per l’Unione Europea.
 
Inoltre il Rapporto suggerisce un nuovo codice etico globale da elaborare insieme alle società tecnologiche, in collaborazione con il governo britannico e altri governi, il mondo accademico e le parti interessate, compresa la World Summit on Information Society. In effetti un altro obiettivo futuro potrebbe riguardare l’adozione di un codice etico professionale riconosciuto a livello globale e sviluppato dalle stesse società digitali, in collaborazione con i governi.
 
Data targeting e le imputazioni nei confronti di Facebook, GSR e Cambridge Analytica
Il terzo capitolo del Rapporto riguarda proprio il tema del “data targeting”, con particolare attenzione alle imputazioni nei confronti di Facebook, GSR e Cambridge Analytica - ossia programmi di marketing in base ai dati ottenuti illegalmente da Facebook, ad insaputa delle persone - e alle attività di società quali Global Science Research (GSR), Cambridge Analytica, Aggregate IQ (AIQ) e SCL.
Il rapporto prende in esame soprattutto i casi di microtargeting da parte di sconosciuti, presumibilmente mandanti o clienti delle società di webmarketing con vedute iperpartigiane in ambito politico (tutti appartenenti all’estrema destra o la cosiddetta ‘Alt right’), che giocano in maniera occulta sulle paure e sui pregiudizi delle persone. Le prime notizie su questo tipo di attività sono state rivelate da un articolo del 2015 di Harry Davies sul Guardian[7] e faceva riferimento ad una società all’epoca poco conosciuta, la Cambridge Analytica. Le rivelazioni emerse poi nel marzo del 2018 di Carole Cadwalladr e del whistle blower ed ex impiegato di SCL Group e Cambridge Analytica, Christopher Wylie, hanno riguardato sia gli Stati Uniti che il Regno Unito.
 
La prima cosa che colpisce chi legge il Rapporto sono i legami tra le proprietà e i nomi, appartenenti ad una fitta rete dove le stesse persone appaiono in ruoli diversi, sia come finanziatori che come direttori di tali società di web marketing in diverse parti del mondo. La società Cambridge Analytica è stata fondata nel 2012 con il sostegno del miliardario e sponsor di Donald Trump, Robert Mercer, che ne è diventato il maggiore azionista. E’ stato anche il più grande donatore del PAC (Political Action Committee), comitato che ha sostenuto le campagne presidenziali di Ted Cruz e di Donald Trump nelle elezioni del 2016. Christopher Wylie ha dichiarato che Mercer, grazie al sostegno economico che ha fornito a Cambridge Analytica, ha potuto sostenere le campagne politiche senza apparire direttamente, aggirando in tal modo le leggi elettorali che pongono un tetto alle spese. “Robert Mercer può spendere $15 milioni per creare qualcosa e poi fatturare soltanto $50,000. Sarebbe stato fisicamente impossibile ottenere lo stesso valore e livello di servizio per quella cifra in qualsiasi altro modo”.
Cambridge Analytica a sua volta nasce da SCL, un raggruppamento di società di consulenza che ha lavorato nell’ambito delle campagne elettorali in tutto il mondo, utilizzando tecniche di comunicazione specializzate, sviluppate precedentemente dai militari per combattere organizzazioni terroristiche, per contrastare l’intelligenza nemica e per fornire sostegno da terra nei teatri di guerra. La mission di Cambridge Analytica, invece, era di focalizzarsi sul data targeting e sulle campagne di comunicazione per i candidati del Partito Repubblicano selezionati con cura negli Stati Uniti.
A tal proposito ricordiamo che Steven Bannon è stato funzionario e stratega in capo della Casa Bianca all’inizio della presidenza di Donald Trump, dopo essere stato manager della campagna elettorale di Trump. Era anche presidente esecutivo di Breitbart News, un sito che egli stesso ha descritto come “la piattaforma della Alt right”, la destra estrema. E’ stato anche vice presidente di Cambridge Analytica.
 
Altra società di web marketing indagata è la Global Science Research (GSR), fondata dal professor Aleksandr Kogan dell’Università di Cambridge nella primavera del 2014. Kogan ha sviluppato una App, conosciuta come la GSR App, che raccoglieva dati dagli utilizzatori a livello individuale. Nello stesso periodo era in contatto con SCL Elections e Cambridge Analytica per testare l’App e per capire se fosse utilizzabile nell’identificazione di soggetti per campagne digitali. L’App ha avuto successo perché le persone potevano guadagnare denaro completando un sondaggio online. Potevano scaricare l’App, fornendo così informazioni sull’utilizzatore e sui suoi amici, venivano pagate da SCL Elections 3 o 4 dollari ciascuno e in seguito ottenevano previsioni sulla personalità delle persone. Più tardi Kogan revisionò l’App per trasformarla in un gioco chiamato “This is your digital life”.
Secondo un accordo tra Kogan e SCL (firmato anche da Alexander Nix, Amministratore Delegato di Cambridge Analytica) si sono analizzati i dati raccolti, impiegando tecniche psicometriche basate tra l’altro sui “like” di Facebook. Si è appurato, inoltre che l’obiettivo del “data scraping” non era di comprendere in anticipo i meccanismi di voto degli elettori, ma di sostenere alcune campagne politiche, cosa ben diversa. CA è stata attiva in 11 Stati nelle elezioni del 2014 (Arkansas, Colorado, Florida, Iowa, Louisiana, Nevada, New Hampshire, North Carolina, Oregon, South Carolina e West Virginia).
Christopher Wylie ha inoltre dichiarato che tali dati forniti da GSR a CA sono stati alla base del dataset della società che ha raccolto informazioni su circa 87 milioni di users, oltre un milione dei quali residenti nel Regno Unito, dunque non soltanto negli Stati Uniti. Tale condotta appare in violazione dei codici etici di FB, che Kogan ha ammesso di non aver mai osservato in quanto non venivano applicati.
 
Come le società di web marketing hanno influenzato gli elettori in modo occulto
Il Rapporto racconta come l’analisi dei dati raccolti, fondata sulla schedatura psicologica dell’audience (psychological profiling) è il fulcro del lavoro svolto da Cambridge Analytica, il cui intento era quello di “presentare fatti incorniciati da un’emozione”. [8] Come ha dichiarato Alexander Nix, per poter combinare il giusto tipo di messaggio con l’elettore prescelto, CA aveva bisogno di informazioni sugli elettori e sulle loro preferenze, a partire dai consumi fino a quelle sessuali.
CA ha utilizzato il modello di studio della personalità basato sulla teoria dei Big Five, comunemente applicato nella psicologia accademica, ossia le cinque caratteristiche della personalità: estroversione-introversione; gradevolezza-sgradevolezza; coscienziosità-negligenza; nevroticismo-stabilità emotiva; apertura-chiusura all’esperienza. L’utilizzo di tale modello dovrebbe essere finalizzato a scopi esclusivamente educativi o di intrattenimento, e non per identificare temi sensibili e per studiare come presentarli alle persone.
Nella sua presentazione al Concordia Annual Summit del 2016, intitolato “Il Potere di Big Data e la Psicografica”, Nix ha spiegato come questo approccio possa essere utile per “convincere elettori americani, ad esempio, dell’importanza del Second Amendment”, (l’articolo della Costituzione USA che garantisce agli americani il diritto di tenere e portare le armi). Con questo esempio, Nix ha dimostrato come si possa identificare e “giocare sulle paure di qualcuno che potrà essere convinto della necessità del diritto di tenere un’arma per proteggere la propria casa dagli intrusi”. Alexander Nix ha, tuttavia, negato di aver utilizzato dati Facebook per identificare i soggetti da sottoporre a questo studio.
Attraverso una serie di interviste sulle tecniche di indagine utilizzate sui singoli elettori, emerge, invece, che le società sopra citate collaboravano con i social media alla raccolta di dati, al fine di carpire informazioni sulla personalità e sui comportamenti delle persone, dai quali costruire modelli generati al computer.
Nell’agosto 2014, Kogan ha lavorato con SCL per fornire dati su elettori individuali negli USA e per sostenere candidati promossi dalla John Bolton Super Pac nelle elezioni mid term a novembre dello stesso anno. Un’altra campagna di SCL, firmata con l’American Conservative Advocacy, ha utilizzato gli stessi metodi. In entrambi i casi la SCL ha dichiarato di aver ottenuto oltre il 30 percento di aumento nel risultato, contrariamente alle previsioni, per i gruppi che sono stati oggetto di microtargeting.
 
Facebook
Un ex impiegato di Facebook, Sandy Parakilas (attivo per 16 mesi tra il 2011 e il 2012), ha dichiarato che una volta che i dati passavano da FB allo sviluppatore, si perdeva il controllo di quei dati. Non esisteva audit, quindi, e durante i 16 mesi di lavoro Parakilas non ricorda un singolo caso di audit sullo stoccaggio dei dati e dei loro derivati, che perciò potrebbero essere copiati molte volte.
Tristan Harris, del Center for Humane Technology, ha riferito che la piattaforma di FB era strutturata in modo da favorire esattamente questo: permettere a terzi di ottenere accesso ai dati delle persone, dei loro amici e contatti, “utilizzandoli in modi creativi per costruire nuove App sociali per conto di Facebook”.
Nel marzo 2017 Facebook ha vietato l’utilizzo dei dati degli users da parte di agenzie di controllo governativi, in seguito a pressioni da gruppi di difesa delle libertà civili, preoccupati per il targeting di dissidenti e contestatori. Eppure non più tardi del 21 luglio scorso il Wall Street Journal ha rivelato che un cliente di Facebook, Crimson Hexagon ha “contratti per analizzare dati Facebook per conto di clienti compreso una non profit russa con legami con il Kremlino e molte agenzie governative”. 
Secondo il sito web della stessa società, Crimson Hexagon lavora con un dataset che comprende oltre mille miliardi di post presi da Facebook, Instagram, Twitter e altri. Vanta la capacità di analizzare oltre 160milioni di fotografie al giorno.
FB sta ora cercando di capire se i contratti che tale azienda detiene con il governo degli Stati Uniti e con un’organizzazione non profit russa, legata al Kremlino, abbia violato il codice etico FB. Infatti se Crimson Hexagon dovesse condividere i propri dati con delle agenzie governative, potrebbe rivelare informazioni sensibili su vasti settori della popolazione da utilizzare durante le campagne politiche.
 
I social media e la politica
E’ molto importante comprendere che il vero obiettivo alla base di questa lunga e complessa ricerca della verità da parte del Parlamento britannico, non è quello di andare verso un controllo da parte di chi governa. Il Governo, il Parlamento e tutte le istituzioni esistono in democrazia per difendere il diritto del cittadino, chiunque sia, alla propria libertà individuale, di essere correttamente informato e di non essere oggetto di controlli occulti o di violenze.
Oltre a Crimson Hexagon, altre società di web marketing quali la Aggregate IQ (AIQ), hanno potuto raschiare dati ad esempio da Linkedin, utilizzando app e modelli di analisi comportamentale simili e registrando informazioni sul luogo di lavoro, titoli, contatti ecc.
 
E’ certamente importante riconoscere il ruolo positivo dei social media nell’incoraggiare un dibattito politico aperto a tutti. Tuttavia la capacità delle società di social media di prendere di mira gli individui, inviando loro informazioni in privato, è una novità assoluta assai preoccupante. Si tratta di problemi inediti per quanto riguarda la regolamentazione delle campagne elettorali digitali dove manca del tutto un controllo sulla qualità e veridicità dei contenuti e dei costi della loro disseminazione. In passato in Europa le regole elettorali, i contenuti e i costi di una campagna, erano sottoposti a scrutinio pubblico, dovevano essere trasparenti e rispettare alcuni valori e diritti fondamentali garantiti anche dagli osservatori ONU.
Le potenzialità dei social media sono state comprese dagli imprenditori e dai campaigners molto più velocemente che dai legislatori. Questo ha permesso ad alcuni candidati di utilizzare i social media assicurandosi la vittoria in un contesto privo di una cornice regolatrice o di leggi adeguate ai tempi. Società quali SCL e Cambridge Analytica, che hanno potuto utilizzare i social media per raggiungere gli elettori individualmente, possono avere avuto un impatto molto più penetrante rispetto a campagne pubblicitarie convenzionali che non sono mirate ai singoli.
 
Un’altra società, la uCampaign, possiede una App per cellulare che impiega le strategie del gioco (gamification strategies), per ingaggiare clienti e consumatori applicate alle campagne politiche. Chi la utilizza potrà vincere punti inviando messaggi ai propri contatti e amici. Questa App è stata utilizzata nella campagna presidenziale di Donald Trump e dalla campagna Vote Leave durante il referendum per la Brexit. Il developer di questo geniale strumento, Vladyslav Seryakov, è un veterano militare dell’Ukraina dell’Est che si è formato in due università sovietiche alla fine degli anni ‘80. Il principale investitore in uCampaign è un magnate americano degli hedge fund, Sean Fieler, molto vicino al miliardario sostenitore di SCL e Cambridge Analytica, Robert Mercer.
Secondo un articolo pubblicato da Business Insider il 7 novembre 2016, “se gli utilizzatori scaricano l’App e accettano di condividere il loro indirizzario, compresi numeri di telefono e email, l’App spara immediatamente i dati a un venditore terzo (third party vendor), che cerca combinazioni in altri elenchi di elettori che possono fornire informazioni su cosa motiva quello specifico elettore”. Thomas Peters, che ha costruito l’App per Trump, ha affermato che l’App “sta diventando assolutamente granulare (virale)” e potrà inviare messaggi diversi già testati ai contatti di chi lo utilizza, fondati su informazioni esistenti.[9]
 
L’ultimo capitolo del Rapporto riguarda l’utilizzo allargato dei social media nelle campagne elettorali in diversi Paesi del mondo.
Per esempio per quanto riguarda il Referendum sull’Unione Europea nel Regno Unito del 23 giugno 2016, la Commissione Elettorale, attraverso le sue conclusioni pubblicate il 17 luglio 2018, dimostra che la legge elettorale non è stata rispettata e che diversi gruppi pro Brexit hanno, in realtà, lavorato insieme. Sia la campagna Vote Leave, che BeLeave, Veterans for Britain e il DUP, hanno tutti lavorato con SCL e Cambridge Analytica soprattutto nel periodo immediatamente precedente il Referendum.
Arron Banks, uomo d’affari a capo di importanti società di assicurazione (detentori di dati sensibili sui loro clienti) e uno dei personaggi più discussi della Brexit, ha spiegato candidamente la tecnica utilizzata. “La mia esperienza dei social media è che assomigliano a una tempesta di fuoco, proprio come un incendio boschivo, che fa divampare tutto ciò che metti nella sua strada. La nostra bravura è stata quella di creare tanti incendi nel bosco e metterci davanti un gigantesco ventilatore. Il tema dell’immigrazione ha fatto divampare incendi selvaggi”. [10]
 
I legami tra le diverse società di web analitica e marketing
Come afferma il Rapporto, tra le preoccupazioni maggiori che sottendono il meticoloso lavoro intrapreso, vi è quello di scoprire quali e di che natura fossero i legami tra le aziende di questa comunità apparentemente piccola, coinvolta nel microtargeting di tipo politico e l’utilizzo di dati raccolti. Durante l’elaborazione del Rapporto, tali preoccupazioni si sono intensificate a causa dei legami emersi tra alcune società e organizzazioni coinvolte con l’esercito, la difesa, l’intelligence e il mondo della sicurezza.
 
Il rapporto ha speso molte energie per chiarire la complessa rete di rapporti tra le società di analisi e marketing sul web. Un primo gruppo è costituito da società del gruppo SCL (Strategic Communications Laboratories) il cui fondatore Nigel Oakes insieme a Alexander Nix (CA) hanno avuto ruoli di primo piano, (come abbiamo già visto) insieme a un grande turnover di azionisti. Molta confusione è stata creata dall’uso dello stesso nome SCL che indica in realtà la defence consultancy (SCL Group Limited) gestita da Oakes, e la political consultancy, SCL Elections Limited incorporato da Nix nel 2012.
Christopher Wylie, l’ex impiegato di Cambridge Analytica, ha riferito alla Commissione (marzo 2018) che tutti coloro che lavoravano per Cambridge Analytica erano effettivamente impiegati di SCL. Ha dichiarato: “Quando ho cominciato nel giugno 2013, Cambridge Analytica non esisteva ancora. E’ importante che si capisca che Cambridge Analytica è piuttosto un concetto o un brand in quanto non ha impiegati. E’ tutto SCL, è semplicemente la “front facing company” (una facciata) per gli Stati Uniti”.
Tanto meno Nix ha fatto distinzioni tra SCL Elections e SCL Group Limited nelle sue testimonianze. In tutto il periodo dell’inchiesta, Cambridge Analytica era posseduta al 19 percento all’interno del gruppo. Gli altri azionisti non sono emersi, nonostante due sessioni in cui Nix è stato interrogato a fondo dalla Commissione Parlamentare.
In agosto 2017 una nuova holding, Emerdata Ltd., fu incorporata allo stesso indirizzo di SCL Group a Canary Wharf a Londra. Di nuovo si assiste a un girotondo di nomi: Alexander Nix è stato nominato direttore di Emerdata nel gennaio 2018; tra gli altri dirigenti vi sono Julian Wheatland, ex Chairman di SCL, che nell’aprile del 2018 diventa Amministratore Delegato di Cambridge Analytica; presidente di Emerdata è l’uomo d’affari Erik Prince, che ha fondato Blackwater USA, gruppo militare privato. Tutte le sussidiarie di Emerdata sono finite in amministrazione controllata in aprile 2018, dopo lo scandalo di Cambridge Analytica. Il Rapporto afferma che da allora non è chiaro quali attività abbiano portato avanti e accusa i testimoni di reticenza, tra cui lo stesso Nix, ritenendolo responsabile per non aver voluto fare chiarezza su questo capitolo oscuro delle attività di società di web marketing. L’inchiesta è ancora in corso.
 
Il ruolo delle società di social media nella disseminazione della disinformazione russa
Le investigazioni del Congresso degli Stati Uniti riguardo le elezioni presidenziali del 2016 hanno appurato che fonti russe hanno inviato oltre 2 mila pubblicità su Facebook e Instagram e promosso 120 pagine in una campagna che ha raggiunto 126 milioni di cittadini americani. Ulteriori testimonianze rilasciate alla Commissione britannica hanno rivelato che agenzie russe hanno utilizzato tecniche sofisticate di targeting e creato audience customizzate per ampliare voci estremiste, soprattutto quelle su temi sensibili quali rapporti tra le etnie e immigrazione.
 
Le prove accertano il ruolo della Russia nel sostegno di organizzazioni che creano e disseminano informazioni e contenuti iperpartigiani con lo scopo di destabilizzare e distruggere la fiducia del pubblico e disseminare disinformazione per destabilizzare gli stati democratici. Tale attività è una minaccia seria alle democrazie.
Secondo la ricerca compiuta dall’agenzia di comunicazione89up, sia Russia Today (RT) sia Sputnik hanno pubblicato 261 articoli sul Referendum con sentimento anti EU tra il 1 gennaio 2016 e il 23 giugno 2016. Una ricerca condivisa delle Università di Swansea e Berkeley ha identificato 156,252 account russi che hanno twittato sulla Brexit e che hanno postato oltre 45.000 messaggi pro Brexit nelle ultime 48 ore della campagna.[11]
Per quanto riguarda interferenze attraverso i social media nelle elezioni da parte della Russia un’inchiesta dell’Università di Oxford, pubblicata a luglio 2018, ha trovato casi strutturati di manipolazione da parte di social media nelle campagne elettorali in 48 Paesi rispetto ai 28 dell’anno scorso.[12]
 
L’obiettivo della disinformazione e della propaganda da parte della Russia è, secondo Bill Browder, CEO di Hermitage Capital Management - di piantare un seme di dubbio nella mente di tutti. Se riescono a creare quella confusione hanno compiuto il loro obiettivo. Il potere di confondere e di distorcere la verità comprende ovviamente quello di mirare attacchi sulle élites e quello di esercitare un potere più ampio sull’opinione pubblica.[13] Per quanto riguarda l’Italia, le tecniche di isolamento e di denigrazione di intellettuali, giornalisti e uomini di legge che denunciano reati e disinformazione non sono certo una novità. 
 
L’influenza di SCL nelle elezioni in altri Paesi
Tra le indagini che hanno fatto più scalpore nel Regno Unito vi è quella di Channel 4, trasmessa a marzo 2018, in cui Mark Turnbull, ex Managing Director di SCL Elections e Alexander Nix, allora CEO di CA, illustravano l’utilizzo della disinformazione vantando le potenzialità della corruzione, strategie di adescamento e persino l’utilizzo di adescamenti a sfondo sessuale per screditare politici e influenzare i risultati delle elezioni in diversi Paesi. Turnbull, in particolare, ha parlato delle potenzialità di manipolazione da parte di società di social media per distribuire materiali negativi su oppositori politici, senza essere identificate, e di infiltrare le community online.[14]
La Commissione riporta, inoltre, di aver avuto accesso a materiali coperti da segreto che riguardano interferenze di SCL Group a partire dal 27 maggio 2015, in relazione a una campagna anti-Kirchner in Argentina. Si tratta della sintesi di una riunione di management di SCL Group, in cui si parla di una guerra di informazioni e del ricorso ad ufficiali in pensione da parte di agenzie di sicurezza e di intelligence in Israele, Usa, UK, Spagna e Russia a sostegno della campagna anti Kirchner, con la creazione di account falsi di Facebook e Twitter.
 
Più vicino a noi, a Malta, parte dell’Unione Europea, l’indefatigabile SCL ha di nuovo giocato un ruolo importante. Il Rapporto riferisce dello stretto rapporto tra SCL Elections e Christian Kalin, presidente di Henley e Partners, agenzia incaricata in esclusiva di vendere la cittadinanza maltese in cambio di investimenti.
Qualcuno forse ricorderà che Daphne Caruana Galizia, giornalista investigativa maltese, è stata assassinata nell’ottobre del 2017 da un’autobomba, probabilmente per un’indagine estremamente critica nei confronti di tale politica. Come ha scritto nel suo blog: “Il danno per Malta a causa della vendita della cittadinanza è inquantificabile. Malta non è St. Kitts & Nevis. E’ intrecciata con il resto dell’Unione Europea e ha un’economia europea. (…). E il governo maltese è l’unico in Europa che ha un contratto con loro (Henley & Partners).”[15]
Riguardo le attività di SCL e altre società associate in Europa e altrove nel mondo, l’evidenza raccolta dalla Commissione conferma in pieno le preoccupazioni iniziali riguardo attività pericolose e anti etiche. Come scrive la Commissione “abbiamo ricevuto testimonianze inquietanti di cui abbiamo pubblicato soltanto una parte, riguardo attività intraprese da società in collaborazione con SCL in varie campagne politiche dal 2010 in poi, compreso l’hackeraggio, la disinformazione, la cancellazione di voti, l’utilizzo di servizi di Black Cube, un’agenzia di intelligence israeliana, ecc.”.
Secondo il Rapporto, tali attività di SCL tese a minare la democrazia in molti Paesi, attraverso la manipolazione attiva di fatti e eventi, hanno accompagnato e affiancato il lavoro realizzato da parte di SCL Group per conto del Governo Britannico, il Governo statunitense ed altri governi alleati.
Rivelazioni inquietanti anche per ciò che non dicono. La Commissione, infatti, mette in guardia gli esecutivi, incalzandoli ad agire: “non è nostro compito, tanto meno abbiamo il mandato di indagare tali imputazioni, ma chiediamo con urgenza che il Governo (britannico) accerti la veridicità di tali asserzioni attraverso le indagini della National Crime Agency”.
 
Conclusioni
I suggerimenti legislativi e le raccomandazioni della Commissione accompagnano ogni capitolo del Rapporto qui sopra sintetizzati per quelle parti che potrebbero riguardare anche l’Italia.
La Data Protection Act, in vigore da quest’anno in Europa, non è soltanto una scocciatura per chi deve operare come è stato percepito da alcuni. L’Atto dà più poteri alle autorità per guardare dietro le quinte nel Far West di Internet. Oltre al diritto di chiedere ulteriori dati e informazioni, i poteri incaricati della tutela dei dati e della libertà di informazione in ogni Paese devono poter disporre di personale che ha conoscenze tecniche allo stesso livello, se non superiori, delle organizzazioni sotto scrutinio. Equipe di ingegneri in grado non soltanto di analizzare tecnologie odierne, ma di prevedere quelle future.
Il Rapporto chiede più poteri per tale Autorità e ipotizza possibili fonti di finanziamento che potrebbero provenire da imposte sulle stesse società tecnologiche che operano nel Paese.
Tra le altre raccomandazioni:
  • l’obbligo per le piattaforme digitali di social media di accettare la responsabilità per il modo in cui le loro piattaforme vengono utilizzate soprattutto per campagne politiche illegali da parte di giurisdizioni estranee al Paese;
  • una revisione ed aggiornamento della legge elettorale non ancora entrata nell’era digitale. Le campagne digitali dovranno rispondere a dei requisiti dall’impronta digitale facilmente accessibile;
  • una trasparenza ancora inedita sui responsabili legali di tali campagne e su coloro che effettivamente finanziano campagne elettorali digitali, con quali cifre e su quali piattaforme, in modo da rendere immediatamente chiaro chi sponsorizza e che cosa;
  • le ammende comminate per il mancato rispetto delle regole non devono essere in cifre fisse, ma in percentuale in base ai guadagni delle società;
  • la Commissione elettorale di Garanzia dovrebbe stabilire un codice etico per la pubblicità attraverso i social media durante i periodi elettorali. Sarà necessario un dibattito approfondito sull’opportunità di limitare l’uso dei social media durante tali periodi.
 
Il tema di una regolamentazione delle informazioni online non può essere vissuto dai Paesi dell’Unione Europea con la rassegnazione che ha caratterizzato fin qui le prime fasi di sviluppo dei Social Media. 
La riunione Inter Parlamentare dell’Atlantic Council del 16 luglio scorso afferma la necessità che i Governi, le società di social media e la società civile alzino il livello di consapevolezza della sfida e dei pericoli di interferenze “iper partigiane”.[16]
La costruzione di una resilienza del pubblico nei confronti di campagne di disinformazione e manipolazione deve cominciare con un’attenzione per un’informazione corretta e trasparente. Richiederà anche uno sforzo educativo nei confronti del pubblico sui valori, i criteri e le modalità di una corretta informazione.
Si richiede inoltre una legislazione non partisan per la costruzione di sistemi elettorali non manipolabili, resistenti ai tentativi di interferenze da parte di sconosciuti.
Si invita le società tecnologiche ad essere le prime ad allocare fondi per costruire resilienza nel contrasto di campagne illecite e nell’empowerment della società civile e dei gruppi autocostituiti di cittadini nella difesa della trasparenza, e nella promozione di una nuova accountability del web, riducendo la vulnerabilità dei dati delle piattaforme social.
Si sostiene infine una maggiore collaborazione transatlantica su questi temi, di condivisione tra governi nazionali, NATO, e l’Unione Europea su rischi, vulnerabilità e buone pratiche nel contrasto delle interferenze.
Un migliore coordinamento tra parlamentari bi partisan e un dibattito aperto e continuativo con i social media, società tecnologiche e società civile potrà rafforzare le iniziative dei governi e delle istituzioni internazionali.
Le raccomandazioni dell’Atlantic Council sono state firmate per l’Italia dal deputato alla Camera, Emilio Carelli.
 

Anna Detheridge Giornalista del Sole 24 Ore tra il 1987 e il 2003, autrice tra l’altro del saggio Scultori della Speranza, (Einaudi, PBE, 2012). Ha insegnato in diversi atenei compreso il Politecnico di Milano, Università Bocconi e S.A.I.C. di Chicago. Nel 2001 ha fondato l’associazione Connecting Cultures con sede a Milano, agenzia di ricerca e di formazione interdisciplinare nell’ambito delle arti visive, la sostenibilità e i diritti umani.
 

Note dell’autore
Il documento “Fake news e Disinformazione: definizioni, tecniche, soluzioni” di Anna Detheridge è pubblicato sotto licenza Creative Commons CC-BY-SA ed è a disposizione di giornalisti, esperti, ricercatori e cittadini interessati ad approfondire l’argomento.
Il testo è in parte una sintesi e traduzione del primo Rapporto “Disinformation and Fake News: Interim Report” del Parlamento del Regno Unito che potrà essere scaricato al seguente indirizzo:
https://publications.parliament.uk/pa/cm201719/cmselect/cmcumeds/363/36303.htm
Fake news e Disinformazione, nella sua versione integrale, disponibile e scaricabile dal sito www.connectingcultures.it 
Accogliamo con interesse ogni contributo al dibattito. Pubblicheremo a discrezione della redazione qualsiasi contributo non partisan di approfondimento da parte di lettori, esperti, cittadini.  Chiediamo a chi ci scrive la massima trasparenza e dunque di accompagnare un eventuale contributo con nome, cognome e breve curriculum.

 

[1]  Fiorenza Sarzanini, Le denunce in Procura per “alto tradimento”. La mossa parallela al web, Corriere della Sera, domenica 5 agosto 2018, p. 5.
[2] Giuseppe Chiellino e Alberto Magnani, L’Europa tra populismi e sovranismi. Lo spauracchio si chiama Bannon, Il Sole 24 Ore, domenica 5 agosto, p. 5.
[3] Gustavo Ghidini e Daniele Manca, Si accende il faro americano sui titani del web, sezione Economia, lunedì 13 agosto 2018.
[4] Disinformation and ‘fake news’: Interim Report-Digital,Culture, Media and Sport Committee – House of Commons. https://publications.parliament.uk/pa/cm201719/cmselect/cmcumeds/363/36303.htm.
 I virgolettati senza note dentro il testo sono attribuibili a testimonianze rese direttamente alla Commissione, indicizzate come documenti acquisiti, consultabili su richiesta.
[5] Gustavo Ghidini e Daniele Manca, Si accende il faro americano sui titani del web, Corriere della Sera, sezione Economia, lunedì 13 agosto 2018.
[6] Greta Sclaunich, Facebook meno amici in Banca, Corriere della Sera, sezione Economia, lunedì 13 agosto 2018.
[7] Harry Davies, The Guardian, 11 dicembre 2015. Nell’articolo Paul Olivier Dehaye riferisce di come Ted Cruz abbia usato un’azienda che ha raccolto dati da milioni di ignari utilizzatori di Facebook.
[8] Testimonianza di Alexander Nix resa direttamente alla Commissione.
[9] Business Insider, 7 novembre 2016. La campagna di Donald Trump ha utilizzato la stessa App impiegata dalla campagna ‘Leave’ a favore della Brexit , per spronare la presenza alle urne.
[10] Testimonianza resa alla Commissione indicizzata all’interno del documento
[11] Russian twitter Accounts promoted Brexit ahead of EU referendum, Reuters, 15 novembre 2017.
[12] Challenging Truth and Trust: a global inventory of organised social media manipulation, Samantha Bradshaw, Philip N. Howard, Computational Propaganda Research Project, Oxford Internet Institute, July 2018.
[13] Testimonianza di Edward Lucas, tra gli estensori del Rapporto.
[14] Exposed: Undercover secrets of Trump’s data firm, Channel 4 News, marzo 2018.
[15] No wonder Henley & Partners have broken out into a cold sweat. Running Commentary: Daphne Caruana Galizia’s Notebook, 12 maggio 2017.
[16] Atlantic Council Inter Parliamentary meeting 16 July 2018, Forum di confronto e negoziazione temi urgenti di politica economica e cambiamenti politici