INFORMAZIONE E DIS-INFORMAZIONE: IL FUTURO (L’oscurità è arrivata n.3)

di SIMONETTA BISI 

Nel nostro mondo sempre più dipendente dall’informazione, anzi dall’eccesso d’informazione, il nostro modo di dare un senso a ciò che percepiamo rischia di indebolirsi.

Ci si affida al web, che è una fonte inesauribile di documenti e notizie, ma non ha coscienza: è la tribalizzazione del digitale (e la digitalizzazione delle tribù). Il web è governato da algoritmi che altro non sono che prodotti dell’uomo in grado di standardizzare alcune informazioni, il più delle volte per discriminare offerte pubblicitarie secondo gli interessi rivelati proprio nel nostro girovagare nel web.

È questo anche un effetto delle cosiddette “tecniche di profilazione”: tecniche che consentono, violando la nostra privacy, di proporci acquisti che rispondono ai nostri desideri. È l’algoritmo di Amazon, ad esempio, che ci suggerisce libri simili a quelli che stiamo comprando, oppure su Facebook ci indicano cosa abbiano acquistato o a quali eventi partecipano i nostri amici, e ci propone post di chi la pensa come noi. Così circola nel nostro mondo social un solo tipo di informazioni, si alimentano le stesse opinioni, ci si chiude nel gruppo e si coltiva l’illusione che un centinaio di “like” confermino le nostre idee, facendoci sentire nel giusto, e fra tanti. Le informazioni discordanti rispetto alle proprie convinzioni vengono ignorate, mentre si accettano quelle che suonano conformi, anche se chiaramente false. Si dilata così un piccolo mondo settario che funziona come una camera dell’eco, dove ogni clic insensato ci trascina ulteriormente nel vuoto, nella truffa, ma clic facciamo comunque, attirati dal fascino del tempo passato (perso?) davanti allo schermo.

folla-di-indifferente-humans-pawns-archivio-fotografico__k12372751

Una ricerca pubblicata da Scientific Reports nel 2016[1] evidenzia questo aspetto, questo nuovo conformismo che fa accettare tutto ciò che proviene dal nostro piccolo mondo anche se dichiaratamente falso. Da qui, di conseguenza, il fenomeno della post- truth, che Oxford Dictionaries ha scelto come parola dell’anno 2016.

Non solo. Anche chi cerca di esporre opinioni contrarie a quelle della maggioranza, chi sta sui social network per denunciare situazioni allarmanti, per esprimersi contro esponenti dei governi e contro le decisioni dei parlamenti (dove questo è ancora possibile), si pongono come spettatori, non come attori. Si ha sempre da dire qualcosa, poi tutto si ferma lì, in quelle 200 parole di un tweet o di un post. Gli indignati che sui social denunciano lo spettacolo triste delle vittime sui barconi, o i tanti pronti a scagliarsi contro i corrotti, pensano di avere così svolto il loro ruolo di contrasto, di fare così opposizione.

Colpisce la genericità dei commenti dove anche la critica si fa slogan: ritweettati, condivisi, rimangono qualche attimo sullo schermo che rapidamente si riaccende su un’altra notizia, su un altro post. Così si cattura l’attenzione del navigante che vuole rispondere immediatamente, e lo fa quasi fosse un obbligo, operando una scelta tra due opinioni contrapposte, cristallizzato in due secche alternative, privato della lucidità necessaria per esprimere il dubbio, per articolare un discorso, per suggerire possibili soluzioni a quel fatto che così frettolosamente si condivide, o non si condivide.

Il polemista sui social non mette se stesso in gioco. Non è un protagonista, aspetta che qualcun altro risolva i problemi.

Inoltre, e non è di poco conto, il sistema Internet, apparentemente gratuito, in realtà è una enorme fonte di guadagno per le imprese che operano online. Da Google pare siano stati sottratti i profili di migliaia di persone, Zuckerberg, il fondatore di Facebook, è stato accusato di avere violato i termini sulla protezione dei dati personali (lo scandalo Cambridge Analytica), per gli hacker “rubare” profili è una fonte di reddito, un vero e proprio commercio: profili un tanto al kilo… li vendono nel cosiddetto deep web.

Noi stessi agevoliamo la diffusione del nostro profilo, delle nostre preferenze, poco attenti alla privacy.  Come ha detto Michele Ainis, costituzionalista e membro dell’Antitrust: “ogni contatto, ogni ricerca, ogni giudizio che ti scappa via su un social network si trasforma in merce, e la merce sei tu stesso, sono i frammenti della tua identità”[2]

Certo, a tutti è evidente che dietro l’apparente gratuità di Internet c’è un florido business: pagine piene di banner, video che iniziano da soli, pubblicità di prodotti che abbiamo comprato online e che si ripropongono su qualsiasi pagina stiamo leggendo… Il tracciamento dell’utenza si fa sempre più mirato e insistente. Per minimizzare questa invadenza si sono dovuti elaborare programmi che limitano box e video pubblicitari oltre la soglia che genererebbe disaffezione nei naviganti.  Per la pubblicità online è decisamente più semplice, grazie ai dati disponibili, raggiungere una fascia specifica di target, avendo a disposizione numerosi criteri che permettono strategie di marketing anche molto complesse e mirate.

La tecnologia procede, e sta disegnando il futuro della comunicazione online per la propaganda sia del marketing commerciale, sia della politica.

Cosa offrono i sempre più incredibili sistemi sviluppati dagli ingegneri del web? Quali le novità nella comunicazione, quali i progressi dell’AI (Intelligenza Artificiale)? E – soprattutto – quali i rischi di manipolazione e quali gli strumenti per difendersi?

Partiamo da una considerazione. Noi utenti sempre più per ogni cosa usiamo lo smartphone o il computer: osserviamo lo schermo del nostro cellulare e osserviamo pronte in fila le applicazioni che ci consentono di avere a portata di dito le informazioni desiderate. Anche le nostre giornate sono scandite dalle App: scegliamo il ristorante, prenotiamo alberghi, voli, treni… E siccome le offerte sono molteplici, su quali basi scegliamo? E come le aziende veicolano i loro prodotti o servizi sul web? Per mezzo dei Buzz, parola che indica il brusio, cioè l’insieme delle voci di chi quel prodotto, quel ristorante ha provato.

buzz

Il Buzz, secondo la definizione del Dictionary Cambridge 2017, è una tecnica di marketing basata sul passaparola in Internet (specialmente attraverso i blog) al fine di raggiungere nel minor tempo possibile un gruppo di utenti interessato al tema, al prodotto o al servizio che si intende diffondere. Una tecnica di promozione che si aggiunge a quelle già in uso e che sempre più sarà utilizzata. Uno strumento tecnologico lecito e utile, purché chi si pronuncia non sia pagato, ad esempio, per esprimere un parere negativo o comunque per non dare un giudizio oggettivo. L’Aduc (Associazione per i diritti degli utenti e dei consumatori) mette in guardia sui possibili inganni del Buzz marketing, inganni che definisce light mentre una nuova pratica commerciale più ingannevole, ancora non presente in Italia, è quella dell’Astroturfing commerciale. Qui la volontà di condizionare le scelte dei consumatori è evidente: l’Astroturfing consiste nella pratica, da parte delle aziende, di simulare consensi su un prodotto o un servizio utilizzando forum, community, blog, social network, ossia il cosiddetto web 2.0.

Deborah Bianchi, avvocato esperta di diritto digitale, ci mette in allerta: mettere sul proprio blog finte recensioni è un vero e proprio lavoro e ben retribuito sulla base del numero di visitatori che si attraggono. Quando nasce un mezzo che può rivelarsi fraudolento, il diritto deve intervenire a normarlo. Negli Stati Uniti, per esempio, la Federal Trade Commission ha emanato una serie di raccomandazioni rivolte al mondo dei blogger, atte a promuovere onestà e trasparenza nella blogosfera, e in caso di pubblicità occulta è prevista una multa fino a 11 mila dollari.

E la politica, quali strumenti innovativi può avere a disposizione?

Per rispondere è necessaria una premessa. I social media sono uno strumento vitale di comunicazione e hanno creato nuovi modi per mobilitare l’opinione pubblica e incoraggiare la partecipazione ad attività politiche, civiche e solidali. Pensiamo alle petizioni online, che spesso travalicano i confini nazionali e consentono ai cittadini più sensibili alla causa in oggetto di esercitare pressioni sulle istituzioni. Possiamo ricordare fra tante quella lanciata dall’Onu nel 2012 per sostenere la bimba attivista Malala Yousafzai e difendere il diritto allo studio[3]. I social network possono avere un ruolo attivo se vengono utilizzati per organizzare movimenti, convegni, raduni. Se lo scopo è quello di “fare alzare dalla sedia” , per passare dal ruolo di spettatore a quello di attore, di mantenere vivi e vitali tempi e luoghi per la riflessione e promuovere incontri ravvicinati, cioè tra umani e non tra avatar.

Al momento, però, questo rimane un semplice auspicio. Quel che è certo è che si sono modificate la partecipazione e la stessa comunicazione politica, sempre più tweettanti, sempre meno propositive e riflessive, sempre più urlanti. I social media sono diventati in questo modo un decisivo veicolo per la formazione dell’opinione pubblica, determinante per avere sostegno elettorale.

Così gli utenti di Internet, oltre a fornire dati e notizie su di sé che gli algoritmi usano per fini commerciali, diventano monadi digitali rinchiuse in echo chambers in cui il sapere esiste in un’unica prospettiva. Se è facile credere a verità irreali e a presunti complotti, se i politici vengono scelti online, è evidente che si forma una circolarità nella formazione dell’opinione pubblica: dal web la politica raccoglie istanze, desideri e paure dei cittadini, da rilanciare nel circuito mediatico.

Intelligenza artificiale e Big Data, con le nuove tecnologie algoritmiche, possono essere utili strumenti per influenzare le opinioni. Si sono infatti sviluppate forme di comunicazione sempre più sofisticate dal punto di vista tecnologico, in grado di fare propaganda e disinformazione, cioè spacciare per vere, coscientemente, informazioni false. Possiamo immaginare come queste simulazioni possano diventare credibili per chi è abituato a prendere per reale quello che passa nel suo mondo virtuale.

Difendersene non è semplice, perché gli ingegneri del web non hanno ancora messo a punto algoritmi efficaci nel contrasto alle disinformazioni, e la capacità di riflessione della gente è ridotta, rendendo più difficile essere smascherati e più facile la manipolazione.

Jonathan Albright, coautore del recente rapporto della Pew Internet, Il futuro della libertà di parola, Troll, Anonimato e Fake News Online, ha intrapreso un’estesa indagine per scoprire e mappare l’ecosistema delle notizie emergenti.  Il suo lavoro si concentra sull’analisi di eventi e di notizie socialmente mediati, sulla disinformazione / propaganda, sulle tendenze nell’attenzione ai contenuti dei media[4].

Un innovativo dispositivo di propaganda sono i Political Bots, programmi software in grado di “fingersi umani” e intervenire (automaticamente) nelle conversazioni sui social a favore o contro un candidato. Essi generano dei messaggi su Twitter o Facebook, che possono “ingannevolmente” sembrare redatti da un essere umano. L’obiettivo dei Political Bots è quello di promuovere una specifica ideologia o idea politica. Siamo a un alto livello di ingegneria sociale che viene impiegato per catturare e tenere al guinzaglio le persone. La citata ricerca di Jonathan Albright ha mostrato come alcuni siti siano riusciti a manipolare l’algoritmo di Google sulle ricerche ispirate all’incipit “gli ebrei sono…” riuscendo a imporre la parola “malvagi” come prima scelta. Inoltre Albright sostiene che “Gruppi dalle tendenze xenofobe sono riusciti a colonizzare l’universo digitale concentrandosi su alcuni determinati argomenti (musulmani, donne, ebrei, Olocausto, neri) con un successo superiore a quello dei loro corrispettivi della sinistra liberale”[5].

I trend della disinformazione
Ambito di influenza Contenuti Accesso
Tecnologia Informazione creata con nuovi strumenti come AI, bots, big data, realtà virtuale, manipolazione dei format comunicativi Nuovi mezzi di trasmissione di contenuti “mobili”, esperienze di immersione, assistenti digitali attivati a voce
Amministrazione e politica Sviluppare informazioni distorte, minacce alla stampa o alla libertà accademica Censurare o bloccare Wikimedia o piattaforme simili, bloccare gli accessi online oppure sottoporli a monitoraggio e controllo
Commercio Ricerca sponsorizzata, avvisi pubblicitari, propagandisti pagati, contenuti a cliché Creare “bolle filtro”, acquisire la proprietà di dispositivi e piattaforme
Fonte: Wikimedia Information

Esistono vari studi sugli effetti dei Political Bots sui processi politici. Alessandro Bessi ed Emilio Ferrara[6] hanno svolto una ricerca empirica sull’impiego di questo strumento nelle elezioni americane del 2016, rilevando la presenza di circa 400.000 bot (15% dell’intera popolazione di utenti twitter coinvolti) i quali hanno inviato 3,8 milioni di tweet (19% delle conversazioni totali). Bessi e Ferrara hanno anche analizzato la diversa attività degli umani e dei bot nei vari stati americani, mostrando come l’attività dei bot si sia concentrata sugli Stati del Midwest e del Sud e in particolare in Georgia (Stati elettoralmente strategici per Trump), mentre quella degli umani negli Stati più popolosi della California, del Texas, di New York e del Massachussets. Questo studio ha dimostrato che l’impiego di bot nella discussione politica online è in grado di alterare e manipolare l’opinione pubblica e, in questo caso, di influenzare le elezioni presidenziali[7].

Ultimo progresso nella capacità ingegneristica di alterazione, ancora per fortuna sperimentale e non diffuso, è l’uso di video basati sul volto reale di un personaggio: non solo gli si mettono in bocca parole che non ha mai detto, ma si riesce anche a manovrare le espressioni facciali per renderli più credibili (circola online un falso video di Obama).

Studi internazionali confermano una situazione simile a quella descritta per gli Usa anche in altre nazioni: come Internet, anche i nuovi strumenti di comunicazione non hanno confini.

I danni della disinformazione possono però essere notevoli, se il navigatore del web non usa il “pensiero”, cioè il dubbio. Quando la nostra capacità di attenzione viene catturata, la forza del pensiero si blocca e impedisce – a meno che non si sia consapevoli di questo rischio – l’esercizio del dubbio, dell’elaborazione di un discorso che non si limiti a una scelta tra due alternative opposte.

Certo, e mi sembra evidente, non possiamo imputare solo alla pervasività della circolazione di notizie false sulla rete la crescente popolarità di alcune idee politiche che hanno portato alla vittoria di quelle che vengono chiamate “democrature”.  Ci sono approfondite analisi e studi che allargano la visuale ad altri fattori, resta tuttavia il fatto che questi studi rimangono confinati tra quegli umani che il dubbio coltivano. Temo non sia la maggioranza.

SIMONETTA BISI

_____________________________

[1] AA.VV. Echo Chambers: Emotional Contagion and Group Polarization on Facebook, Scientific Reports, Volume 6, id. 37825, 2016.
[2] M. Ainis, Il regno dell’uroboro, la nave di Teseo, 2018, p.50
[3] Credo sia nota a tutti la storia della giovane Malala, gravemente colpita il 9 ottobre 2012 da alcuni talebani saliti sul pullman scolastico che la portava a scuola.
[4] Jonathan Albright, direttore della ricerca presso il Tow Center for Digital Journalism della Columbia University, ha presentato il suo lavoro in numerosi forum internazionali di primo piano, tra cui key notes e panel alla Johns Hopkins University, all’International Journalism Festival, alla London School of Economics, all’Oxford Internet Institute e alla SIPA della Columbia.
[5] Citato in Jonathan Taplin, I nuovi sovrani del nostro tempo. Amazon, Google, Facebook, Macro, 2018.
[6] Entrambi ricercatori all’ University of Southern California.
[7]A. Bessi, E. Ferrara,Social Bots Distort the 2016 US Presidential Election Online Discussion”,                First Monday, Volume 21, Number 11 ­- 7 November 2016