La fabbrica dei troll è tornata
Cambiano modalità e tecnologie, ma l’obiettivo è lo stesso del 2016. A meno di due mesi dalle presidenziali, un’indagine svela nuovi tentativi da parte dell’IRA di influenzare il voto negli USA.
Interferenze russe nelle elezioni americane, ci risiamo. Un rapporto di Facebook e un altro documento a cura della società specializzata Graphika confermano nuovi tentativi di manipolazione del dibattito elettorale da parte della Internet Research Agency (IRA).
L’IRA, che ha sede a San Pietroburgo, era salita alla ribalta della cronaca nel 2016, quando si era scoperto che l’agenzia manovrava un vero e proprio esercito social di account falsi, e che lo faceva con uno scopo ben preciso: favorire il candidato Donald Trump e ostacolare Hillary Clinton nella corsa alla Casa Bianca.
Adesso la “fabbrica dei troll” (così era stata ribattezzata in un’inchiesta del New York Times) è tornata in azione. Pochi giorni fa Facebook ha annunciato la chiusura di alcune pagine e profili che sarebbero direttamente riconducibili all’IRA. La segnalazione era partita dall’FBI, che, insospettita dal comportamento di questi account, aveva avviato un’indagine.
Cosa si è scoperto
Ci sono cascati diversi giornalisti. C’erano quelli alle prime armi, ma anche alcuni reporter freelance con diversi anni di esperienza alle spalle. A un primo sguardo il sito Peacedata poteva anche sembrare un progetto interessante, e chi fa questo mestiere sa che non è così facile trovare una rivista online disposta a pagare 75 dollari a pezzo. Così, quando hanno visto l’annuncio su Linkedin o le richieste di collaborazione da parte dei caporedattori, non ci hanno pensato due volte e hanno accettato l’incarico.
Hanno scritto o tradotto articoli su argomenti vari, come le proteste anti razzismo, la corruzione, gli eccessi del capitalismo o i crimini di guerra commessi dagli Stati Uniti. Si sono occupati anche di Covid, attaccando i governi occidentali per come hanno risposto alla pandemia. E il sito aveva iniziato a crescere a livello di traffico, raccogliendo consensi da parte di un pubblico vicino alle idee socialiste, critico non solo nei confronti di Trump, ma anche del candidato democratico Biden, perché giudicato non abbastanza di sinistra.
Tuttavia la realtà era ben diversa. Prima di tutto, quei caporedattori non sono mai esistiti, l’offerta di lavoro era arrivata da profili falsi. La rete è piena di identità fasulle che possono essere facilmente smascherate, ma gli account dei falsi dipendenti di Peacedata erano molto sofisticati. Chi li aveva creati aveva generato le foto profilo attraverso strumenti di intelligenza artificiale, grazie ai quali si possono costruire da zero volti estremamente credibili. Inoltre, le stesse “persone” avevano anche un profilo su Twitter e uno su Linkedin, proprio come la gran parte degli utenti reali.
Lo scopo dell’operazione era la fidelizzazione di un pubblico di sinistra – che non avrebbe mai votato Trump – con lo scopo di allontanarlo anche dal suo antagonista principale, Biden.
Si parla di 13 profili personali e 2 pagine rimosse, di circa 14 mila follower. Numeri ridicoli se paragonati al vero e proprio esercito di troll e bot che era stato messo in campo nel 2016, ma pare che si trattasse solo di una fase iniziale. Infatti, quando ci sono di mezzo i profili falsi, spesso c’è un cosiddetto “periodo di coltivazione”, durante il quale si punta a creare interesse e allargare la rete di amicizie prima di perseguire l’obiettivo vero e proprio. Ad avvalorare questa tesi, il fatto che le notizie strettamente collegate alla politica statunitense fossero al momento un’esigua minoranza, mentre una serie di news su temi pop provava ad attirare i like di un pubblico più giovane
Cosa ci aspetta
La questione non deve essere sottovalutata, perché queste operazioni, se ben condotte, riescono a trarre in inganno anche gli utenti social più esperti. Degno di nota è il fatto che i primi a essere caduti nella trappola siano stati giornalisti, persone che per il lavoro che fanno dovrebbero essere abili nel riconoscere l’attendibilità di chi hanno di fronte.
Inoltre, le tecniche messe in campo sono sempre più sofisticate e difficili da individuare. Emilio Ferrara, professore presso la University of Southern California, aveva firmato lo studio, diventato celebre anche sui media, che svelava l’uso di account automatici durante le scorse presidenziali. Oggi è cauto sulla possibilità di individuare nuovi tentativi di manipolazione: “È sempre più difficile. Prima si studiava per esempio il contenuto dei post, ma ormai con l’intelligenza artificiale un algoritmo è in grado di scrivere un articolo come farebbe una persona. Inoltre, ci sono importanti progressi nel campo del deepfake, per cui anche foto e video falsi diventano estremamente credibili. Stiamo arrivando al punto in cui sarà impossibile fare distinzioni tra reale e artefatto”.
Chi può salvarci
Per uscire dall’impasse, i ricercatori stanno sperimentando nuove strade: “Un metodo che sembra funzionare consiste nel guardare se ci sono gruppi di account che si comportano in modo coordinato. Comportamenti del genere possono infatti indicare che dietro lo schermo non ci sono persone ma programmi automatici, o comunque che la natura dell’operazione potrebbe essere maliziosa”. La stessa Facebook spiega che gli account rimossi recentemente presentavano un comportamento “coordinato non autentico”.
Per analizzare tanti account in un colpo solo e scoprire i falsi più sofisticati servono tecniche avanzate, che possono essere messe a punto solo da team specializzati, come quelli che lavorano nelle università e centri di ricerca, oppure all’interno delle stesse Big Tech.
E poi, aspetto non certo secondario, per studiare i social serve il permesso da parte della piattaforma di scaricare i dati che raccontano come viene utilizzata dagli utenti. Ogni social ha la propria politica. Twitter è piuttosto aperto sotto questo punto di vista, ma rappresenta più un’eccezione che la regola (infatti la maggior parte degli studi si svolgono qui). In diversi casi, invece, le istituzioni sono tagliate fuori. Così capita che ad occuparsi di monitoraggio e salvaguardia del dibattito social siano soprattutto le piattaforme stesse.
Le leggi specifiche in materia da falsi profili e campagne elettorali sono poche e non sempre efficaci. A fare da apripista il Bot Disclosure and Accountability Act del 2019, che stabilisce che se un account automatico fa propaganda politica deve dichiarare la propria natura di profilo artificiale. Ferrara, che con i suoi studi ha ispirato la legge, è convinto che possa funzionare come deterrente per tutte le agenzie che lavorano su suolo americano, ma il lavoro da fare è ancora lungo: “Internet non ha confini, e, se la minaccia arriva dall’estero, le leggi nazionali servono a poco”.
Leggi anche: iNaturalist, l’App per scoprire la biodiversità dietro casa
Pubblicato con licenza Creative Commons Attribuzione-Non opere derivate 2.5 Italia.