mercoledì, Dicembre 2, 2020
CERVELLI ARTIFICIALI

Se il robot è complottista

Dalla sigaretta elettronica che fa bene alla salute alla cannabis che cura i tumori, passando per le teorie antivacciniste e i complotti legati al Covid-19, sui social network i bot aiutano la circolazione di informazioni false a tema salute.

Di fronte a un post che sostiene che Bill Gates ha creato il coronavirus per dimezzare la popolazione mondiale si può reagire in tanti modi. In molti si arrabbiano con l’autore del post per aver condiviso una notizia palesemente falsa, ma non tutti si pongono una domanda fondamentale: siamo proprio sicuri che dietro a quel profilo ci sia una persona?

I bot (abbreviazione di robot), programmi automatici che si fingono persone sui social, si infiltrano sempre più spesso anche nelle discussioni sulla salute. Gli studi in materia sono ancora relativamente pochi e molto recenti, ma iniziano a delineare in modo chiaro questa tendenza.  

Fumare fa bene? 

Nel 2017 ha fatto molto parlare di sé la scoperta di una rete di bot che postava frasi a sostegno delle sigarette elettroniche

Nell’anno del boom della e-cig, un gruppo di ricercatori aveva pensato di raccogliere e studiare i tweet sull’argomento, per capire la percezione delle persone nei confronti del prodotto. Durante l’analisi di oltre 2 milioni di tweet, la sorpresa: tra chi parlava di sigarette elettroniche, specialmente tra le fila degli entusiasti, c’erano degli account fake. Questi profili automatici avevano prodotto un numero considerevole di tweet. I bot presentavano un’attività all’incirca doppia rispetto agli umani nel suggerire i benefici della sigaretta elettronica, come la sua presunta utilità nello smettere di fumare (che non è mai stata dimostrata scientificamente). Inoltre, gli stessi bot promuovevano hastag legati alla vendita di sigarette elettroniche e accessori dedicati.

Due anni più tardi, nel 2019, un altro studio, prendeva in analisi le conversazioni degli americani sulla cannabis. All’epoca negli USA l’utilizzo della sostanza era consentita solo per uso medico in particolari situazioni: per ridurre gli effetti collaterali della chemioterapia, contrastare la perdita di peso in alcune malattie come l’AIDS e alleviare i sintomi di alcune forme di epilessia infantile. Tuttavia, sui social si parlava anche di altri effetti benefici anche su una serie di altre patologie, dalla fascite plantare ai tumori, passando per il morbo di Crohn. Informazioni non verificate da un punto di vista scientifico, eppure in grado di propagarsi anche grazie ai bot: addirittura la maggior parte dei post erano prodotti proprio da algoritmi automatici.

Le polemiche sui vaccini

Un paio di anni fa, uno studio, condotto sempre su Twitter, rivelava che i bot hanno un ruolo molto importante anche nella diffusione di fake news a tema vaccinazioni. In particolare, gli account automatici contribuivano a far circolare messaggi contro i vaccini. Come la maggior parte dei bot (in qualsiasi ambito), fungevano da veri e propri amplificatori dei messaggi. In alcuni casi le false informazioni sui vaccini servivano soprattutto per creare disordine e dissenso a livello politico. È questo il caso di una rete di bot e troll legati alla Internet Research Agency (la “fabbrica dei troll” russa), che utilizzavano l’hashtag #vaccinateUS proprio con questo scopo. I messaggi #VaccinateUS erano sia pro che contro i vaccini, ma tendevano a mischiare le informazioni scientifiche con considerazioni politiche, in particolare sul governo statunitense, cercando di far leva sulle emozioni e provocare gli altri utenti, in modo da scatenare discussioni accese. Non solo: i bot erano molto abili a mimetizzarsi nell’ecosistema del social, interagendo con gli utenti umani e ritwittando i loro post.

Tutto questo ha un effetto tangibile sul pubblico? Gli stessi autori fanno delle ipotesi, ma ci vanno cauti. Un dato di fatto è che le persone, quando sono indecise sul da farsi, spesso si informano su internet. Un altro è che la causa antivaccinista in rete ha una presenza davvero notevole: si parla di circa il 50% del totale dei tweet analizzati, che potenzialmente potrebbe portare a far aumentare i dubbi verso questa pratica, per esempio nei genitori che devono scegliere cosa fare per il proprio figlio. Tuttavia, nessuno (almeno per ora) è riuscito a misurare gli effetti dell’esposizione delle persone a questo tipo di informazioni.

L’infodemia Covid-19

Le informazioni false sul coronavirus, come quella che vede Bill Gates al centro di strampalate teorie cospirazioniste, circolano fin dai primi mesi dell’epidemia. La rivista Nature qualche tempo fa ha ricostruito l’andamento di questa pandemia informativa, ipotizzando l’esistenza, proprio come nelle dinamiche legate al virus, di momenti di super diffusione. In particolare nelle prime settimane, quando la situazione era molto incerta, le fake news trovavano più facilmente terreno fertile.

Uno degli studi più recenti in materia di Covid-19 e circolazione di notizie false vede di nuovo protagonisti i bot, che sarebbero responsabili della diffusione di un’altra falsa promessa, quella dell’immunità di gregge. Appoggiata in un primo momento anche da alcuni leader politici, la proposta di lasciare il virus libero di fare il suo corso tra la popolazione è una strategia sbagliata secondo molti scienziati, che può portare effetti devastanti senza ottenere i risultati sperati. 

Secondo lo studio, dietro a circa la metà dei profili che hanno twittato in sostegno di uno stop ai lockdown e contro le politiche di controllo sanitario ci sarebbero algoritmi. Questi robot sono molto attivi nel postare argomenti a sostegno delle proprie tesi, ma poco fantasiosi (i contenuti sono ripetitivi). Al contrario, la maggior parte di quelli che smentiscono la teoria dell’immunità di gregge, sarebbero umani.

Umano o robot?

Quando si parla di studi sugli account fake, una precisazione è d’obbligo. Distinguere un account falso da uno reale non è sempre facile. I bot sono creati proprio con lo scopo di mimetizzarsi dentro all’ecosistema social, e chi li programma sta diventando sempre più bravo. “In un esperimento ci siamo accorti che le persone sono in grado di riconoscere solo 1 bot su 4”, racconta Maurizio Tesconi, ricercatore presso l’Istituto di Informatica e Telematica del CNR ed esperto di individuazione di bot.

Anche gli algoritmi che utilizzano i ricercatori per compiere studi come quelli sopra non sempre riescono a dire con certezza se un profilo è bot oppure no. “Botometer, lo strumento più usato oggi per questo scopo, guarda un profilo alla volta e restituisce un indice di probabilità che si tratti di un social bot. È utile per farsi un’idea, ma non sempre riesce a dare risposte certe”, prosegue. Per aumentare la precisione, si devono mettere a punto algoritmi più sofisticati: “La sfida è riuscire a studiare tanti account in un colpo solo per vedere se si sono coordinati e sincronizzati tra loro. Quello è un indizio molto forte che si tratti di reti di bot, perché gli umani non hanno questo tipo di comportamento”.


Leggi anche: Riconoscimento facciale, il diritto di non essere osservati

Articolo pubblicato con licenza Creative Commons Attribuzione-Non opere derivate 2.5 Italia.   

Immagine: Pixabay

Rispondi

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Viola Bachini
Mi occupo di comunicazione della scienza e della tecnologia. Scrivo su giornali e riviste, collaboro con case editrici di libri scolastici e con istituti di ricerca per la comunicazione dei risultati al grande pubblico. Ho fatto parte del team che ha realizzato il documentario "Demal Te Niew", finanziato da un grant dello European Journalism Centre e pubblicato in italiano sull'Espresso (2016) e in spagnolo su El Pais (2017). Sono autrice del libro "Fake people - Storie di social bot e bugiardi digitali" (Codice - 2020).
%d blogger hanno fatto clic su Mi Piace per questo: