domenica, Dicembre 5, 2021
CERVELLI ARTIFICIALIUncategorized

Se il robot scrive al posto tuo

Non (più) solo video: il deepfake adesso è in grado di produrre testi scritti. Dai primi tentativi al potentissimo GPT-3, ecco come si è evoluta questa tecnologia e come si fa a riconoscere una frase prodotta da un software.

Dato un brano, fare un riassunto. Ma anche rispondere a delle domande di comprensione del testo o confrontare due articoli e sviscerarne il contenuto, per capire se esprimono la stessa posizione o meno. Tutto questo, che ricade nell’ambito della produzione e analisi dei testi scritti (e che fino a poco fa si pensava fosse appannaggio degli umani), oggi può farlo un algoritmo. 

Come siamo arrivati fin qui? E che cosa ci aspetta nei prossimi anni?

Artificiali e a basso costo

La generazione automatica di testi rappresenta una delle sfide più interessanti del settore dell’informatica, anche per l’importanza che hanno assunto i testi scritti negli ultimi anni.

I primi esempi eclatanti di testi prodotti da bot risalgono al 2016, quando – in piena campagna elettorale statunitense – un esercito di bot su Twitter se la prendeva con l’allora candidata democratica Clinton, ripetendo in modo ossessivo le stesse frasi.

L’anno successivo, poi, c’era stato il caso della discussione sulla legge relativa alla net neutrality. La Federal Communications Commission aveva messo a disposizione una piattaforma nella quale i cittadini potevano esprimere la propria opinione attraverso dei commenti scritti, che sarebbero poi stati letti durante i lavori, dai componenti della commissione stessa. 

Le cose, però, non andarono bene. Alcuni studi hanno dimostrato che i commenti erano stati per il 96% condotti da bot, che nella grande maggioranza dei casi hanno sostenuto la posizione contraria alla neutralità delle rete. I pochi commenti reali, al contrario, erano nettamente a favore della net neutrality. Visto che alla fine la legge è stata abrogata, risulta impossibile non pensare che i commenti dei bot siano stati determinanti. 

“In quel caso specifico si può parlare di cheap fake”, spiega Margherita Gambini, che studia la genesi dei testi artificiali presso l’Università di Pisa e l’IIT-CNR. Cheap, perché si tratta di tecniche semplici, che consistono nella duplicazione dello stesso commento o nell’utilizzo di uno schema fisso per le frasi, all’interno del quale cambiare solo alcune parole. “In questi casi è facile capire che dietro si nasconde la mano di un robot”.

Sempre più umani

Tuttavia, per produrre un contenuto falso, si possono utilizzare strumenti più sofisticati. “Nel campo dei testi siamo più indietro rispetto a quello delle immagini o dei video, dove oggi è possibile creare da zero media molto realistici”, prosegue Gambini.

Fino al 2017 il testo veniva generato soprattutto attraverso tecniche statistiche: a partire da una parola, l’algoritmo aggiunge la successiva perché ritenuta più probabile. “Si tratta di generatori molto scarni, che non seguono un filo logico, né un contesto”.

Poi sono nate nuove tecniche basate sulle reti neurali, che imitano le connessioni del cervello umano. “È stato un passo in avanti, perché questi algoritmi sono in grado di ricordare alcune frasi che le precedono, mentre non riescono ad afferrare contesti più lunghi”. 

Testi deepfake

“Il meccanismo che ha rivoluzionato tutto il settore è il cosiddetto meccanismo di attenzione, in grado di capire che una parola può assumere diversi significati a seconda della frase in cui è inserita”, illustra Gambini. Siamo nel campo dell’intelligenza artificiale: se al meccanismo di attenzione sottoponiamo milioni di frasi, questo impara come ogni parola si relaziona con le altre in ogni possibile contesto. 

“Proprio come facciamo noi umani. Così siamo stati in grado di sviluppare modelli sempre più efficaci, che ci permettono, per esempio, di fare un riassunto di un testo o persino di scrivere codice HTML, come GPT-3 di OpenAI”.

Questi modelli sono molto pesanti da un punto di vista computazionale e di utilizzo di memoria. Non è un caso se al momento si contano sulle dita di una mano le grandi aziende che li sviluppano. “A differenza dei video deepfake, che stanno diventando strumenti accessibili a qualsiasi utente, i generatori di testo sono ancora per pochi”.

Riconoscere un testo falso

Gambini e colleghi mettono a punto algoritmi di detection, in grado cioè di distinguere testi scritti da un umano da quelli prodotti da un robot.

“A volte è possibile riconoscere un commento fake anche senza l’aiuto della tecnologia. Per esempio un campanello d’allarme è la presenza di pezzi di frasi ripetuti, che non seguono un filo logico. Oppure quando sembra di trovarsi di fronte a un’insalata di parole, o ancora, se si leggono frasi sconnesse, per esempio con cambio di contesto o di soggetto, probabilmente stiamo leggendo frasi scritte da un software”.

Quando invece gli scritti sono prodotti con tecniche sofisticate, è più difficile per l’occhio umano riconoscerne l’origine. “In casi come questo bisogna combattere ad armi pari, mettendo a punto algoritmi che a loro volta si basano su deep learning e reti neurali”.


Leggi anche: Licenza di uccidere

Articolo pubblicato con licenza Creative Commons Attribuzione-Non opere derivate 2.5 Italia.   

Immagine: Pixabay

Rispondi

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Viola Bachini
Mi occupo di comunicazione della scienza e della tecnologia. Scrivo su giornali e riviste, collaboro con case editrici di libri scolastici e con istituti di ricerca per la comunicazione dei risultati al grande pubblico. Ho fatto parte del team che ha realizzato il documentario "Demal Te Niew", finanziato da un grant dello European Journalism Centre e pubblicato in italiano sull'Espresso (2016) e in spagnolo su El Pais (2017). Sono autrice del libro "Fake people - Storie di social bot e bugiardi digitali" (Codice - 2020).
%d blogger hanno fatto clic su Mi Piace per questo: