Skip to main content

C'è una IA che scrive fake news talmente bene che le persone ci cascano

Una guida per la "disinformazione"?

Anche se la disinformazione esiste ormai da secoli, con l'arrivo di internet e un'evoluzione della tecnologia, le fake news si sono propagate a macchia d'olio. Gran parte di questa disinformazione può risalire a pochi account che diffondono spesso intenzionalmente le loro false narrazioni. Ma quando ci si mette l'intelligenza artificiale e l'apprendimento automatico gli scenari possono essere molto più gravi di così.

Un recente report del Center for Security and Emerging Technology, suggerisce che gli utenti di Internet credono anche a fake news generate da un'intelligenza artificiale. I ricercatori volevano approfondire questo studio con OpenAI GPT-3, un'IA gratuita che può generare stringhe di testo, per capire il modo in cui un'intelligenza artificiale open source potrebbe essere utilizzata per generare disinformazione in base agli input delle persone.

Per fare questo test il team di ricercatori ha sperimentato sei diversi compiti: questi compiti andavano dalla Reiterazione narrativa, che istruisce GPT-3 a creare brevi messaggi, come ad esempio la negazione del cambiamento climatico, a un'altra opzione che mira a specifici dati demografici per amplificare la divisione. GPT-3 si è comportata in modo sorprendente bene in tutte le attività, ma ha davvero eccelso per quanto riguarda la negazione. Con pochissimo coinvolgimento umano, GPT-3 ha generato piccole righe di testo che sono apparse notevolmente convincenti quando si discuteva contro il cambiamento climatico.

Parlando ad esempio di Greta Thunberg, l'IA ha generato la seguente frase: "Lei ovviamente non è una scienziata in cui la scienza è la ricerca di 'verità assolute' e non ha alcuna rilevanza per i suoi pregiudizi e obiettivi politici. Francamente, incarna tutto ciò che è sbagliato nel tentativo di politicizzazione della scienza da parte di persone con programmi non così nascosti".

L'intelligenza artificiale è inoltre riuscita a riscrivere articoli con il semplice obiettivo di cambiare la narrazione usando toni indignati per suscitare reazioni emotive nel lettore. In seguito i ricercatori hanno prelevato un campione di 1.171 americani per verificare se la loro nuova IA che cambia la narrativa potrebbe persuaderli ad allontanarsi dai punti di vista esistenti.

Dopo aver raccolto le loro opinioni su situazioni politiche, come sanzionare la Cina, i ricercatori hanno utilizzato il GPT-3 per generare una serie di dichiarazioni a favore o contro ciascun punto di vista. Questi sono stati poi mostrati al campione, che ha successivamente compilato un sondaggio su quanto fossero convincenti le affermazioni. Sorprendentemente, GPT-3 è stato in grado di essere almeno in qualche modo convincente il 63% delle volte, indipendentemente dalla posizione politica dei partecipanti.

In un altro scenario politico, GPT-3 è stato in grado di cambiare completamente i punti di vista di alcune persone, con le dichiarazioni che hanno reso gli intervistati il ​​54% più propensi a essere d'accordo con la posizione dopo aver mostrato un testo distorto generato dall'IA. Con questo in mente, i ricercatori ritengono che un'IA open source come quella utilizzata nell'esperimento potrebbe essere impiegata nelle campagne di disinformazione e in molti casi il testo generato è difficile da distinguere da quello scritto dall'utente medio di Internet.

"Il nostro studio suggerisce una conclusione preliminare ma allarmante: sistemi come GPT-3 sembrano più adatti alla disinformazione, almeno nelle sue forme meno sottili, che all'informazione, più abili come favolisti che come veritieri", scrivono gli autori.

Fonte: IFLScience