Articoli che potrebbero star bene su una prima pagina, ma che in realtà sono inventati. News che ti fanno sobbalzare sulla sedia, ma poi dopo mezz’ora si rivelano essere totalmente false.
E sai che novità, le care vecchie fake news. Già, ma adesso la cosa inizia a farsi tremendamente seria. Perché fino a quando si è parlato di fake news ironiche, create da bontemponi, o di pseudonotizie, mutate per via del passaparola, in alcuni casi il gioco poteva anche essere divertente.
Adesso però le cose stanno cambiando. Le famigerate “bufale”, infatti, sono diventate molto più facili da produrre, e tutto questo grazie a una manciata di nuovi strumenti alimentati dall’intelligenza artificiale, una novità che sta sollevando preoccupazioni circa il potenziale uso improprio della tecnologia.
Il giornalista robot
Come è già accaduto per i deepfakes – produrre clip di personaggi famosi che sembrano dire e fare cose che non hanno mai detto o fatto – questi strumenti potrebbero infatti potrebbero realizzare notizie false, ma così verosimili da ingannare anche l’occhio più attento. Inducendo le persone, secondo gli scienziati più pessimisti a pensare che la terra sia piatta, o che il riscaldamento globale è una bufala. O magari che, un candidato politico ha commesso un crimine quando non lo ha fatto.
Efficienti e veloci questi strumenti di intelligenza artificiale consentono di generare gli articoli fake in pochi secondi dal computer.Per quanto ne sanno gli esperti, questa nuova tecnologia è stata implementata solo dai ricercatori e non è stata utilizzata in modo dannoso.
Ma molti dei ricercatori che hanno sviluppato la tecnologia e le persone che l’hanno studiata temono che, man mano che tali strumenti diventeranno più avanzati, potrebbero diffondere disinformazione. Oppure soppiantare una reale agenda politica. Ecco perché alcuni stanno suonando l’allarme e stanno rilasciando strumenti che consentono alle persone di scovare storie potenzialmente false.
“Il pericolo esiste perché c’è già molta propaganda simile scritta da esseri umani da cui questi modelli di linguaggio neurale possono imparare a generare articoli simili”, afferma Yejin Choi, professore associato presso l’Università di Washington, ricercatore presso l’Allen Institute per l’ intelligenza artificiale e parte di un team che ha sviluppato uno strumento di notizie false. “La qualità di tali notizie false può sembrare abbastanza convincente per gli umani.”
Un futuro pieno di insidie
La prima voce di una potente nuova generazione di strumenti di testo sintetico è stata presentata a febbraio, quando OpenAI, un ente di ricerca con base a San Francisco sostenuto da nomi di spicco della tecnologia come Elon Musk e il co-fondatore di LinkedIn Reid Hoffman, ha lanciato il GPT-2. Il software produce articoli di notizie dal suono autentico, così come altri tipi di passaggi, dalla fiction alle conversazioni, attingendo alla sua analisi di 40 gigabyte di testo su otto milioni di pagine web. E soprattutto è in grado di prevedere la parola successiva di un comune testo che si vuole realizzare.
Il sistema GPT-2 ha funzionato così bene che in un sondaggio di agosto di 500 persone, la maggioranza ha ritenuto credibili i suoi articoli sintetici. In un gruppo di partecipanti, il 72% ha ritenuto credibile un articolo GPT-2, rispetto all’83% che ha ritenuto credibile un articolo originale.
La disinformazione sintetizzata su larga scala non è solo possibile ma è economica e credibile ”, afferma Sarah Kreps, professore alla Cornell University che ha co-scritto la ricerca sulle fake news e l’intelligenza artificale. La sua diffusione su internet, afferma, potrebbe aprire la strada a campagne di influenza maligna. Anche se le persone non credono che i falsi articoli siano accurati, afferma, la consapevolezza che tali storie sono disponibili potrebbe avere un effetto dannoso, erodendo la fiducia delle persone nei media e nel governo.
Dati i potenziali rischi associati al dare pieno accesso al mondo al GPT-2, OpenAI ha deciso di non rilasciarlo immediatamente, mettendo invece a disposizione dei ricercatori una versione più limitata per studiare e sviluppare potenzialmente strumenti in grado di rilevare testi generati artificialmente in natura.
Nei mesi seguenti, altri ricercatori hanno replicato il lavoro di OpenAI. A giugno, la dott.ssa Choi e i suoi colleghi dell‘Università di Washington e dell’Allen Institute for Artificial Intelligence hanno pubblicato uno strumento sul sito web dell’istituto chiamato Grover, posizionandolo come un software in grado di generare storie convincenti di notizie false e di utilizzare la stessa tecnologia per rilevare le notizie artificiali altrui individuando modelli testuali rivelatori.
Discussion about this post