Sanità 28 Giugno 2023 18:07

Una “gara” di disinformazione su salute e ambiente: l’Intelligenza Artificiale batte gli umani

Un modello di Intelligenza artificiale (IA), chiamato GPT-3, diffonde disinformazione in modo più credibile degli esseri umani. A dimostrarlo è uno studio di Giovani Spitale dell’Università di Zurigo, pubblicato sulla rivista Science Advances

di Cesare Buquicchio
Una “gara” di disinformazione su salute e ambiente: l’Intelligenza Artificiale batte gli umani

Un modello di Intelligenza Artificiale (IA), chiamato GPT-3, diffonde disinformazione in modo più credibile degli esseri umani. A dimostrarlo è un innovativo ed approfondito studio dell’Università di Zurigo, pubblicato sulla rivista Science Advances firmato da Giovanni Spitale, Nikola Biller-Andorno e Federico Germani. Che l’IA stia cambiando il modo in cui creiamo e valutiamo le informazioni sembra ormai evidente e, alla luce di quanto sperimentato durante la pandemia da Covid-19, si teme per le possibili ricadute su disordine informativo e infodemia su temi riguardanti la salute globale. Nel nuovo studio gli scienziati hanno analizzato se gli individui fossero in grado di distinguere le fake news dalle informazioni accurate, strutturate sotto forma di tweet, e di determinare se un tweet fosse organico o sintetico, cioè, scritto da un utente di Twitter o da GPT-3.

Gli esseri umani non riescono a distinguere tra un tweet scritto da una persona o dall’IA

I risultati dimostrano che GPT-3 è un’arma a doppio taglio che, rispetto agli esseri umani, può produrre informazioni precise e più facili da comprendere, ma può anche produrre disinformazione più convincente. La ricerca ha, inoltre, dimostrato che gli uomini non sono in grado di distinguere i tweet generati da GPT-3 da quelli scritti da utenti umani. «I risultati suggeriscono che il modello di Intelligenza Artificiale GPT-3 e altri modelli linguistici di grandi dimensioni possono sia informare che disinformare gli utenti dei social media, in modo più efficace rispetto agli esseri umani», spiega Giovanni Spitale, ricercatore dell’Università di Zurigo.

Primo studio che analizza l’efficacia dei modelli linguistici di grandi dimensioni

Dal suo lancio nel novembre 2022, l’uso di ChatGPT, ha sollevato timori per la diffusione della disinformazione e dell’informazione on line, in particolare sulle piattaforme social. I critici avvertono che i modelli linguistici di grandi dimensioni come Generative Pre-trained Transformer 3 (GPT-3) di ChatGPT potrebbero essere utilizzati per generare disinformazione convincente per i social media. Poiché i modelli linguistici di grandi dimensioni sono relativamente nuovi, pochi studi hanno esaminato la loro efficacia rispetto a questo scopo. Spitale e il suo team di ricerca hanno reclutato 697 partecipanti di lingua inglese provenienti da Stati Uniti, Regno Unito, Canada, Australia e Irlanda, principalmente di età compresa tra i 26 e i 76 anni, per valutare i tweet generati da umani e da GPT-3, contenenti informazioni accurate e imprecise su una serie di argomenti, tra cui i vaccini e l’autismo, la tecnologia 5G, Covid-19, il cambiamento climatico e l’evoluzione, tutti argomenti spesso fraintesi da parte del pubblico.

Lo studio solleva importanti interrogativi sui pericoli della disinformazione generata dall’IA

Per ogni argomento, i ricercatori hanno raccolto tweet generati dall’uomo da Twitter e hanno istruito il modello GPT-3 a generare nuovi tweet contenenti informazioni accurate e non. Poi hanno chiesto ai partecipanti di giudicare se i tweet fossero veri o falsi e se fossero stati creati da un essere umano o da GPT-3. Gran parte di coloro che hanno preso parte allo studio sono stati più propensi a identificare la disinformazione generata da un essere umano; tuttavia, era anche più probabile che indovinassero che le informazioni generate da GPT-3 fossero accurate. «I nostri risultati sollevano importanti interrogativi sui potenziali usi e abusi del GPT-3 e di altri generatori di testo basati su sistemi avanzati di IA e sulle implicazioni per la diffusione delle informazioni nell’era digitale», hanno sottolineato gli autori dello studio. «Partendo dai nostri risultati, vogliamo riflettere sui pericoli dell’Intelligenza Artificiale per la disinformazione e su come migliorare le campagne di informazione a beneficio della salute globale», concludono.

INFODEMIC LAB

Iscriviti alla Newsletter di Sanità Informazione per rimanere sempre aggiornato

 

Articoli correlati
L’Intelligenza artificiale di Google batte i medici in carne e ossa su anamnesi e diagnosi
Un sistema di intelligenza artificiale (AI) addestrato a condurre interviste mediche ha eguagliato, o addirittura superato, le prestazioni dei medici in carne e ossa nel conversare con pazienti simulati e nell'elencare possibili diagnosi sulla base della loro storia medica dei pazienti. Queste sono le conclusioni di uno studio pubblicato sul server di prestampa arXiv e riportato in un articolo riportato su Nature
Tumore al seno, l’Intelligenza artificiale può risparmiare alle donne terapie inutili
Grazie all'Intelligenza artificiale è possibile sapere in anticipo se una donna con tumore al seno beneficerà o meno di un trattamento. Un gruppo di ricercatori della Northwestern University, Usa, ha messo a punto un nuovo strumento che potrebbe evitare alle pazienti trattamenti chemioterapici non necessari. Lo studio è stato pubblicato su Nature Medicine
Grazie all’intelligenza artificiale 1 persona su 2 potrebbe lavorare solo 4 giorni a settimana
Secondo un nuovo studio incentrato sulla forza lavoro britannica e americana, l’intelligenza artificiale potrebbe consentire a milioni di lavoratori di passare alla settimana lavorativa di quattro giorni entro il 2033
A Pisa doppia laurea con Marsiglia e Stoccolma su IA e salute
arte all'Università di Pisa, prima in Italia, la laurea magistrale in biotecnologie e intelligenza artificiale applicata alla salute che consentirà di ottenere un doppio titolo con l'Università di Aix Marsiglia o con quella di Stoccolma
di Redazione
L’Intelligenza artificiale conquista l’Healthcare: cresce l’impiego in ricerca, diagnosi e cura
In occasione della Milano digital Week confronto tra protagonisti di design, Ai e digitale sull’impiego in sanità. Dalle app che dialogano con i pazienti, ai software che fanno interagire le strutture sanitarie, ma resta aperto il quesito sul consenso dei dati
GLI ARTICOLI PIU’ LETTI
Salute

Sanità Informazione sospende gli aggiornamenti per la pausa natalizia. Grazie e auguri a tutti i lettori!

Sanità Informazione sospende gli aggiornamenti per la pausa natalizia e, ringraziando tutti i suoi lettori, augura a tutti feste serene dando appuntamento al 7 gennaio 2025
Advocacy e Associazioni

Disabilità: ecco tutte le novità in vigore dal 1° Gennaio 2025

L’avvocato Giovanni Paolo Sperti, in un’intervista a Sanità Informazione, spiega quali saranno le novità in tema di legge 104/1992, indennità di accompagnamento e revi...
Advocacy e Associazioni

Natale, successo virale per il video dei ragazzi dell’Istituto Tumori di Milano

Il video di ‘Palle di Natale’ (Smile, It’s Christmas Day), brano scritto e cantato dagli adolescenti del Progetto giovani della Pediatria dell’Int, in sole 24 ore è stat...
Advocacy e Associazioni

Amiloidoisi cardiaca: “L’ho scoperta così!”

Nella nuova puntata di The Patient’s Voice, Giovanni Capone, paziente affetto da amiloidosi cardiaca racconta la sua storia e le difficoltà affrontate per arrivare ad una diagnosi certa. ...
Prevenzione

Ecco il nuovo Calendario per la Vita: tutte le vaccinazioni secondo le ultime evidenze scientifiche

Il documento affronta tutti gli strumenti per la prevenzione, dai vaccini contro il COVID-19 agli strumenti per combattere l’RSV, passando per i vaccini coniugati contro lo Pneumococco e quello ...