Salute 4 Settembre 2024 23:58

ChatGPT non è infallibile nell’interpretare le immagini radiologiche

Il modello di intelligenza artificiale ChatGPT-4 Vision è in grado di rispondere correttamente a un esame di radiologia basato sul testo, ma mostra difficoltà sull’interpretazione delle immagini. A dimostrarlo è uno studio pubblicato su Radiology

ChatGPT non è infallibile nell’interpretare le immagini radiologiche

Il modello di intelligenza artificiale ChatGPT-4 Vision è in grado di rispondere correttamente a un esame di radiologia basato sul testo, ma sembra sperimentare ancora delle difficoltà sulle domande relative all’interpretazione delle immagini. A dimostrarlo uno studio, pubblicato sulla rivista Radiology, condotto dagli scienziati della Henry Ford Health a Detroit. Il team, guidato dallo scienziato Chad Klochko, ha valutato le prestazioni del modello di intelligenza artificiale Chat GPT-4 Vision, la prima versione di grandi dimensioni in grado di elaborare sia testo che immagini.

ChatGPT messo alla prova con gli esami di formazione in radiologia diagnostica

“L’algoritmo Chat GPT-4 – afferma Klochko – si è rivelato molto promettente come assistente alla semplificazione dei referti radiologici e nell’interpretazione del protocollo appropriato ai diversi esami di imaging. Vision consente nuove potenziali applicazioni in radiologia”. Nell’ambito dell’indagine, i ricercatori hanno testato il modello sulla base delle domande poste durante gli esami di formazione in radiologia diagnostica dell’American College of Radiology, una serie di test utilizzati per valutare i progressi degli studenti. In totale, sono state considerate 377 domande in 13 domini, tra cui 195 domande solo di testo e 182 che contenevano un’immagine da interpretare. GPT-4 Vision ha risposto correttamente a 246 delle 377 domande, ottenendo un punteggio complessivo del 65,35.

ChatGPT promosso nei quiz di testo e molto meno con le immagini

Nello specifico, l’intelligenza artificiale ha riconosciuto la risposta corretta nell’81,5% delle domande di testo e nel 47,8% dei quiz con immagini. 120 domande sono state lasciate in bianco. “L’accuratezza nei quesiti basasti sul testo – riporta Klochko – rispecchia le prestazioni del modello precedente. Questa coerenza nelle domande basate su testo potrebbe suggerire che il modello ha un certo grado di comprensione testuale in radiologia. Il nostro lavoro evidenzia le materie specifiche in cui l’algoritmo era più e meno affidabile. Durante le esplorazioni iniziali del modello non avevamo mai riscontrato il rifiuto di rispondere a una domanda. Abbiamo inoltre notato una tendenza allarmante del modello a fornire diagnosi corrette basate su interpretazioni errate delle immagini, il che potrebbe avere implicazioni cliniche significative”.

Necessari metodi di valutazione degli algoritmi più rigorosi

“Questi risultati – conclude Klochko – evidenziano la necessità di individuare metodi di valutazione più specializzati e rigorosi per testare le prestazioni di modelli linguistici di grandi dimensioni nelle attività di radiologia. Date le attuali sfide nell’interpretazione accurata delle immagini radiologiche chiave e la tendenza alle risposte allucinatorie, l’applicabilità di GPT-4 Vision in campi critici per l’informazione come la radiologia è limitata nel suo stato attuale”

 

Iscriviti alla Newsletter di Sanità Informazione per rimanere sempre aggiornato

GLI ARTICOLI PIU’ LETTI
Advocacy e Associazioni

Percorso Regolatorio farmaci Aifa: i pazienti devono partecipare ai processi decisionali. Presentato il progetto InPags

Attraverso il progetto InPags, coordinato da Rarelab, discussi 5 dei possibili punti da sviluppare per definire criteri e modalità. Obiettivo colmare il gap tra Italia e altri Paesi europei in ...
Advocacy e Associazioni

Disability Card: “Una nuova frontiera europea per i diritti delle persone con disabilità”. A che punto siamo

La Disability Card e l'European Parking Card sono strumenti che mirano a facilitare l'accesso ai servizi e a uniformare i diritti in tutta Europa. L'intervista all'avvocato Giovanni Paolo Sperti, seg...
Sanità

I migliori ospedali d’Italia? Sul podio Careggi, l’Aou Marche e l’Humanitas di Rozzano

A fotografare le performance di 1.363 ospedali pubblici e privati nel 2023 è il Programma nazionale sititi di Agenas. Il nuovo report mostra un aumento dei  ricoveri programmati e diu...