Un supporto rivoluzionario in grado di aiutare le persone che hanno perso la capacità di comunicare a causa di una malattia neurologica o un trauma. E’ quello che promette un nuovo dispositivo messo a punto da un gruppo di neuroscienziati, neurochirurghi e ingegneri della Duke University, che è in grado di leggere il pensiero e tradurlo in parole con una velocità senza precedenti
Un supporto rivoluzionario in grado di aiutare le persone che hanno perso la capacità di comunicare a causa di una malattia neurologica o un trauma. E’ quello che promette un nuovo dispositivo messo a punto da un gruppo di neuroscienziati, neurochirurghi e ingegneri della Duke University, che è in grado di leggere il pensiero e tradurlo in parole con una velocità senza precedenti. Si tratta di un’innovativa interfaccia cervello-computer, descritta sulla rivista Nature Communication.
“Ci sono molti pazienti che soffrono di disturbi motori debilitanti, come la Sclerosi Laterale Amiotrofica o la Sindrome Locked-in, che possono influire sul linguaggio”, spiega Gregory Cogan, professore di neurologia presso la School of Medicine della Duke University e uno dei principali ricercatori coinvolti nel progetto. “Ma gli strumenti attualmente disponibili per permettere loro di comunicare – continua – sono generalmente molto lenti e macchinosi”. E continua: “Immaginate di ascoltare un audiolibro a metà velocità; questa è la migliore fluidità di decodifica del parlato attualmente disponibile, che si attesta a circa 78 parole al minuto. Tuttavia le persone pronunciano circa 150 parole al minuto e lo scarto tra la velocità del parlato e quella della decodifica è in parte dovuto al numero relativamente basso dei sensori relativi all’attività cerebrale che possono essere fusi su un pezzo di materiale sottile come la carta posta sulla superficie del cervello”.
“Un minor numero di sensori fornisce meno informazioni decifrabili da decodificare”, spiega Cogan. Per superare questi limiti, Cogan ha deciso di collaborare assieme Jonathan Viventi, collega del Duke Institute for Brain Sciences, il cui laboratorio di ingegneria biomedica è specializzato nella realizzazione di sensori cerebrali ad alta densità, ultrasottili e flessibili. Per la realizzazione del progetto, Viventi e la sua équipe hanno inserito ben 256 microscopici sensori cerebrali in un frammento di grado medicale flessibile, fatto plastica e della dimensione di un francobollo. Poiché i neuroni anche distanti appena un granello di sabbia l’uno dall’altro possono avere schemi di attività molto diversi quando coordinano il discorso, per ottenere previsioni accurate sull’intenzione del discorso, è stato necessario distinguere i segnali provenienti da cellule cerebrali vicine. Una volta fabbricato il nuovo impianto, Cogan e Viventi hanno collaborato con diversi neurochirurghi del Duke University, che hanno contribuito a reclutare quattro soggetti per testare gli impianti.
L’esperimento prevedeva che i ricercatori inserissero temporaneamente il dispositivo in pazienti che stavano subendo un intervento chirurgico al cervello per altre patologie, come il trattamento della malattia di Parkinson o l’asportazione di un tumore. Il tempo a disposizione di Cogan e della sua squadra per testare il dispositivo in sala operatoria era limitato. “Non volevamo aggiungere altro tempo alla procedura operativa, quindi dovevamo essere dentro e fuori entro 15 minuti”, dice Cogan. “Non appena il chirurgo e l’équipe medica ci hanno autorizzato ci siamo precipitati e siamo entrati in azione”, aggiunge. Il compito consisteva in una semplice attività di ascolto e ripetizione: i partecipanti hanno ascoltato una serie di parole senza senso, come “ava”, “kug” o “vip”, e poi hanno pronunciato ciascuna di esse ad alta voce. Il dispositivo ha registrato l’attività della corteccia motoria vocale di ciascun paziente mentre coordinava i quasi cento muscoli che muovono le labbra, la lingua, la mascella e la laringe.
In seguito, Suseendrakumar Duraivel, primo autore del nuovo studio e studente di ingegneria biomedica alla Duke, ha preso i dati neurali e vocali dalla sala operatoria e li ha inseriti in un algoritmo di apprendimento automatico per verificare quanto fossero accurate le previsioni relative a quale suono veniva emesso, basandosi solo sulle registrazioni dell’attività cerebrale. Per alcuni suoni, come /g/ nella parola “gak”, il decodificatore ha effettuato una predizione esatta l’84% delle volte quando si trattava del primo suono di una stringa di tre che componevano una determinata parola “non sense”. La precisione è, però, scesa quando il decodificatore ha eliminato i suoni nel mezzo o alla fine di una parola. Inoltre, la tecnologia si è stata meno reattiva se due suoni erano simili, come /p/ e /b/. Complessivamente, il decodificatore è stato accurato nel 40% dei casi. Può sembrare un punteggio modesto, ma è piuttosto rilevante se si considera che simili abilità tecniche di brain-to-speech richiedono ore o giorni di dati da cui attingere.
L’algoritmo di decodifica vocale utilizzato da Duraivel, tuttavia, lavorava con soli 90 secondi di dati vocali provenienti dal test di 15 minuti. Duraivel e i suoi mentori si sono, ora, dichiarati entusiasti di realizzare una versione senza fili del dispositivo grazie a una recente sovvenzione di 2,4 milioni di dollari del National Institutes of Health. “Stiamo sviluppando lo stesso tipo di dispositivo di registrazione, ma senza fili”, evidenzia Cogan. “Sarete in grado di muovervi e non dovrete essere legati a una presa elettrica, il che è davvero entusiasmante”, aggiunge Cogan. Sebbene il loro lavoro sia incoraggiante, c’è ancora molta strada da fare perché la protesi vocale di Viventi e Cogan arrivi presto sul mercato. “Siamo al punto in cui è ancora molto più lento del parlato naturale – specifica Viventi – ma si vede la possibile traiettoria d’arrivo”.