TOBI (Tools for Brain-Computer Interaction, e cioè “Applicazioni per l’Interazione Cervello-Computer”) è un progetto di ricerca scientifica finanziato dalla Comunità Europea, partito nel 2008 e con data di scadenza nel 2012. Oggi che siamo a metà corsa possiamo iniziare a capire con chi ne è coinvolto di che cosa si tratta e quale tipo di nuove prospettive possa aprire per le persone con disabilità. In questo mese di dicembre, infatti, si è tenuto a Roma, al Centro Congressi della Fondazione Santa Lucia, un workshop in cui i partner hanno presentato i risultati delle rispettive sperimentazioni. Ambizione dell’incontro è stata principalmente quella di concretizzare la possibilità di utilizzo delle nuove tecnologie da parte degli utenti.
Si tratta di un obiettivo non ancora pienamente raggiunto, ma il coordinamento generale della ricerca ha voluto sottolineare che il fine principale della stessa è proprio questo e, successivamente a questo, anche quello di dialogare con l’industria per commercializzare i prototipi via via messi a punto. A dicembre sono state affrontate anche le questioni neuretiche, perché lavorare per il Progetto TOBI significa esplorare i confini fra l’uomo e la macchina. La neuretica, infatti, è una disciplina recente che si sta sviluppando con modalità simili a quelle della bioetica, solo che si occupa di approfondire le questioni relative alle ricerche scientifiche sulle tecnologie robotiche e su tutto ciò che riguarda la compenetrazione della tecnologia con il cervello umano e le terminazioni nervose.
Ma cosa sono esattamente le BCI, e cioè le Brian-Computer Interfaces? Ne parliamo con Donatella Mattia, neurologa e neurofisiologa della Fondazione Santa Lucia, responsabile del laboratorio interno di BCI e responsabile scientifico della Fondazione per il Progetto TOBI. «Si tratta – ci spiega – di interfacce che mettono in comunicazione diretta il cervello con il computer. Attraverso il pensiero, cioè, l’uomo può entrare in contatto con il computer grazie a degli strumenti che lo decodificano».
Come funziona più precisamente un’interfaccia BCI?
«Il cervello lavora attraverso segnali elettrici inviati da una cellula all’altra. Noi captiamo questi segnali con l’elettroencefalografo, che è un esame diagnostico utilizzato da ormai sessant’anni, in grado di captare le onde del segnale cerebrale che, però, si modificano continuamente anche in relazione ai compiti più o meno complessi che vengono affidati al soggetto. Quando ci si concentra su uno specifico movimento, invece, la modifica dell’onda diventa stabile ed è quindi facilmente intercettabile dall’elettroencefalografo che a quel punto la invia al computer, dove avviene la decodifica attraverso degli algoritmi. Il risultato finale è che il pensiero intercettato dall’elettroencefalo è arrivato al computer che l’ha tradotto ed è quindi in grado di comprenderlo. In questo modo si possono pensare degli ordini specifici che il computer esegue».
Quale utilità potranno avere queste ricerche per le persone con disabilità?
«Utilità legate soprattutto alla comunicazione, alla mobilità e al movimento. Per quanto riguarda la prima mi rivolgo soprattutto all’utilizzo di una tastiera virtuale per accedere a internet, utilizzare la posta elettronica, il telefono, inviare sms e controllare l’ambiente, disponendo l’accensione di luci, l’apertura di porte eccetera. Abbiamo intenzione di produrre interfacce comode e multimodali, in grado cioè di reagire a stimoli visivi, uditivi e vibrotattili».
E per quanto riguarda la mobilità e il movimento?
«Stiamo mettendo a punto un robot mobile equipaggiato di monitor e videocamera che può essere comandato con il pensiero, per effettuare esplorazioni ambientali di vario tipo. Anche le carrozzine elettriche computerizzate possono venire comandate con il pensiero da persone con mobilità residua nulla o minima. Contemporaneamente, stiamo anche sviluppando delle neuroprotesi, e cioè ortesi integrate con elettrodi di stimolazione della mano e del gomito, rispettivamente per le prese e il raggiungimento di oggetti. In questo caso si ha un vero e proprio recupero motorio. Provo a spiegare come funziona.
Il nostro cervello normalmente manda dei comandi alla mano perché compia un movimento. I muscoli per contrarsi hanno cioè bisogno di un comando che parte dall’area motoria primaria del cervello. In casi come quello dell’ictus, il muscolo non si contrae più perché il cervello non funziona, ma il muscolo di per sé è ancora perfettamente sano. Quindi, se applichiamo degli elettrodi esterni sui muscoli che ricreano i circuiti neuronali che ordinano al muscolo il movimento, questo lo esegue. Chiaro che stiamo parlando di situazioni in cui il soggetto è cosciente e in grado di immaginare i movimenti».
Ci sono delle differenze a seconda dei tipi di lesione?
«Se la lesione o la malattia è tale per cui i muscoli non possono più supportare il movimento, allora anche se metto gli elettrodi il muscolo resta comunque incapace di muovere il braccio. Il muscolo ha perso la sua capacità fisica di contrarsi e non c’entrano più gli impusi neuronali».
Bisognerebbe inserire un braccio bionico?
«Ad oggi l’innesto di braccio meccanico sta ancora muovendo i primi passi a livello di ricerca e comunque non rientra nella nostra specifica linea di ricerca. Noi con TOBI non vogliamo sostituirci al braccio del soggetto, ma vogliamo che il cervello umano sia in grado di comandare il proprio braccio attraverso il supporto di un’interfaccia».
Quindi, l’uomo pensa a un movimento e il computer lo fa eseguire all’arto? È così semplice?
«Sì. Non avviene in automatico, certo, e anzi occorre allenare il pensiero e renderlo chiaro, forte e direttivo. Immaginare con chiarezza un movimento è un’attività utile a prescindere dall’utilizzo delle neuroprotesi: infatti, la tecnologia riabilitativa del BCI – tesa al recupero motorio – lavora proprio sull’immaginazione del movimento, perché si è scoperto che la pratica mentale di azioni motorie induce un’attivazione delle connessioni sensomotorie affette dalla lesione».
Può spiegarci meglio?
«Il BCI può offrire due tipi di riabilitazione diversa. O l’interfaccia fornisce un canale nuovo che sostituisce quello che hai perso o stai perdendo (ad esempio come avviene nelle malattie neuromuscolari degenerative). Oppure può aiutare il recupero fisiologico del cervello umano. È il caso ad esempio dell’ictus. Si è visto che la perdita dell’utilizzo di un braccio e/o di una gamba possono venire parzialmente e progressivamente recuperati perché il cervello si adatta alla nuova situazione e produce dei meccanismi di compenso. Questi meccanismi di recupero possono essere aiutati da BCI, inserendoli in un programma riabilitativo. Le neuroscienze hanno dimostrato che quando vogliamo muovere un arto si attivano alcune zone specifiche del nostro cervello e anche se ci limitiamo a immaginare quel medesimo movimento, vengono attivate le stesse identiche zone. Attraverso sessioni di BCI si possono fare esercizi di immaginazione motoria che rafforzano i meccanismi di recupero. La mental practice è una tecnica nota ad esempio agli sportivi, che si preparano alla gara immaginandola e immaginando in particolare i movimenti e la reattività del fisico durante l’attività agonistica».
Avete individuato altre funzioni possibili delle BCI?
«Più avanti svilupperemo delle tecniche per la visualizzazione e la selezione di foto e per la navigazione e la scelta delle musiche. Vogliamo permettere l’interazione con i social network e creare giochi anche di gruppo. Lo scopo non sarà solo quello di intrattenere, ma anche di allenare il cervello all’uso stesso delle interfacce cervello-computer».
Questo tipo di ricerche si stanno effettuando in tutta Europa?
«Si parla di BCI negli Stati Uniti da quindici, vent’anni. Lì ci sono già due gruppi di ricerca che hanno validato clinicamente il BCI sui pazienti. Altri due risultano in Europa, uno in Germania e l’altro in Austria. In Italia si parla di BCI da questo millennio e i primi a fare ricerca su questo tema siamo stati noi. La Fondazione Santa Lucia coordina un progetto pionieristico, ASPICE (Assistive System for Patient’s Increase of Communication, ambient control and mobility in absence of Effort), finanziato dalla Fondazione Telethon, grazie al quale possiamo esplorare questo settore ancora giovane delle applicazioni tecnologiche».
A che punto è oggi il Progetto TOBI?
«Partito il 1° novembre 2008, durerà fino al 2012. Ogni gruppo che partecipa sta producendo risultati propri che, in occasioni come quella di questo dicembre, presenta agli altri partner. Oggi siamo in grado di scrivere con le lettere dell’alfabeto, possiamo far funzionare delle applicazioni domotiche e controllare un piccolo robot».
Quando gli utenti potranno andare in un negozio ad acquistare oggetti da voi prodotti e per loro utili?
«Stiamo lavorando proprio su questo ora. Dobbiamo cercare di mettere a punto oggetti semplici, funzionali, robusti e socialmente accettabili. Attualmente l’elettroencefalo è un casco molto visibile. Vogliamo implementare i sensori affinché funzionino in modo più specifico e ne servano di meno. Allora si potranno nascondere tra i capelli e magari funziare in modalità wireless, “senza fili”. Il computer portatile che attualmente utilizziamo non è indossabile, invece vorremmo che il nostro software fosse contenuto in un supporto più piccolo, indossabile.
In ogni caso, da quando il Progetto TOBI sarà concluso, ci vorrà un’altra decina d’anni per arrivare ai negozi, credo. Noi facciamo il prototipo e vendiamo il brevetto. Industrializzazione e commercializzazione escono dalle nostre competenze».
I costi saranno elevati?
«Come dicevo, non sarò coinvolta in questi passaggi. Ma la sfida è quella di creare oggetti accessibili, anche economicamente, a tutti. La sanità è un bene pubblico e in TOBI sono coinvolti anche dei partner industriali il cui ruolo è proprio quello di verificare che noi scienziati non prendiamo strade che poi non possano venire sfruttate industrialmente».
Oggi un computer riesce a leggere la mente che ordina ad esso di accendere o spegnere una luce. In futuro sarà in grado di decifrare pensieri complessi? Ci saranno problemi di, diciamo così, “invasione di privacy” del pensiero? È di queste questioni che si occupa la neuretica?
«Il nostro cervello non funziona a compartimenti stagni. Le nostre interazioni con il mondo esterno sono composte da un’armoniosa interazione di diverse zone del cervello. A oggi non siamo in grado di intercettare onde tanto complesse e sovrapposte. E poi ci sono i comandi degli atti riflessi, quelle azioni che compiamo in automatico, mentre pensiamo a qualcos’altro. Le nostre interfacce non li riconoscono. Per dire all’interfaccia di accendere la luce, occorre concentrarsi e formulare chiaramente questo pensiero. Occorre cioè esercitare la capacità di concentrazione mentale sul comando. Uno dei partner di TOBI, comunque, è un gruppo tedesco di studiosi di bioetica. Il loro incarico è proprio quello di sollevare una serie di questioni dal punto di vista etico e analizzare le possibili risposte».
È possibile che le interfacce abbiano effetti collaterali dannosi?
«Qualunque oggetto o nuova tecnologia è una novità per il nostro cervello e ad essa si deve adattare, perché l’essere umano adatta il suo comportamento all’ambiente esterno, come quando abbiamo imparato a usare la tecologia t9 nel telefono cellulare, o quando abbiamo preso confidenza per la prima volta con la tastiera del computer. Il cervello deve imparare come interagire anche attraverso questa nuova tecnologia. È troppo presto per sapere se e come queste attività modificheranno la struttura del cervello. Fa parte dell’ambito etico capire che tipo di modifiche ci potranno essere per le funzionalità del cervello e se si potranno profilare danni di qualche tipo».
Fate esperimenti anche con gli animali?
«Non c’è nessun passaggio che coinvolge gli animali, che invece vengono utilizzati per capire il funzionamento del cervello. In alcuni esperimenti hanno impiantato degli elettrodi direttamente nel cervello di alcuni animali, ma si tratta di un percorso che invece noi non stiamo seguendo. Se anche funzionasse, comporterebbe un’operazione al cervello che, al momento, dovrebbe ripetersi ogni volta che gli elettrodi si sono deteriorati. Non siamo ancora in grado di stabilire che tipo di lesioni a lungo termine possano presentarsi».
I vostri studi si concentrano solo sulle onde cerebrali?
«No, cerchiamo di sfruttare anche altri segnali, come quelli muscolari residui quando ci sono. Specie nel feedback, ci interessa sperimentare anche impulsi vibratori in altre parti del corpo. Mi spiego. Finora nel BCI il soggetto deve sapere quello che succede dopo che ha dato il comando. Deve avere un ritorno, il feedback, appunto. Cioè, mentre mi esercito a controllare con la mente un cursore su uno schermo, devo poter sapere se sto andando bene o male e questo è fondamentale, altrimenti non imparo. Oggi usiamo segnali visivi. Ad esempio, sullo schermo le icone si accendono o il cursore si muove. Ma ci siamo chiesti se è possibile eliminare il monitor del computer e predisporre uno stimolo tattile, come potrebbe essere una maglietta con dei cursori che vibrano». (Barbara Pianca)
*Neurologa e neurofisiologa della Fondazione Santa Lucia di Roma, responsabile del laboratorio interno di BCI (Brian-Computer Interface) e responsabile scientifico della Fondazione per il Progetto TOBI.
Articoli Correlati
- Ferve il dibattito sulla Convenzione nei vari Paesi del mondo Al momento di sottoscrivere e poi di ratificare la Convenzione ONU sui Diritti delle Persone con Disabilità, ogni Stato membro delle Nazioni Unite può accompagnare questo atto con una Riserva…
- La tecnologia di oggi e le rivoluzioni di domani «Sembra futuro, ma non lo è», ha dichiarato il ricercatore protagonista di una delle più rivoluzionarie novità tecnologiche - rivolte alla vita delle persone con disabilità - presentate alla recente…
- La Convenzione dev’essere il faro per chi elabora ogni politica sulla disabilità «I princìpi della Convenzione ONU sui Diritti delle Persone con Disabilità devono essere il faro per chi elabora le varie politiche, a livello nazionale e internazionale, perché a 12 anni…