Tra grandi sfide, vinte e da vincere, e grandi opportunità, l’arma abilitante nella faretra delle persone con disabilità si chiama tecnologia. E oggi queste sfide hanno il nome di intelligenza artificiale e machine learning [sottoinsieme dell’intelligenza artificiale che si occupa di creare sistemi che apprendono o migliorano le performance in base ai dati che utilizzano. N.d.R.] che in un’affascinante corsa e rincorsa stanno cambiando il volto e il futuro di chi vive una condizione di disabilità. Un futuro che forse, e a sorpresa, è scritto anche nei codici dei videogame.
In questo complesso viaggio ci facciamo aiutare da cinque esperti: Alessandro Norfo, Francesco Aleotti e Marco Pasquali del team di ricerca sulle tecnologie assistive e l’accessibilità della Fondazione ASPHI (Tecnologie Digitali per migliorare la Qualità di Vita delle Persone con Disabilità), Nicola Gencarelli, che del team è il responsabile e Pietro Parodi, PR & Communications Leader di Lenovo Italy & Israele.
Innanzitutto, perché si parla tanto di accessibilità digitale?
Marco Pasquali: «È un concetto un po’ ampio, in maniera molto semplice significa dare la possibilità a più persone di accedere ai contenuti. E questa possibilità varia moltissimo sia dalle capacità personali sia dallo strumento che viene usato».
Quindi le componenti in campo sono due: prodotti fisici tipo il PC e software o sistemi operativi?
Nicola Gencarelli: «Aggiungerei i contenuti: prendiamo in considerazione un testo che può essere magari accessibile a livello tecnico, ma inaccessibile come costruzione dell’italiano. O un video che non ha i sottotitoli».
Posso immaginarmi un testo scritto in burocratese?
Nicola Gencarelli: «Sì, una comunicazione istituzionale scritta in modo molto burocratico è sicuramente inaccessibile in senso lato. Non solo per chi ha disabilità, per esempio cognitive, ma per la popolazione in generale e per chi ha più difficoltà».
Per misurare il grado di accessibilità ci sono dei test?
Marco Pasquali: «Per la parte di accessibilità tecnica ci sono delle Linee Guida date dall’AGiD (Agenzia per l’Italia Digitale), seguendo le quali si può realizzare un contenuto accessibile».
Nicola Gencarelli: «Attenzione, però, un sito può essere accessibile e rispettare le regole, ma nonostante questo può essere non usabile. È accessibile perché rispetta i criteri, le regole, ma non è usabile perché ad esempio Francesco, non vedente, ci impiega 40 minuti a fare un’operazione che dovrebbe invece essere fatta in due secondi».
E l’analisi, com’è che viene fatta?
Marco Pasquali: «Prendiamo un campione di pagine che contengano elementi che sono ripetuti in tutto il sito. Si fa prima un’analisi automatica e poi un controllo manuale. Nel secondo passaggio si verificano gli elementi contenuti nel report generato dai controlli automatici».
Francesco Aleotti: «A seguire si fa una verifica dell’usabilità tramite dei compiti dei task, delle operazioni che devono essere eseguibili in modo facile e agevole da parte dell’utente finale».
Nicola Gencarelli: «Aggiungerei che questi test di usabilità in ASPHI sono condotti da persone con disabilità che vanno a coprire uno spettro che va dalla visione ad altri aspetti motori e cognitivi. Non è solo una questione di linguaggio, ma di organizzazione del processo logico con cui mi interfaccio. Pensi a un sistema che legge una bolletta o alla procedura per il passaggio al mercato libero dell’energia, a tutti quei servizi online che se sono organizzati bene per le persone con disabilità, possono andare bene per tutti perché permettono un’organizzazione delle informazioni o delle procedure molto più logiche».
Questo è un lavoro a posteriori, le aziende come procedono per rendere i loro prodotti più accessibili?
Pietro Parodi: «La sfida è dare a tutti accesso alla tecnologia. In Lenovo è un processo iniziato da diverso tempo, disponiamo di un Product Diversity Office, che non è un ufficio, ma un team internazionale che include diverse figure professionali che hanno il compito testare il 75% dei prodotti di Lenovo entro il 2025. È un numero molto ambizioso, visto il vasto catalogo della società. Un percorso che l’utente finale non vede, ma di cui può apprezzare i risultati avendo tra le mani un device più usabile».
Quanti centri di sviluppo avete?
Pietro Parodi: «Sono 18 nel mondo: dalla Silicon Valley al Giappone, dall’Europa alla Cina. E si avvalgono di partnership locali – in Italia, per esempio, con ASPHI – per fare sistema. Uno dei progetti più interessanti viene dal Brasile, dove si è sviluppato un sistema per tradurre in simultanea la lingua dei segni brasiliana in parole o testo e viceversa grazie all’uso dell’intelligenza artificiale».
Quindi un avatar segnante?
Pietro Parodi: «Esatto, e diventerà parte integrante dei nostri sistemi una volta pronto. Si è passati dal programmare i computer a insegnar loro delle istruzioni, il cosiddetto machine learning. Per poi farli esercitare su moli enormi di informazioni, i cosiddetti data set. In realtà il machine learning ha già cambiato le tecnologie assistive».
Nicola Gencarelli: «Ti faccio un esempio. Per i videogiochi, Alessandro Norfo ha sviluppato un sistema che, grazie a una webcam e sfruttando l’intelligenza artificiale, permette di controllare un personaggio di un videogame senza l’uso delle mani. Si usano solamente i movimenti della testa. Fino a qualche anno fa per videogiocare in questa maniera era necessario avere strumenti aggiuntivi che oggi sono già all’interno del computer o della consolle che si usa. È successo lo stesso per il riconoscitore vocale che ormai usiamo tutti per dettare comandi o testi ai PC. Ma qui si aprono delle sfide».
Quali?
Nicola Gencarelli: «Prendiamo ad esempio i riconoscitori vocali. Sono addestrati su dataset di persone standard, tendenzialmente uomini, bianchi, occidentali, abili… La grande sfida è qui: avendo sempre maggiore potenza di calcolo posso addestrare e creare set di dati molto differenti tra loro. Pansa al body tracking, attraverso cui un sistema riconosce i movimenti. Bene questi archivi di gesti sono registrati su corpi “vitruviani”. Ora bisogna allargare questi dati su cui vengono allenati i sistemi e le intelligenze artificiali affinché siano più inclusivi, su corpi e gesti non standard».
Ma perché un’azienda dovrebbe investire e spendere in questo?
Pietro Parodi: «Per permettere agli utenti finali di connettersi ad altre persone. Più la tecnologia è accessibile, più è facile da usare. In questo l’intelligenza artificiale ha un ruolo dirompente. Il tema sarà ridurre al minimo i pregiudizi, dando alle intelligenze artificiali dati di addestramento diversificati e rappresentativi delle differenti condizioni umane».
Quali sono stati gli altri passaggi tecnologici dirompenti per le disabilità?
Francesco Aleotti: «Quando Steve Jobs decise nel 2007 di mettere il lettore di schermo vocale su tutti i dispositivi e quando poi ha creato un’interazione touch screen alternativa che ha dato la possibilità a tutte le persone non vedenti come me di usare lo smartphone con un dito. E poi la rivoluzione delle app e quello della geolocalizzazione. Aggiungerei l’avvento degli Speaker Smart che hanno permesso alle persone con disabilità di sfruttare a pieno la domotica. Da cieco penso alla friggitrice o agli elettrodomestici o ai termostati digitali comandati con la voce. E per chi ha problemi motori, penso a tutti quegli apparecchi che sostituiscono l’azione manuale, per esempio le tapparelle, le luci ad accensione a comando vocale».
E il videogioco di cui abbiamo appena accennato? Alla fin fine anche le persone con disabilità hanno gli stessi desideri degli altri e provano piacere a videogiocare…
Alessandro Norfo: «I videogiochi sono lo stress test per tutti i sistemi di accessibilità. Che cos’è un videogioco? È un artefatto multimediale interattivo, è finalizzato a darti un’esperienza appunto videoludica. Deve essere divertente e appagante. I gamer spesso sono ritratti, giustamente, come concentrati; se guardi un bambino che videogioca lo vedi molto concentrato su quello che sta facendo perché sta facendo tante cose insieme e coordinando tanti input diversi che deve dare al suo videogioco. Secondo me ci sono tre macrotemi: l’accessibilità motoria, sensoriale e cognitiva».
Vale a dire?
Alessandro Norfo: «Chi ha una disabilità motoria usa lo stesso videogioco di altre persone, ma deve adattare i controller, l’adattamento avviene nel mezzo tra la persona e il videogioco. Per la disabilità sensoriale è differente: si può giocare solo se il videogioco spesso è pensato anche per chi non vede. Un esempio banale: ad un movimento è associato un particolare suono o vibrazione. Devi schivare l’attacco di un nemico, devi andare in una certa direzione, devi raccogliere un oggetto, ogni azione corrisponde a un suono diverso. Ci sono poi gli audio game che funzionano anche solo ed esclusivamente con un feedback uditivo. Uno è Space Wave. Funziona così, c’è una navicella spaziale che deve percorrere un percorso come fosse una macchina. Ci sono tre posizioni possibili: destra, sinistra e centro. Il meteorite in arrivo attiva un suono sull’orecchio sinistro o destro e l’utente sposta la navicella di conseguenza. Un altro titolo è Last of Us. Ma gli escamotage sono tanti. Diversi contrasti e colori possono essere usati invece nei casi di ipovisione».
Ma perché è così importante il videogioco?
Nicola Gencarelli: «In primo luogo è uno strumento culturale. Oramai da anni adattiamo i videogiochi per chi ha delle disabilità e ci rendiamo conto come le famiglie non si aspettino che i loro figli possano giocare. Eppure è una delle cose più naturali al mondo. In secondo luogo è uno strumento di socialità, a patto che tutti siano messi in grado di giocare allo stesso livello».
Ma spesso il videogioco è visto come terapia?
Nicola Gencarelli: «In primis è un diritto. I bambini hanno diritto di giocare. Certo ha al suo interno elementi riabilitativi e di apprendimento. Permettere a un bambino con disabilità di giocare ci consente di far scoprire per la prima volta l’uso della tecnologia assistiva. Se tu fai sperimentare a un bimbo, o a un adulto, alcuni strumenti come il controllo per bocca o con la testa o i comandi vocali per sparare in un videogame, puoi star certo che successivamente questi controlli poi sarà più facile introdurli nella vita quotidiana, per comandare ad esempio un computer o la domotica».
Un esempio?
Nicola Gencarelli: «Pensi ai bambini con disabilità motorie o con disabilità cognitiva motoria, che non comunicano verbalmente, che devono imparare a usare il controllo oculare. Prima di usarlo è necessario calibrarlo con una procedura noiosa per un bambino: guarda a destra, in alto ecc. Una procedura che magari il bambino non ha alcun interesse a fare. Se invece la procedura viene sostituita da un gioco studiato ad hoc, è molto più rapida e precisa. Poi il controllo oculare, una volta che il bambino ha imparato ad usarlo, lo potrà sfruttare in tutto, dal videogioco alla scrittura…».
Quando avete iniziato?
Nicola Gencarelli: «Una delle prime esperienze con il videogioco è stata nel 2015, quando ci hanno chiamato per aiutare un ragazzo ricoverato presso l’Ospedale Riabilitativo Montecatone a Imola (Bologna). Eravamo andati a mostrargli come comandare il telefono. Era rimasto tetraplegico. Ci guarda e ci dice: “Va bene la domotica, ma io ero campione italiano di FIFA [videogiochi di calcio, N.d.R.]”. Non si trattava di farlo giocare, quindi, ma di farlo competere ad altissimo livello. E ci siamo riusciti».