stephen hawkins intel voce
Mytech

Tecnologia e salute: come Intel ha aiutato Stephen Hawking

Sensori a infrarossi, app famose su smartphone e un codice aperto. Così l’analisi predittiva permetterà ai tetraplegici di esprimersi meglio

Comunicare e farsi capire non è semplice per chi soffre di patologie del motoneurone o di tetraplegia, come il professor Stephen Hawking. Vivere in una condizione che pone forti limiti alle capacità motorie, rendendoti quasi paralizzato, è una situazione invalidante, che la tecnologia può tentare di rendere meno dura. C’ha provato Intel, che da più di venti anni lavora proprio con Hawking per studiare le modalità con cui migliorare la comunicazione di chi si ritrova a non potersi esprimere con la propria bocca.

Negli ultimi due decenni un team di ingegneri di Intel si sono focalizzati sul rapporto intricato tra uomo e macchina, ovvero su come trovare un punto di incontro tra le esigenze delle persone e ciò che un computer può offrire, notoriamente qualche manciata di bit. La collaborazione ha permesso ad Intel di aggiornare il sistema di comunicazione di Stephen Hawking, vecchio di almeno venti anni, per permettere di esprimersi in modo più naturale e veloce, così da continuare a svolgere le sue normali attività quotidiane, tra il lavoro e il tempo libero.

Wired USA ha raccontato cosa c’è dietro il nuovo strumento di analisi vocale prodotto da Intel. Quello che sappiamo è che in fase di test l’aggiornamento veniva chiamato ASTER, ovvero Assistive Text Editor, e venne presentato ad Hawking da Pete Denman, un interaction designer dell’azienda. “Il tuo software è un tantino datato – spiegò il ragazzo al professore – per questo abbiamo pensato ad un nuovo modo con cui vengono mostrate le parole predette, così da facilitare e rendere il tutto più veloce”. Nella sua versione finale, la nuova interfaccia utente è conosciuta come ACAT, Assistive Contextually Aware Toolkit.

Senza snaturare il metodo utilizzato per anni da Hawking, Intel ha realizzato una piattaforma più moderna, veloce e accurata della precedente. Parlando  di numeri, Bloomberg afferma come adesso il professore di Cambridge possa digitare, con il sensore posto su una guancia, ad una velocità doppia rispetto al passato e compiere attività quotidiane, come la navigazione sul web, l’editing di documenti e il passaggio da una finestra all’altra con una tempistica dieci volte minore. Il tutto è semplificato da un sensore a infrarossi montato sugli occhiali di Hawkins, che permette di supportare l’individuazione degli elementi sullo schermo assieme allo spostamento della guancia. Programmi come la tastiera predittiva SwiftKey, già conosciuta da chi possiede uno smrtphone o tablet, permettono di digitare meno caratteri per completare un discorso, così da inviare prima le informazioni al sintetizzatore vocale connesso al computer.

La piattaforma proposta da Intel diventerà disponibile gratuitamente per i ricercatori e gli sviluppatori a partire dal gennaio 2015, con la speranza che possa rappresentare la base per un sistema moderno di comunicazione per chi soffre di problemi neuronali e tetraplegici. Non a caso il pacchetto sviluppato da Intel può essere personalizzato per necessità e persone diverse grazie all’abilitazione automatica al tatto, movimenti degli occhi, sopracciglia e altri input comunicativi. 

© Riproduzione Riservata

Commenti