Progetto CapisciAMe

Abstract

Le attuali tecnologie di riconoscimento vocale disponibili nelle piattaforme di virtual assistants, come Google Assistant o Amazon Alexa, consentono di usare la propria voce per controllare sistemi domotici e\o accedere ai dispositivi informatici. Purtroppo, questa forma di interazione si rivela inaccessibile per le persone con disartria, un disturbo neuromotorio del linguaggio ma spesso associato a problemi fisici conseguenti a tetraparesi, SLA, esiti di ictus ed altre tipologie di disturbi degenerativi.. La disartria è caratterizzata da una grande variabilità del linguaggio (intra ed inter utenti) e ciò, insieme alla scarsissima disponibilità di contributi vocali di persone con disartria, è causa di un bassissimo livello di comprensione da parte dei virtual assistants. Paradossalmente sono proprio coloro che ne avrebbero un aiuto decisivo sono coloro a cui è di fatto precluso l’uso. Il progetto “CapisciAMe” usa il machine learning per realizzare soluzioni altamente personalizzate di riconoscimento vocale per persone con disartria. Le tecniche impiegate permettono di riconoscere un set limitato di parole quando sono pronunciate da chi ha contribuito, con la sua voce, al training del sistema di intelligenza artificiale. Per rendere più agevole la raccolta delle voci, è stata sviluppata una app gratuita, denominata “CapisciAMe”, che consente alle persone con disartria di usare uno smartphone per registrare i propri campioni vocali, in modo guidato e il più possibile non stancante. Le registrazioni raccolte serviranno al training di reti neurali specializzate sulle quali è basato poi il riconoscimento. Attualmente le lingue supportate sono l’italiano e l’inglese, ma potenzialmente è estendibile ad altre lingue. Il modello vocale è stato integrato con OpenHab, un framework open source per smart home in esecuzione su sistemi Raspberry, al fine di utilizzare le parole riconosciute per controllare elementi di smart home. Simili risultati sono stati ottenuti attraverso la sua integrazione con Google Assistant. Attualmente il sistema di riconoscimento vocale in tempo reale on edge è in fase di ulteriore implementazione su piattaforme embedded nelle quali si sperimenta la voce per interagire con video games e semplici robot. Ulteriori applicazioni del riconoscimento vocale sono in fase di studio nel settore della logopedia.

Dove

Track 2

Quando

Sabato dalle 14:45 alle 15:30

Speaker:

Davide Mulfari
Ingegnere dell’Università di Messina, responsabile dell’unità "Assistive Technology for Special Needs"
LinkedIn

Foto di Davide Mulfari

Bio:

Ingegnere dell’Università di Messina, responsabile dell’unità “Assistive Technology for Special Needs” che si occupa di applicazioni assistive per studenti e personale universitario. Dottorato di Ricerca in Ingegneria dell’Informazione presso l’Università di Pisa. Laurea Specialistica in Ingegneria Informatica presso l’Università di Messina. Già assegnista di ricerca presso la Facoltà di Ingegneria dell’ateneo messinese. Le sue attività di ricerca si inquadrano nel settore dell’assistive technology e riguardano in questa fase lo studio delle potenziali ricadute dell’intelligenza artificiale e del machine learning nello sviluppo di soluzioni software open source a basso prezzo per persone disabili.