fbpx
FeaturedNewsTech

Siri e Alexa riconosceranno le persone con disturbi del linguaggio

L'accessibilità e l'inclusività sono fondamentali e dovrebbero essere una priorità per le aziende tecnologiche

Essere in grado di comunicare è un elemento fondativo, è la base di ogni rapporto, è il mezzo attraverso cui si instaurano relazioni, è condividere qualcosa con un interlocutore. La maggior parte degli aspetti della vita implica la comunicazione con gli altri e l’essere compresi.

Ogni giorno siamo abituati ad utilizzare i comandi vocali per interagire con gli assistenti digitali, come Siri e Alexa, e soprattutto diamo per scontato che tutti possano farlo. Eppure ci sono molte persone che non possono perché convivono con disturbi del linguaggio. L’estrema difficoltà e la frustrazione che deriva dal constatare che le persone, e le tecnologie, che ti circondano non riescano a capire il modo in cui parli o ti esprimi, può coincidere con una realtà complessa e con la convivenza con disturbi del linguaggio causati da condizioni neurologiche differenti.

L’accessibilità e l’inclusività sono fondamentali e dovrebbero essere una priorità per le aziende digitali. Le persone con disabilità uditive, visive, della parola, motorie e cognitive dovrebbero essere incluse nel processo tecnologico. Gli assistenti vocali spesso non riescono a comprendere le persone con disartria o balbuzie. Per questo motivo è in atto l’elaborazione di algoritmi più complessi che permetteranno ad assistenti virtuali, come Siri e Alexa, di riconoscere le parole pronunciate lentamente o in modo poco chiaro. Google, ad esempio, nel 2019 ha lanciato Project Euphonia per contribuire a rendere l’interfaccia utente più accessibile alle persone con disturbi del linguaggio: “Il progetto Euphonia è una ricerca sull’intelligenza artificiale di Google che cerca di aiutare gli utenti con problemi di linguaggio a comunicare più velocemente e ottenere l’indipendenza”.

Siri e Alexa riconosceranno le persone con disturbi del linguaggio

Siri e Alexa

Il team del progetto Euphonia sta usando l’IA per migliorare le capacità dei computer di comprendere meglio le richieste; scopo del progetto è rilevare diversi modelli di linguaggio, collaborare con le organizzazioni no profit, come ALS Therapy Development Institute (ALS TDI) e ALS Residence Initiative (ALSRI), per registrare le voci delle persone affette da SLA, conoscere le esigenze di comunicazione delle persone con disabilità e disturbi del linguaggio e lavorare all’ottimizzazione degli algoritmi basati sull’intelligenza artificiale in modo che smartphone e computer possano trascrivere in modo più affidabile le parole pronunciate.

Anche Amazon ha annunciato una collaborazione con la startup Voiceitt, una startup israeliana, che consente alle persone con disturbi del linguaggio di addestrare un algoritmo per riconoscere i propri modelli vocali. L’integrazione, prevista per i prossimi mesi, consentirà alle persone con disturbi del linguaggio di utilizzare i dispositivi Alexa parlando nell’applicazione Voiceitt.

Google è una delle numerose società tecnologiche che sta cercando di formare assistenti vocali a cui possano accedere tutti. L’iniziativa del progetto Euphonia di Google sta testando un prototipo di app che consente alle persone con un disturbo del linguaggio di comunicare con l’Assistente Google e i prodotti di Google Home, addestrando software per comprendere i loro modelli dialettici.

L’accessibilità e l’inclusività sono fondamentali e dovrebbero essere una priorità per le aziende tecnologiche

Apple ha affermato che la sua funzione Hold to Talk, introdotta sui dispositivi portatili nel 2015, consente già agli utenti di controllare per quanto tempo desiderano che l’assistente vocale Siri rimanga in ascolto, impedendo all’assistente di interrompere gli utenti che hanno una balbuzie prima che abbiano finito di parlare. L’azienda di Cupertino, per supportare questa tecnologia in maniera sempre più ampia, sta estraendo campioni audio da Apple Podcasts che aiuteranno Siri a comprendere più tipi di discorso.

Secondo un rapporto del Wall Street Journal, Apple ha creato una banca di 28.000 clip audio presi da podcast in cui parlano persone che balbettano, così da poter utilizzare questi dati per addestrare ‌Siri‌. Le persone che lavorano nell’accessibilità vocale affermano che la tecnologia solo di recente è diventata abbastanza sofisticata da tentare di gestire le complessità del linguaggio non standard. Molte aziende tecnologiche non stavano dando così tanta importanza al design inclusivo quando sono stati costruiti i primi assistenti vocali. La formazione degli assistenti vocali come Siri e Google Assistant potrebbe migliorare l’esperienza di riconoscimento vocale per tante persone, inclusi gli anziani con malattie degenerative. Tante persone, con vite differenti e quotidianità diverse, rischiano di essere lasciate indietro dalla tecnologia dell’assistenza e del riconoscimento vocale; anche per questo le aziende tecnologiche, tra cui Apple e Google, stanno lavorando per migliorare i loro assistenti digitali.

Quando grandi aziende come Google e Apple danno voce alle persone con disabilità nel progettare l’architettura e le tecnologie del futuro, è estremamente significativo e rilevante per tutti; è un processo che porta automaticamente ad avere più fiducia nel futuro e nell’era dell’intelligenza artificiale. 

Ti potrebbero interessare anche:

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Back to top button