La rivoluzione digitale si fa più inclusiva grazie al primo “Artificial Human” in grado di comprendere e riprodurre la lingua dei segni (LIS). Questo importante risultato è stato raggiunto combinando la tecnologia di QuestIT, azienda italiana specializzata nello sviluppo di tecnologie proprietarie di Intelligenza Artificiale, in partnership con l’Università di Siena e il Consiglio Nazionale delle Ricerche (CNR) e la collaborazione esterna del gruppo SILIS (Gruppo per lo studio e l’informazione della Lingua dei Segni Italiana).
L’obiettivo? Rendere possibile a tutti, senza alcuna esclusione, fruire di servizi e informazioni. E questo grazie all’intelligenza artificiale.
“Per innovare il presente serve tanta ricerca e, soprattutto, la tecnologia giusta“.
Ernesto Di Iorio, CEO di QuestIT
POTENZIARE LA DIGITAL ACCESSIBILITY
Sfruttando la tecnologia è possibile dare l’opportunità a tutte le persone sorde di essere autonome nel fruire di servizi messi a disposizione dai vari enti potenziando la “digital accessibility”. I campi di applicazione passano dalla gestione degli appuntamenti all’ausilio nelle scuole fino alle spiegazioni di mostre.
Ad oggi questo assistente virtuale – che può essere implementato all’interno di siti, applicazioni, etc. – è in grado di offrire delucidazioni specifiche nei vari settori posizionandosi direttamente davanti allo “schermo” e iniziando a dialogare in LIS.
Ernesto Di Iorio, CEO di QuestIT, sottolinea che stanno già lavorando per migliorare e far “evolvere” ulteriormente lo stesso umanoide.
“L’obiettivo è quello di offrire un avatar capace di tradurre simultaneamente le parole in segni. Già oggi, dopo una prima fase di training, è in grado di gestire le richieste della clientela in totale autonomia e offrire così l’assistenza di cui le persone necessitano.
IL PROGETTO
Il progetto è stato strutturato in 3 fasi, ognuna delle quali ha coinvolto un algoritmo di machine learning diverso per la specifica esigenza e, quindi, una differente strategia per l’allenamento:
- riconoscimento del segno statico
- riconoscimento continuo di segni
- traduzione di un’affermazione dalla lingua dei segni al linguaggio naturale e viceversa.
A caratterizzare la Lingua dei Segni sono le diverse sequenze che coinvolgono il movimento di dita, mani e braccia ma che tiene conto anche della posizione generale del corpo e della mimica facciale.
Questo progetto vuole rendere l’Artificial Human in grado di riprodurre e di conseguenza capire tutte queste peculiarità. Compresa la domanda, Algho procederà ad elaborarla e, successivamente, la tradurrà in LIS.
La struttura del dataset che stiamo creando per la Lingua dei Segni italiana è più ricca rispetto a quelle esistenti poiché ad ogni clip è associata la rispettiva traduzione e una sequenza di “glosse”, ciascuna dotata di informazioni riguardano la mimica facciale come il labiale, la posizione delle sopracciglia, la posizione della testa, la postura del corpo, lo spazio in cui le mani si posizionano per segnare etc.
L’introduzione di queste informazioni aiuta l’algoritmo nel migliorare la qualità della traduzione più di quanto attualmente possa fare la singola parola associata al segno.
PER UN WEB PIÙ ACCESSIBILE ED INCLUSIVO
Nel processo di digitalizzazione in corso è fondamentale assicurarsi che gli strumenti che vengono messi a disposizione siano realmente accessibili per tutti. La tecnologia oggi ci permette di abbattere quelle barriere che prima erano insormontabili rendendo il digitale più inclusivo. Per questo occorre l’impegno di tutti, pubblico che privato, in modo da garantire inclusione e accessibilità per tutti.