L’Intelligenza Artificiale per l’Accessibilità: Microsoft Italia premia i progetti vincitori dell’hackathon AI for Inclusion

Milano, 31 maggio 2024 – Microsoft Italia ha annunciato i vincitori di “AI for Inclusion”, hackathon per lo sviluppo di progettualità basate su soluzioni di AI generativa per valorizzare la diversità e promuovere una maggiore accessibilità nel mondo delle aziende e nella società. L’azienda conferma così il proprio impegno nel promuovere l’inclusione e l’equità sociale attraverso il digitale.

L’iniziativa è nata per supportare l’ideazione, la creazione e lo sviluppo di idee e progetti che facciano leva sul digitale per promuovere l’inclusione sociale e ridurre così le barriere in ambiti specifici. Aperta ad aziende, startup, associazioni e mondo accademico, l’hackathon ha messo a sistema competenze, skill e know-how per realizzare soluzioni innovative a supporto del percorso di inclusione delle persone con disabilità e con disturbi specifici dell’apprendimento.

VOXme, ConWEB, ai4Sign, 4AllAVATAR e Piattaforma Video INAIL, sono i progetti vincitori rispettivamente nelle categorie di competenza, ognuna dedicata a uno specifico ambito: mobilità, vista, udito, disabilità o neurodivergenze invisibili (apprendimento e salute mentale), disabilità trasversali. Le idee proposte sono state valutate, sulla base di criteri quali la fattibilità tecnica, l’impatto sulla società, il modello di business, l’innovazione tecnologica e sociale da una giuria composta da esperti Microsoft, aziende, mondo accademico e associazioni che hanno aderito all’iniziativa.

Categoria Mobilità:  VOXme, Digitec

(Team vincitore: Giorgio Codara, Federica Conca, Samuele Dante, Luca Palmulli, Enrico Passoni, Cristiano Paruzzi, Fausto Re, Simone Re, Viviana Sabadini, Davide Vettorell)

VOXme è un tool di comunicazione verbale e para-verbale concepito per persone con difficoltà di espressione come individui con paralisi alle corde vocali, sopravvissuti a ictus, autistici, pazienti con sclerosi multipla o amiotrofica laterale e persone affette da sindrome di Rett: si tratta di una soluzione innovativa progettata per dare (o ri-dare) loro una voce.

Il cuore di VOXme è costituito da tecnologie avanzate capaci di raccogliere l’input attraverso eye-tracking, per consentire la scrittura tramite il movimento degli occhi, e il text-to-speech, per trasformare il testo scritto in output sonoro, integrando funzionalità quali text prediction, text generation e retrieval-augmented generation.

Le principali caratteristiche di VOXme includono:

  • Input accelerato del testo tramite tracciamento oculare: attraverso l’eye-tracking assistito, facilita la trasmissione dei pensieri, ottimizzando l’immissione e fluidificando la comunicazione.
  • Assistenza alla comunicazione e alla conversazione: è arricchita dalle esperienze personali dell’utente che consentono di suggerire frasi pertinenti al contesto e gli interlocutori ed inoltre di simulare conversazioni con un assistente virtuale.
  • Personalizzazione della voce: è in grado di creare una voce sintetica che rispecchia il timbro, il tono e l’accento dell’utente, offrendo un’esperienza di comunicazione autentica.

Categoria Vista: ConWeb, Politecnico di Milano

(Team vincitore: Ludovica Piro, Emanuele Pucci, Roberto Ricci, dottorandi di ricerca presso il laboratorio HINT Lab (https://hintlab.polimi.it/) del Politecnico di Milano, e Roberto Ricci, Tesista Magistrale presso il laboratorio HINT Lab del Politecnico di Milano)

ConWeb è un’architettura software che sfrutta le ultime tecnologie AI per permettere agli utenti di esplorare una pagina web tramite conversazione.

ConWeb riesce a trasformare il contenuto statico di una pagina web in una conversazione, e lo fa seguendo dei pattern conversazionali che sono stati disegnati proprio grazie a studi con utenti non vedenti ed ipovedenti. L’utente non deve fare altro che attivare l’estensione ConWeb e “parlare” con la pagina, esplorando le varie sezioni, salvando contenuti per accedervi successivamente e cercando le informazioni di cui necessita.

 

Categoria Udito: AI4Sign, CLOUDIA RESEARCH

(Team vincitore: Paolo Asnaghi, Marco la Camera, Mattia Chistolini, Camilla Colombo, Natalia Colombo, Giuseppe Cotroneo, Alice Pastore, Dario Ragusa)

ai4Sign è un servizio che permette agli utilizzatori di lingua dei segni di comunicare in modo più agile ed efficace perché traduce il linguaggio dei segni in parole scritte e voce in tempo reale, abbattendo le barriere della comunicazione e rendendo possibile un’interazione fluida e inclusiva tra persone che utilizzano linguaggi diversi. Basta inquadrare la persona che sta usando il linguaggio dei segni con la fotocamera dello smartphone, tablet o laptop. L’intelligenza artificiale di ai4Sign si occuperà del resto, traducendo i gesti in parole scritte e voce in modo rapido e preciso.

Il servizio utilizza modelli d’intelligenza artificiale sia nell’interpretare i segni, sia per rielaborare il risultato della traduzione per ottenere un testo sintatticamente corretto, poiché la lingua dei segni può avere una sintassi differente dalla lingua italiana. Per agevolare gli studi sulla lingua dei segni ai4Sign mette a disposizione tutti i dati generati, linguistici o geografici, dall’app per scopi accademici.

Categoria Disabilità Invisibili: 4AllAvatar, Politecnico di Milano

(Team vincitore: Ludovica Cova, Romane Kulesza, Jana Penic, Haotian Zhang studenti presso il Politecnico di Milano)

4AllAvatar è un’innovativa estensione del browser progettata per migliorare l’accessibilità ai siti web per quegli individui con difficoltà di attenzione come l’ADHD, rendendoli di più immediata comprensione attraverso la creazione di un video esplicativo raccontato da un avatar. Sviluppato da un gruppo di studenti del Politecnico di Milano, questa soluzione integra vari componenti tecnologici per ottimizzare l’esperienza di lettura online.

Il funzionamento del 4AllAvatar inizia con un middleware in Python che cattura automaticamente il contenuto delle pagine web usando tecniche di web scraping. Il contenuto estratto viene quindi formattato e inviato al servizio ChatGPT, che lo condensa per evidenziarne i punti chiave e renderlo più comprensibile. Successivamente, il testo condensato viene inviato a Azure Speech Studio, dove viene trasformato in un video dinamico tramite sintesi vocale. Un avatar animato narra e illustra il contenuto nel video, migliorando l’interattività e la comprensione. L’interfaccia utente ridisegna il sito web per includere l’avatar, offrendo una navigazione user-friendly e un accesso facilitato ai contenuti.

Categoria Disabilità Trasversali: Piattaforma Video INAIL

(Team Vincitore: INAIL in collaborazione con Almaviva e Almawave)

Il progetto mira a trasformare l’interazione con i contenuti digitali, rendendola più inclusiva e accessibile.

Attraverso l’uso di tecnologie avanzate di AI e soluzioni di interfaccia utente personalizzate, la piattaforma si propone di abbattere le barriere e permettere a tutti gli individui, inclusi quelli con disabilità o neurodivergenze, di sfruttare appieno il potenziale dei media digitali.

La piattaforma è dotata di funzionalità intuitive che facilitano l’interazione per utenti con diverse esigenze, promuovendo un’esperienza utente senza precedenti nel campo dell’accessibilità digitale, tra cui:

  • Un hub unico per contenuti video, facilitando l’accesso e la scoperta di materiali diversificati da parte degli utenti, indipendentemente dalle loro abilità fisiche o neurologiche.
  • La trascrizione automatica per tutti i video dell’hub, al fine di rendere il contenuto accessibile e ricercabile.​
  • Un processo di Pubblicazione Integrato ovvero l’implementazione di un sistema che permetta agli utenti redattori di gestire il flusso di pubblicazione non solo internamente ma anche su piattaforme esterne come Vimeo e YouTube, promuovendo una distribuzione accessibile e inclusiva.
  • ricerca avanzata utilizzando il linguaggio naturale, per consentire agli utenti di trovare facilmente i contenuti desiderati.

Obiettivo futuro dell’iniziativa quello di sviluppare un umano digitale capace di trascrivere i contenuti video in LIS (linguaggio dei segni) in sincrono rispetto allo streaming del video.

I team vincitori per ciascuna categoria si sono aggiudicati un riconoscimento esperienziale, ovvero visite alle sedi, laboratori e stabilimenti delle realtà partner che sfruttano tecnologie innovative, percorsi di formazione sia a tema innovazione digitale sia inclusione sociale, accesso a eventi e momenti di networking sulle tematiche della Diversity & Inclusion.

L’annuncio è avvenuto durante un evento presso il Politecnico di Milano, che ha promosso la Call for Ideas dell’hackathon fra i suoi studenti e ricercatori, in cui Microsoft Italia insieme a istituzioni, aziende, startup, NGO e associazioni si è confrontata sul ruolo del digitale quale abilitatore di inclusione sociale in grado di valorizzare il talento e la diversità in azienda. L’evento ha visto anche la partecipazione del Ministro per le Disabilità, Alessandra Locatelli:

“Quando parliamo di persone con disabilità, oggi, vogliamo più che mai fare un salto di qualità e di civiltà: passare dal tema dell’assistenzialismo attraverso l’inclusione ma soprattutto alla valorizzazione delle competenze di ogni persona. Dobbiamo sviluppare insieme percorsi che siano sempre più accessibili anche dal punto di vista della digitalizzazione. Non solo per eliminare le barriere fisiche nella mobilità e nei trasporti ma anche per eliminare barriere sensoriali o di comunicazione e informazione, ecco perché anche nel corso del prossimo G7 Inclusione e disabilità che si svolgerà in Umbria dal 14 al 16 di ottobre, ho deciso di trattare come priorità il tema delle nuove tecnologie e dell’intelligenza artificiale”.

Attraverso l’Hackathon AI for Inclusion abbiamo voluto promuovere lo sviluppo di idee e progetti in grado di trasformare radicalmente il modo in cui le persone con disabilità o neurodivergenze possono far leva sulla tecnologia perché siamo convinti che l’innovazione digitale possa essere un motore di cambiamento sociale positivo. L’AI, in questo processo, può essere un potente abilitatore di inclusione sociale, perché migliora l’integrazione sia nella vita sociale sia lavorativa. L’obiettivo è creare un mondo in cui ogni individuo possa sfruttare appieno il proprio potenziale attraverso la tecnologia” ha dichiarato Sara Anselmi, Direttrice della Divisione Global Partner Solutions e responsabile del team Diversity & Inclusion di Microsoft Italia.

L’Hackathon AI for Inclusion ha visto la collaborazione di tutto l’ecosistema Microsoft fatto da istituzioni, aziende, startup, ONG e associazioni che hanno partecipato mettendo a disposizione competenze, esperienza, risorse e tecnologia. Le istituzioni, aziende e le associazioni che hanno aderito all’Hackathon AI for Inclusion sono: 4wardPRO azienda del Gruppo Impresoft, AccessiWay, AGIC Group, Associazione Italiana Dislessia, Capgemini, Fondazione ASPHI onlus, Banca d’Italia, Barilla, CNH, ENS, Inps, Istat, Intesa Sanpaolo, Politecnico di Milano, Porini, Poste Italiane, Rai, Sketchin, Fondazione Tra Terra e Luna, UICI (Unione Italiana dei Ciechi e degli Ipovedenti).

 

 

Articoli Correlati