Por Ioana Tanase
O avanço da inovação tecnológica e a busca por dados ligados à linguagem de sinais são áreas de foco do programa AI for Accessibility. Para atingir esses objetivos, em 2019 a equipe organizou um workshop de linguagem de sinais, convocando os principais pesquisadores da área. Abraham Glasser, doutorando em Ciências da Computação e Informação e sinalizador nativo da Língua Americana de Sinais (ASL na sigla em inglês), supervisionado pelo professor Matt Huenerfauth, recebeu uma bolsa de três anos. Seu trabalho se concentra em uma necessidade e uma oportunidade muito pragmáticas: estimular a inclusão de pessoas que usam a linguagem de sinais como principal forma de comunicação, melhorando a interação com assistentes inteligentes domésticos.
Desde então, professores e alunos do Golisano College of Computing and Information Sciences do Rochester Institute of Technology (RIT) realizaram o trabalho no Center for Accessibility and Inclusion Research (CAIR). O CAIR publica pesquisas sobre acessibilidade computacional e possui muitos alunos com deficiência auditiva bilíngues em inglês e Língua Americana de Sinais.
Para iniciar essa pesquisa, a equipe investigou como os usuários com deficiência auditiva preferiam interagir com seus dispositivos pessoais de assistência, seja um alto-falante inteligente ou outro aparelho que responda a comandos de voz – essa era a forma mais tradicional de controle, mas conforme a tecnologia evoluiu, os modelos mais recentes agora incorporam câmeras e telas de exibição. Atualmente, nenhum dos dispositivos disponíveis no mercado entende comandos em ASL ou outras linguagens de sinais, portanto, a introdução dessa capacidade é um desenvolvimento tecnológico importante para atender a uma base de clientes inexplorada e impulsionar sua inclusão. Abraham estudou cenários simulados em que, por meio da câmera do dispositivo, o equipamento poderia ver a sinalização do usuário, processar sua solicitação e exibir o resultado na tela do dispositivo.
Algumas pesquisas anteriores se concentraram nas fases de interação com o dispositivo pessoal, mas poucas incluíam usuários com deficiência auditiva. Alguns exemplos de pesquisas disponíveis estudaram a ativação do dispositivo, como ligar o aparelho em modo de repouso, bem como a comunicação com usuários na forma de vídeos, avatares ASL e legendas em inglês. A questão mais importante era coletar mais dados para tecnologias de linguagem de sinais – o principal gargalo dos levantamentos anteriores.
Para abrir caminho para os avanços tecnológicos, era fundamental entender como os usuários com deficiência auditiva gostariam que fosse a interação com os dispositivos e que tipo de comandos eles gostariam de emitir. Abraham e a equipe montaram uma videoconferência em que um intérprete de ASL participava da chamada sem ser visto na câmera. A tela do dispositivo seria visualizada na janela da chamada e cada participante foi orientado por um moderador da pesquisa. Conforme os participantes com surdez se conectavam ao dispositivo doméstico, eles não sabiam que o intérprete de ASL estava falando os comandos em inglês. Uma equipe de anotadores assistiu à gravação, identificando segmentos-chave dos vídeos e transcrevendo cada comando para o inglês e o glossário ASL.
Abraham conseguiu identificar novas maneiras de os usuários interagirem com o dispositivo, como comandos de “despertar” que não foram capturados em pesquisas anteriores.

Além disso, um resumo das categorias e frequências de comando mostrou que a categoria mais popular era “comando e controle”, onde os usuários ajustam as configurações do dispositivo, navegam pelos resultados e respondem perguntas com sim ou não. A próxima categoria popular estava relacionada a questões de entretenimento, seguidas por estilo de vida e compras. Os participantes também fizeram uso sofisticado dos espaços ao redor de seus corpos, por exemplo, para representar e se referir a pessoas ou coisas que eram o tema de suas perguntas. Outra observação foi o uso de um sinal de interrogação no início de perguntas, para chamar a atenção do dispositivo, enquanto tipicamente esse sinal é mais utilizado no final das perguntas. Quando se tratava de erros, como o dispositivo não fornecer o resultado que os usuários estavam procurando, eles normalmente ignoravam o erro e continuavam com um comando diferente. Um segundo método próximo era repetir o comando com exatamente o mesmo estilo de redação e assinatura, seguido de reformulação do comando. Por exemplo, alguns reformularam suas perguntas para serem mais parecidas com o idioma inglês, ou soletrando palavras para enfatizar as novas tentativas.
Um artigo com os detalhes completos da pesquisa foi apresentado e publicado no Proceedings of the 2022 CHI Conference on Human Factors in Computing Systems, com o título “Analisando o comportamento, o uso e a interação de usuários com deficiência auditiva com um dispositivo pessoal que entende a linguagem de sinais” (Analyzing Deaf and Hard-of-Hearing Users’ Behavior, Usage, and Interaction with a Personal Assistant Device that Understands Sign-Language Input, no original em inglês) por Abraham Glasser, Matthew Watkins, Kira Hart, Sooyeon Lee e Matt Huenerfauth.
O conhecimento reunido por meio dessa pesquisa foi a base para a construção de um conjunto de dados de vídeos de pessoas com deficiência auditiva produzindo comandos em ASL e interagindo com seus dispositivos pessoais – como perguntar sobre o clima, controlar eletrônicos em sua casa e muito mais. Ao usar pesquisas e entrevistas para coletar preferências e requisitos desses usuários, foram reunidos vídeos de comandos ASL, levando à produção de um conjunto de dados disponível publicamente que pode ser aproveitado pela comunidade de pesquisa para treinar tecnologias de reconhecimento de ASL. O conjunto de dados também pode ser útil para desenvolvedores de tecnologias de assistentes pessoais e para desenvolvedores e pesquisadores que trabalham com tecnologias de linguagem de sinais.
Embora ainda existam muitas oportunidades pela frente para inovar e incorporar linguagens de sinais na tecnologia, o trabalho que Abraham e sua equipe realizaram nos últimos três anos representa um marco importante para promover ainda mais a inovação em acessibilidade e garantir a inclusão para todos.