Microsoft apresenta diretrizes para o desenvolvimento responsável de IA conversacional

Por Lili Cheng, vice-presidente corporativa de IA de Conversação

Mais parceiros e clientes planejam criar interfaces de conversação, como chatbots e assistentes virtuais, e nesse processo eles frequentemente nos pedem conselhos sobre como desenvolver essas tecnologias de uma maneira que beneficie as pessoas e, ao mesmo tempo, mantenha sua confiança. Agora, tenho o prazer de compartilhar as diretrizes que criamos para o desenvolvimento responsável da inteligência artificial de conversação, com base no que aprendemos por meio do nosso trabalho interempresarial focado na IA responsável e ouvindo nossos clientes e parceiros.

O campo da IA ​​de conversação não é novo nem para mim nem para a Microsoft. Na verdade, tenho trabalhado em interfaces conversacionais desde 1995, quando desenvolvemos o Comic Chat, um serviço de bate-papo gráfico que foi incorporado em uma versão inicial do Internet Explorer. As lições que aprendemos com essas experiências, e nosso trabalho mais recente com ferramentas como Cortana e Zo, nos ajudaram a moldar essas diretrizes, as quais seguimos em nossos próprios esforços para desenvolver robôs responsáveis ​​e confiáveis.

Essas diretrizes são apenas guias. Representam as coisas sobre as quais achamos útil pensar, especialmente ao projetar bots que têm o potencial de afetar as pessoas, como ajudá-las a navegar por informações relacionadas a emprego, finanças, saúde física e bem-estar mental. Nessas situações, aprendemos a fazer uma pausa e perguntar: essa é uma situação na qual é importante garantir que haja pessoas envolvidas para fornecer julgamento, especialização e empatia?

Além dessas diretrizes, esperamos que você aproveite outras ferramentas que oferecemos, como os classificadores de texto ofensivo no Microsoft Bot Framework para proteger seu bot de abuso e o Microsoft Azure Application Insights para criar recursos de rastreabilidade em seu bot, que são úteis para determinar a causa dos erros e manter a confiabilidade.

Lili Cheng
Lili Cheng (Foto: Scott Eklund/Red Box Pictures)

Em geral, as diretrizes enfatizam o desenvolvimento da IA de conversação responsável e confiável desde o início do planejamento. Elas incentivam empresas e organizações a pararem e pensarem sobre como seu bot será usado e tomar as medidas necessárias para evitar abusos. No final das contas, tratam-se de guias sobre confiança, porque se as pessoas não confiarem na tecnologia, elas não irão usá-la.

Acreditamos que ganhar essa confiança começa com transparência sobre o uso da IA conversacional em sua organização. Certifique-se de que os usuários entendam que podem estar interagindo com um bot – em vez de ou além de uma pessoa –, e que eles sabem que bots, como pessoas, são falíveis. Reconheça as limitações do seu bot e certifique-se de que ele faça o que foi projetado para fazer. Um bot projetado para receber pedidos de pizza, por exemplo, deve evitar o envolvimento em assuntos delicados como raça, gênero, religião e política.

Pense na IA de conversação como uma extensão de sua marca, um serviço que interage com seus clientes usando linguagem natural em nome de sua organização. Lembre-se de que quando uma pessoa interage com um bot que representa sua empresa, a confiança está na linha. Se o seu robô abalar a confiança do seu cliente, a confiança dele na sua organização pode, de fato, ser violada. É por isso que o primeiro e mais importante objetivo dessas diretrizes é ajudar os designers e desenvolvedores de IA conversacional a criar bots responsáveis ​​que representam a confiança na organização que eles representam.

Incentivamos você a usar seu bom senso ao considerar e aplicar essas diretrizes e também a usar os canais apropriados em sua organização para garantir que estejam em conformidade com regulamentos de privacidade, segurança e acessibilidade que mudam rapidamente.

Por fim, é importante observar que essas diretrizes são apenas nossas ideias atuais; são um trabalho em andamento. Temos agora mais perguntas do que respostas. Sabemos que aprenderemos mais enquanto projetamos, criamos e implantamos mais bots no mundo real. Aguardamos com expectativa o seu feedback sobre essas diretrizes enquanto trabalhamos em direção a um futuro em que a IA de conversação nos ajuda a alcançar mais.

Tags: , , , , ,

Posts Relacionados