Como o Azure AI Content Safety ajuda a proteger os usuários da sala de aula até a sala de bate-papo

Homem adulto branco aponta para computador enquanto menina branca olha

No início deste ano, o Departamento de Educação do estado da Austrália do Sul, na Austrália, decidiu trazer IA generativa para as suas salas de aula. Mas antes de abrirem as portas, uma questão estava em discussão: como fazer isso com responsabilidade? 

A principal preocupação girava em torno de ajudar a proteger os alunos de conteúdos potencialmente prejudiciais ou inapropriados que podem ser refletidos nas respostas de um grande modelo de linguagem, dado o seu treinamento em vastas informações não filtradas da Internet, diz Simon Chapman, diretor de arquitetura digital do departamento.  

“O que está disponível nas versões públicas da IA generativa é extremamente limitado para a educação”, diz ele. “Não há barreiras de proteção sobre como os alunos podem interagir com essa tecnologia”. 

Avançando até hoje, o departamento está finalizando um piloto do EdChat, um chatbot com tecnologia de IA. Quase 1.500 alunos e 150 professores em oito escolas secundárias testaram a capacidade do bot em ajudar a pesquisar tudo, desde a divisão celular até o enredo de “Of Mice and Men”, de John Steinbeck. 

O departamento ainda está avaliando os resultados, explica Chapman. Mas o sistema da Microsoft usado como proteção recebeu notas altas: Azure AI Content Safety, uma plataforma alimentada por IA para ajudar as organizações a criarem ambientes online mais seguros. 

O Azure AI Content Safety fornece proteções que possibilitaram ao Departamento de Educação da Austrália do Sul implantar o EdChat em um projeto piloto em 8 escolas. O chatbot com tecnologia de IA pode ajudar os alunos a fazerem pesquisas e os educadores a planejarem aulas. Foto concedida pelo Departamento de Educação da Austrália do Sul. 

Os recursos de segurança integrados do EdChat bloquearam consultas inadequadas e filtraram respostas prejudiciais, permitindo que os professores se concentrassem nos benefícios educacionais da tecnologia, em vez de na supervisão do conteúdo, explica ele. 

“Não teríamos conseguido prosseguir nesse ritmo sem o serviço de segurança de conteúdo desde o primeiro dia”, diz Chapman. “É obrigatório.” 

A Microsoft anunciou hoje a disponibilidade geral do Azure AI Content Safety na plataforma Azure AI, que usa linguagem avançada e modelos de visão para ajudar a detectar conteúdo de ódio, violência, sexual e automutilação. Quando os modelos detectam conteúdo potencialmente prejudicial, eles o marcam com uma pontuação de gravidade estimada. Isso permite que empresas e organizações adaptem o serviço para bloqueá-lo ou sinalizá-lo com base em suas políticas. 

Inicialmente introduzido como parte do Azure OpenAI Service, o Azure AI Content Safety agora é um sistema independente. Isso significa que os clientes podem usá-la para conteúdo gerado por IA a partir de modelos de código aberto e de outras empresas, bem como para conteúdo gerado pelo usuário como parte de seus sistemas de conteúdo, expandindo sua utilidade, afirmou a Microsoft. 

Estamos em um momento incrível agora, onde as empresas estão vendo o poder da IA generativa.

À medida que a IA generativa entra no cenário mainstream, a Microsoft tem como objetivo fornecer às empresas as ferramentas necessárias para implantá-la com mais segurança, afirma Eric Boyd, vice-presidente corporativo da Plataforma de IA da Microsoft. 

Estamos vivendo um momento excepcional no qual as empresas estão reconhecendo o incrível poder da IA generativa”, explica Boyd. “O lançamento do Azure AI Content Safety como um produto independente significa que podemos atender a uma ampla variedade de clientes com uma gama muito mais ampla de necessidades de negócios”. 

Isso é apenas um exemplo de como a Microsoft tem colocado em prática seus princípios para criar IA de forma responsável. A empresa tem quase 350 pessoas trabalhando em IA responsável. Nos últimos anos, a Microsoft defendeu a governança de IA responsável e apoiou os compromissos voluntários de IA da Casa Branca dos EUA; ampliou as fronteiras da pesquisa de IA responsável para informar o desenvolvimento de produtos; lançou um Padrão de IA Responsável para projetar, construir e testar sistemas de IA; e disponibilizou ferramentas como o Painel de IA Responsável do Azure Machine Learning para seus clientes. 

“Isso não é uma reflexão tardia, mas uma parte fundamental da nossa história de inovação em IA. Estamos trazendo as melhores ferramentas para descobrir como resolver esses desafios de IA responsável”, reforça Sarah Bird, gerente de grupo de produtos do Microsoft que lidera a IA responsável para tecnologias fundamentais. “A Azure AI Content Safety tem sido uma peça fundamental que nos permite disponibilizar nossas aplicações de IA generativa para mais clientes”. 

Customizável para diferentes casos de uso 

“Internamente, a Microsoft tem contado com o Azure AI Content Safety para ajudar a proteger os usuários de seus próprios produtos alimentados por IA. A tecnologia foi essencial para o lançamento de forma responsável de inovações baseadas em chat em produtos como Bing, GitHub Copilot, Microsoft 365 Copilot e Azure Machine Learning”, afirma Bird. 

Em um mundo repleto de conteúdo, os desafios de IA responsável atravessam empresas e indústrias. “É por isso que uma das principais vantagens da Azure AI Content Safety é sua configurabilidade”, disse Bird. As políticas podem ser personalizadas para se adequarem ao ambiente e aos casos de uso específicos de cada cliente. Uma plataforma voltada para jogos, por exemplo, provavelmente estabelecerá padrões diferentes para linguagem violenta em comparação com uma plataforma de educação em sala de aula. 

Com a ferramenta de moderação de imagens da Azure AI Content Safety, os clientes podem facilmente executar testes em imagens para garantir que atendam aos seus padrões de conteúdo. Cortesia da Microsoft. 

Por exemplo, a empresa de energia Shell desenvolveu uma plataforma de IA generativa, Shell E. A plataforma permite que equipes construam e implantem aplicativos com base em modelos de linguagem de código aberto e outros, que permitem aos funcionários fazer perguntas e obter informações para complementar seus fluxos de trabalho. 

“Shell E tem como objetivo ajudar os trabalhadores a acessarem e utilizarem o conhecimento da empresa de forma mais eficiente”, diz Siva Chamarti, gerente técnico sênior de Sistemas de IA da Shell. Os casos de uso abrangem todas as áreas da Shell e incluem redação, resumos e tradução de conteúdo; geração e teste de código; e gerenciamento de conhecimento em todas as áreas técnicas. As equipes também estão explorando casos de uso mais complexos, como geração molecular. 

“A Azure AI Content Safety desempenha um papel fundamental na governança da plataforma Shell E, permitindo a geração de texto e imagens enquanto restringe respostas inadequadas ou prejudiciais”, afirma ele. A ferramenta verifica cada entrada e saída em conformidade com as políticas antes de permitir que o conteúdo gerado chegue aos usuários. 

“Estamos vendo um grande entusiasmo pela IA generativa”, disse Chamarti. “Ainda estamos nos primeiros dias, mas os colegas estão criando usos criativos para o seu próprio trabalho, e nossa lista de casos de uso só fica mais longa”. 

Construindo confiança na era da IA 

À medida que a IA generativa continua a se proliferar, também aumentam as possíveis ameaças aos espaços online. Para se manter à frente dessas ameaças, a Microsoft continuará aprimorando a tecnologia por meio de pesquisas e feedback dos clientes, afirma Bird. Por exemplo, o trabalho contínuo em modelos multimodais fortalecerá a detecção de combinações potencialmente objetáveis de imagens e texto – pense em memes – que podem passar despercebidas em verificações individuais. 

Boyd observou que a Microsoft lidou com a moderação de conteúdo por décadas, criando ferramentas que ajudaram a proteger os usuários em fóruns do Xbox até o Bing. O Azure AI Content Safety se baseia nessa experiência, bem como no Azure Content Moderator, o serviço anterior que permitiu aos clientes aproveitarem o poder das capacidades de detecção de conteúdo, e se aproveita de novos modelos de linguagem e visão poderosos. 

Ao pensar de forma holística sobre a segurança, a Microsoft espera possibilitar uma ampla adoção de IA em que os consumidores possam confiar.  

“A confiança é algo que tem sido um pilar da marca Microsoft e do Azure desde o início”, reforça Boyd. “Conforme avançamos para esta era da IA, estamos continuamente ampliando como garantimos a proteção de nossos clientes”. 

Recursos relacionados: 

• Saiba mais: Azure AI Content Safety 

• Leitura: Reflexões sobre nosso programa de IA responsável: Três elementos críticos para o progresso 

• Leitura: Anunciando os Compromissos do Cliente de IA da Microsoft 

• Leitura: Nossos compromissos em avançar com IA segura, confiável e confiável 

• Leitura: Aprendendo na era da IA: Como o Departamento de Educação da Austrália do Sul está capacitando alunos e professores com IA na sala de aula. 

Imagem principal: Uma estudante e uma professora da Mitcham Girls High School em Adelaide trabalham com o EdChat, um chatbot alimentado por IA que utiliza a Azure AI Content Safety para ajudar a proteger os alunos de conteúdo inapropriado ou prejudicial que possa ser gerado por grandes modelos de linguagem. Foto cortesia do Departamento de Educação da Austrália do Sul. 

Tags: AI