umagem de uma lupa com um olho e nariz

Combatendo deepfakes com mais transparência sobre IA

Logo após a invasão da Ucrânia em 2022, fotógrafos começaram a documentar a destruição de locais culturais para ajudar a preservar o patrimônio do país e coletar evidências para a restituição. No entanto, uma disseminação de imagens falsas relacionadas à guerra estava causando um problema: as pessoas não podiam ter certeza de que fotos eram reais.

Isso levou os fotógrafos a usar uma nova ferramenta para mostrar que suas fotos não eram “deepfakes” – conteúdo gerado por IA que se assemelha realisticamente a pessoas, lugares ou eventos existentes de maneira inautêntica. O protótipo levou à ferramenta Content Integrity Suite da Microsoft, projetada para trazer mais transparência ao conteúdo online.

Com a expectativa de que as eleições globais atraiam um recorde de dois bilhões de eleitores este ano, várias organizações políticas, eleitorais e de mídia agora estão usando as ferramentas para assinar seu trabalho, melhorar a transparência, incutir confiança e afastar a desinformação. Apoiar um ecossistema de informações mais confiável com ferramentas e práticas de IA responsáveis é apenas uma das maneiras pelas quais a Microsoft está combatendo deepfakes prejudiciais.

“As repercussões dos deepfakes podem ser incrivelmente graves. Eles são uma forma de hacking cognitivo que muda sua relação com a realidade e como você pensa sobre o mundo”, diz Andrew Jenks, diretor de Proveniência de Mídia da Microsoft.

Jenks preside a Coalition for Content Provenance and Authenticity (C2PA), uma organização que a Microsoft cofundou para desenvolver um padrão técnico aberto para estabelecer a proveniência – ou a fonte e o histórico – do conteúdo digital, incluindo ativos gerados por IA.

O conteúdo manipulado não é novidade e, às vezes, é claramente sátira ou comédia. Mas a ascensão da IA generativa está tornando mais fácil para pessoas mal intencionadas espalharem desinformação que pode levar a fraudes, roubo de identidade, interferência eleitoral e outros danos. Detalhes como autoria e legendas geralmente desaparecem quando o conteúdo é compartilhado, tornando mais difícil para as pessoas saberem em que confiar.

Conhecer a origem e rastrear o histórico do conteúdo pode ajudar as pessoas a serem mais informadas e menos vulneráveis a enganos, diz Jenks. As ferramentas da Microsoft incluem um aplicativo, atualmente em versão prévia, para criadores e editores adicionarem credenciais de conteúdo ao seu trabalho, ou metadados certificados com detalhes como quem fez o conteúdo, quando foi feito e se a IA foi usada. Parte do padrão técnico do C2PA,  as credenciais de conteúdo são anexadas criptograficamente a fotos, vídeos e áudios para que qualquer edição ou adulteração subsequente possa ser detectada com mais facilidade.

Como os metadados são invisíveis, a Microsoft também fornece uma ferramenta pública  de Verificação de Integridade de Conteúdo e uma extensão de navegador da Web para que os consumidores verifiquem credenciais e revisem informações de procedência. As pessoas também podem procurar um ícone de credenciais de conteúdo em imagens e vídeos em plataformas como o LinkedIn.

“As credenciais de conteúdo fornecem uma camada importante de transparência, independentemente de a IA estar envolvida ou não, para ajudar as pessoas a tomar decisões mais informadas sobre o conteúdo que compartilham e consomem online”, diz Jenks. “À medida que se torna mais fácil identificar a fonte e o histórico do conteúdo, as pessoas podem se tornar mais céticas em relação ao material que carece de informações específicas de procedência.”

A Microsoft usa suas ferramentas de credenciais de conteúdo em seus próprios produtos de IA geradores de imagem — Designer, Copilot, Paint e modelos selecionados no Azure OpenAI Service — para divulgar que a IA foi usada, quando a imagem foi criada e outros detalhes. Outros controles de IA responsáveis para impedir o abuso de deepfake incluem desfocar rostos de pessoas em fotos carregadas no Copilot.

“A mídia gerada ou modificada por IA pode ser útil em muitos contextos, desde a educação até a acessibilidade”, diz Jessica Young, gerente sênior do Programa de Política Científica e Tecnológica da Microsoft Chief Scientific Officer e o especialista em proveniência de mídia Eric Horvitz.

“Mas deve haver divulgação sobre a fonte do conteúdo e sua jornada para que as pessoas possam entender de onde veio, até que ponto foi alterado e se a IA foi usada. Nossa abordagem não é dizer aos consumidores qual conteúdo é confiável, mas dar-lhes o contexto de que precisam para tomar decisões informadas.”

Enquanto Jenks diz que as credenciais de conteúdo podem ajudar a estabelecer confiança em tudo, desde publicidade a sites de namoro, a Microsoft está oferecendo a visualização privada de suas ferramentas de procedência primeiramente para campanhas, organizações eleitorais e jornalistas como parte de uma promessa de combater o uso enganoso da IA nas eleições deste ano. A empresa também criou um site para os candidatos denunciarem deepfakes eleitorais que aparecem no LinkedIn, Xbox e outros serviços ao consumidor da Microsoft e lançou um fundo de US$ 2 milhões com a OpenAI para aumentar a educação em IA entre eleitores e comunidades vulneráveis.

A Microsoft pressionou pela integridade da informação por meio da co-fundação do C2PA, que agora tem quase 200 membros, desenvolvendo tecnologias de procedência com jornalistas e apoiando processos democráticos. Reconhecendo que nenhuma empresa ou abordagem pode resolver o problema sozinha, também está defendendo  a legislação relevante e pesquisando técnicas adicionais de transparência. O trabalho integra conhecimentos em pesquisa, engenharia, política e inteligência de ameaças, todos com o objetivo de fortalecer os sistemas de informação em um cenário complexo de diferentes formatos e plataformas de mídia.

“Continuamos a desenvolver e iterar para encontrar as soluções mais robustas à medida que a mídia evolui com o uso de IA generativa em novos formatos, como vídeo ao vivo”, diz Young, “e estamos compartilhando as melhores práticas e ferramentas com o ecossistema mais amplo”.

Saiba mais sobre o trabalho de IA responsável da Microsoft.

Como identificar deepfakes

  • Conheça e entenda a fonte: procure atribuição, legendas e credenciais de conteúdo. Pesquise imagens por meio de uma pesquisa visual. Pergunte a si mesmo se a fonte é renomada e proceda com cautela se não houver uma fonte clara.
  • Considere a intenção: o conteúdo destina-se a entreter, informar ou persuadir você? Analisar o propósito pode lhe dar uma noção melhor se alguém pode estar tentando enganar.
  • Procure inconsistências e anomalias: imagens geradas por IA podem ter erros ortográficos, figuras borradas, roupas incompatíveis, iluminação inconsistente e texturas estranhas.
  • Teste suas habilidades de detecção de IA: Faça o teste Real or Not para ver se você consegue distinguir imagens geradas por IA das reais.

Esta postagem faz parte da série Building AI Responsibly (Construindo a IA com Responsabilidade) da Microsoft, que explora as principais preocupações com a implantação de IA e como a empresa está lidando com elas com suas práticas e ferramentas de IA responsáveis.

Ilustração principal por Makeshift Studios / Rocio Galarza. História publicada em 3 de outubro de 2024.