Combatendo deepfakes com mais transparência sobre IA
Logo após a invasão da Ucrânia em 2022, fotógrafos começaram a documentar a destruição de locais culturais para ajudar a preservar o patrimônio do país e coletar evidências para a restituição. No entanto, uma disseminação de imagens falsas relacionadas à guerra estava causando um problema: as pessoas não podiam ter certeza de que fotos eram reais.
Isso levou os fotógrafos a usar uma nova ferramenta para mostrar que suas fotos não eram “deepfakes” – conteúdo gerado por IA que se assemelha realisticamente a pessoas, lugares ou eventos existentes de maneira inautêntica. O protótipo levou à ferramenta Content Integrity Suite da Microsoft, projetada para trazer mais transparência ao conteúdo online.
Com a expectativa de que as eleições globais atraiam um recorde de dois bilhões de eleitores este ano, várias organizações políticas, eleitorais e de mídia agora estão usando as ferramentas para assinar seu trabalho, melhorar a transparência, incutir confiança e afastar a desinformação. Apoiar um ecossistema de informações mais confiável com ferramentas e práticas de IA responsáveis é apenas uma das maneiras pelas quais a Microsoft está combatendo deepfakes prejudiciais.
“As repercussões dos deepfakes podem ser incrivelmente graves. Eles são uma forma de hacking cognitivo que muda sua relação com a realidade e como você pensa sobre o mundo”, diz Andrew Jenks, diretor de Proveniência de Mídia da Microsoft.
Jenks preside a Coalition for Content Provenance and Authenticity (C2PA), uma organização que a Microsoft cofundou para desenvolver um padrão técnico aberto para estabelecer a proveniência – ou a fonte e o histórico – do conteúdo digital, incluindo ativos gerados por IA.
O conteúdo manipulado não é novidade e, às vezes, é claramente sátira ou comédia. Mas a ascensão da IA generativa está tornando mais fácil para pessoas mal intencionadas espalharem desinformação que pode levar a fraudes, roubo de identidade, interferência eleitoral e outros danos. Detalhes como autoria e legendas geralmente desaparecem quando o conteúdo é compartilhado, tornando mais difícil para as pessoas saberem em que confiar.
Conhecer a origem e rastrear o histórico do conteúdo pode ajudar as pessoas a serem mais informadas e menos vulneráveis a enganos, diz Jenks. As ferramentas da Microsoft incluem um aplicativo, atualmente em versão prévia, para criadores e editores adicionarem credenciais de conteúdo ao seu trabalho, ou metadados certificados com detalhes como quem fez o conteúdo, quando foi feito e se a IA foi usada. Parte do padrão técnico do C2PA, as credenciais de conteúdo são anexadas criptograficamente a fotos, vídeos e áudios para que qualquer edição ou adulteração subsequente possa ser detectada com mais facilidade.
Como os metadados são invisíveis, a Microsoft também fornece uma ferramenta pública de Verificação de Integridade de Conteúdo e uma extensão de navegador da Web para que os consumidores verifiquem credenciais e revisem informações de procedência. As pessoas também podem procurar um ícone de credenciais de conteúdo em imagens e vídeos em plataformas como o LinkedIn.
“As credenciais de conteúdo fornecem uma camada importante de transparência, independentemente de a IA estar envolvida ou não, para ajudar as pessoas a tomar decisões mais informadas sobre o conteúdo que compartilham e consomem online”, diz Jenks. “À medida que se torna mais fácil identificar a fonte e o histórico do conteúdo, as pessoas podem se tornar mais céticas em relação ao material que carece de informações específicas de procedência.”
A Microsoft usa suas ferramentas de credenciais de conteúdo em seus próprios produtos de IA geradores de imagem — Designer, Copilot, Paint e modelos selecionados no Azure OpenAI Service — para divulgar que a IA foi usada, quando a imagem foi criada e outros detalhes. Outros controles de IA responsáveis para impedir o abuso de deepfake incluem desfocar rostos de pessoas em fotos carregadas no Copilot.
“A mídia gerada ou modificada por IA pode ser útil em muitos contextos, desde a educação até a acessibilidade”, diz Jessica Young, gerente sênior do Programa de Política Científica e Tecnológica da Microsoft Chief Scientific Officer e o especialista em proveniência de mídia Eric Horvitz.
“Mas deve haver divulgação sobre a fonte do conteúdo e sua jornada para que as pessoas possam entender de onde veio, até que ponto foi alterado e se a IA foi usada. Nossa abordagem não é dizer aos consumidores qual conteúdo é confiável, mas dar-lhes o contexto de que precisam para tomar decisões informadas.”
Enquanto Jenks diz que as credenciais de conteúdo podem ajudar a estabelecer confiança em tudo, desde publicidade a sites de namoro, a Microsoft está oferecendo a visualização privada de suas ferramentas de procedência primeiramente para campanhas, organizações eleitorais e jornalistas como parte de uma promessa de combater o uso enganoso da IA nas eleições deste ano. A empresa também criou um site para os candidatos denunciarem deepfakes eleitorais que aparecem no LinkedIn, Xbox e outros serviços ao consumidor da Microsoft e lançou um fundo de US$ 2 milhões com a OpenAI para aumentar a educação em IA entre eleitores e comunidades vulneráveis.
A Microsoft pressionou pela integridade da informação por meio da co-fundação do C2PA, que agora tem quase 200 membros, desenvolvendo tecnologias de procedência com jornalistas e apoiando processos democráticos. Reconhecendo que nenhuma empresa ou abordagem pode resolver o problema sozinha, também está defendendo a legislação relevante e pesquisando técnicas adicionais de transparência. O trabalho integra conhecimentos em pesquisa, engenharia, política e inteligência de ameaças, todos com o objetivo de fortalecer os sistemas de informação em um cenário complexo de diferentes formatos e plataformas de mídia.
“Continuamos a desenvolver e iterar para encontrar as soluções mais robustas à medida que a mídia evolui com o uso de IA generativa em novos formatos, como vídeo ao vivo”, diz Young, “e estamos compartilhando as melhores práticas e ferramentas com o ecossistema mais amplo”.
Saiba mais sobre o trabalho de IA responsável da Microsoft.
Como identificar deepfakes
- Conheça e entenda a fonte: procure atribuição, legendas e credenciais de conteúdo. Pesquise imagens por meio de uma pesquisa visual. Pergunte a si mesmo se a fonte é renomada e proceda com cautela se não houver uma fonte clara.
- Considere a intenção: o conteúdo destina-se a entreter, informar ou persuadir você? Analisar o propósito pode lhe dar uma noção melhor se alguém pode estar tentando enganar.
- Procure inconsistências e anomalias: imagens geradas por IA podem ter erros ortográficos, figuras borradas, roupas incompatíveis, iluminação inconsistente e texturas estranhas.
- Teste suas habilidades de detecção de IA: Faça o teste Real or Not para ver se você consegue distinguir imagens geradas por IA das reais.
Esta postagem faz parte da série Building AI Responsibly (Construindo a IA com Responsabilidade) da Microsoft, que explora as principais preocupações com a implantação de IA e como a empresa está lidando com elas com suas práticas e ferramentas de IA responsáveis.
Ilustração principal por Makeshift Studios / Rocio Galarza. História publicada em 3 de outubro de 2024.