Novos passos para combater a desinformação

Sistema de reconhecimento facial

Por Tom Burt, vice-presidente corporativo de segurança & confiança do cliente e Eric Horvitz, diretor científico

Hoje, estamos anunciando duas novas tecnologias para combater a desinformação. Também apresentamos novos projetos para educar o público sobre esse problema, além parcerias para ajudar no avanço rápido dessas tecnologias e esforços educacionais.


Não há dúvida de que a desinformação se tornou generalizada. Atualizada neste mês, a pesquisa na qual apoiamos o Professor Jacob Shapiro, de Princeton, registrou 96 campanhas estrangeiras distintas de influência visando 30 países entre 2013 e 2019. Realizadas nas redes sociais, elas tiveram como objetivo difamar pessoas notáveis, persuadir o público ou polarizar debates. Além dos EUA, que foram alvo de 26% dessas campanhas, outros países também foram afetados, como Armênia, Austrália, Brasil, Canadá, França, Alemanha, Holanda, Polônia, Arábia Saudita, África do Sul, Taiwan, Ucrânia, Reino Unido e Iêmen. Cerca de 93% dessas campanhas incluíram a criação de conteúdo original, 86% ampliaram conteúdo pré-existente e 74% distorceram fatos objetivamente verificáveis. Relatórios recentes também mostram a distribuição de desinformações sobre a pandemia de COVID-19, levando a mortes e hospitalização de pessoas em busca de supostas curas – que, an verdade, são perigosas.
O que estamos anunciando hoje é uma parte importante do Programa de Defesa da Democracia da Microsoft, que, além de combater a desinformação, ajuda a proteger o voto através do ElectionGuard. Ele também protege campanhas e outros envolvidos no processo democrático através do AccountGuard, Microsoft 365 para Campanhas e Eleição de Conselheiros de Segurança. O programa faz parte de um foco mais amplo na proteção e promoção do jornalismo, conforme Brad Smith e Carol Ann Browne discutiram em seu post sobre os dez principais problemas de política de tecnologia para a década de 2020.
Novas tecnologias

A desinformação aparece de diversas formas, e nenhuma tecnologia – sozinha – resolverá o desafio de ajudar as pessoas a decifrar o que é verdadeiro. Na Microsoft, estamos trabalhando em duas tecnologias distintas para abordar diferentes aspectos do problema.

Os deepfakes são um dos maiores problemas. Como são as mídias sintéticas, que são fotos, vídeos ou arquivos de áudio manipulados por inteligência artificial (IA) difíceis de detectar. Elas iludem, fazendo com que pareça que as pessoas estão falando algo que não disseram, ou mesmo as colocando em lugares que não estavam. O fato desses dois exemplos gerados por uma IA – que pode continuar a aprender de forma contínua – torna inevitável que eles superem a tecnologia de detecção convencional. No entanto, a curto prazo, como é o caso das próximas eleições nos EUA, as tecnologias de detecção avançada podem ser uma ferramenta útil para ajudar os usuários mais exigentes a identificar deepfakes.

Com isso em mente, estamos anunciando o Microsoft Video Authenticator. O serviço pode analisar uma foto ou vídeo para fornecer um percentual, ou pontuação de confiança, de indica se a mídia foi – ou não – manipulada artificialmente. No caso de um vídeo, ele pode fornecer essa porcentagem em tempo real em cada quadro à medida que o conteúdo é reproduzido. Ele funciona detectando o limite de mesclagem dos elementos do deepfake e o sutil desvanecimento ou tons de cinza que podem não ser detectados pelo olho humano.

Esta tecnologia foi originalmente desenvolvida pela Microsoft Research em coordenação com a equipe Responsible AI da Microsoft e o Comitê de Ética e Efeitos em Engenharia e Pesquisa (AETHER) da Microsoft – um conselho da Microsoft que ajuda a garantir que novas tecnologias sejam desenvolvidas e colocadas em campo de maneira responsável. O Video Authenticator foi criado usando um conjunto de dados públicos do Face Forensic++,  e testado no DeepFake Detection Challenge Dataset, ambos modelos líderes para treinamento e teste de tecnologias de detecção de deepfake.

Nós esperamos que os métodos de geração de mídia sintética continuem a crescer em sofisticação. E como todos os métodos de detecção de IA têm taxas de falha, devemos entender e estar prontos para responder aos deepfakes que escapam aos sistemas de detecção. Assim, a longo prazo, devemos buscar métodos mais eficientes para manter e certificar a autenticidade de notícias e outras mídias. Existem poucas ferramentas hoje para ajudar a garantir aos leitores que a mídia que estão vendo online veio de uma fonte confiável, e que não foi alterada.

Também estamos anunciando uma nova tecnologia que pode detectar conteúdo manipulado e garantir às pessoas que a mídia é autêntica. Essa tecnologia possui dois componentes. A primeira é uma ferramenta incorporada ao Microsoft Azure que permite a um produtor de conteúdo adicionar hashes e certificados digitais a uma parte desse conteúdo. Esses componentes vivem com o conteúdo como metadados onde quer que ele esteja hospedado. O segundo é um leitor – que pode existir como uma extensão do navegador ou em outras formas – que verifica os certificados e combina os hashes, permitindo que as pessoas saibam com alto grau de precisão que o conteúdo é autêntico e que não foi alterado, além de fornecer detalhes sobre quem o produziu.

Esta tecnologia foi desenvolvida pela Microsoft Research e Microsoft Azure em parceria com o Defending Democracy Program. Ele vai alimentar uma iniciativa recentemente anunciada pela BBC chamada Project Origin.

Parcerias

Nenhuma organização é capaz de ter um impacto significativo no combate à desinformação e falsificações. Faremos o que pudermos para ajudar, mas a natureza do desafio exige que várias tecnologias sejam amplamente adotadas, que os esforços educacionais cheguem aos consumidores de maneira consistente e que continuemos aprendendo mais sobre o desafio à medida que ele evolui.

Hoje, destacamos as parcerias que desenvolvemos para ajudar nesses esforços.

Em primeiro lugar, estamos fazendo parceria com a AI Foundation, uma empresa sem fins lucrativos com sede em San Francisco, com a missão de levar o poder e a proteção da IA ​​para todos no mundo. Por meio dessa parceria, a iniciativa Reality Defender 2020 (RD2020) da AI Foundation tornará o Video Authenticator disponível para organizações envolvidas no processo democrático, incluindo veículos de notícias e campanhas políticas. O autenticador estará inicialmente disponível apenas por meio do RD2020, que guiará as organizações através das limitações e considerações éticas inerentes a qualquer tecnologia de detecção de deepfake. Campanhas e jornalistas interessados ​​em saber mais podem contatar RD2020 aqui.

Em segundo lugar, fizemos parceria com um consórcio de empresas de mídia, incluindo a BBC, CBC/Radio-Canada e o New York Times no Project Origin, que testará nossa tecnologia de autenticidade e ajudará a promovê-la como um padrão que pode ser adotado amplamente. A Trusted News Initiative, que inclui uma variedade de editores e empresas de mídia social, também concordou em se envolver com essa tecnologia. Nos próximos meses, esperamos expandir o trabalho nesta área para mais empresas de tecnologia, editores de notícias e empresas de mídia social.

Alfabetização de midiática

Também estamos fazendo parceria com a University of Washington (UW), Sensity e USA Today na alfabetização midiática. Melhorar a alfabetização midiática ajudará as pessoas a separar a desinformação de fatos genuínos e a gerenciar os riscos apresentados por falsificações e falsificações baratas. O conhecimento prático pode permitir que todos nós pensemos de forma crítica sobre o contexto da mídia e nos tornemos cidadãos mais engajados enquanto apreciamos a sátira e a paródia. Embora nem todas as mídias sintéticas sejam ruins, mesmo uma curta intervenção com recursos de alfabetização midiática tem auxiliado a ajudar as pessoas a identificá-las e tratá-las com mais cautela.

Hoje, estamos lançando um questionário interativo para que os eleitores nos Estados Unidos aprendam sobre mídia sintética, desenvolvam habilidades críticas de alfabetização midiática e ganhem consciência sobre o impacto da mídia sintética na democracia. O Spot the Deepfake Quiz é uma ferramenta de alfabetização de mídia na forma de uma experiência interativa desenvolvida em parceria com o UW Center for an Informed Public, Sensity e USA Today. O questionário será distribuído em serviços de mídia social e web de propriedade do USA Today, Microsoft e da Universidade de Washington e por meio de publicidade.

Além disso, em colaboração com a Radio Television Digital News Association, o The Trust Project e o Center for an Informed Public da da UW e o Public and Accelerating Social Transformation Program, a Microsoft está apoiando uma campanha de anúncio de serviço público (PSA) incentivando as pessoas a fazer uma “pausa reflexiva” e verificar para garantir que as informações venham de uma organização de notícias de boa reputação antes de compartilhá-las ou promovê-las nas redes sociais antes das eleições nos Estados Unidos. A campanha PSA ajudará as pessoas a compreender melhor os danos que a desinformação têm sobre nossa democracia e a importância de dedicar um tempo para identificar, compartilhar e consumir informações confiáveis. Os anúncios serão veiculados em estações de rádio nos Estados Unidos em setembro e outubro.

Finalmente, nos últimos meses, expandimos significativamente nossa implementação do NewsGuard, que permite que as pessoas aprendam mais sobre uma fonte de notícias online antes de consumir seu conteúdo. O NewsGuard opera com uma equipe de jornalistas experientes que avaliam sites de notícias online com base em nove critérios de integridade jornalística, que usam para criar um “rótulol” e uma classificação em vermelho/verde para cada site de notícias classificado. As pessoas podem acessar o serviço NewsGuard baixando uma extensão disponível para todos os navegadores padrão. É gratuito para usuários do navegador Microsoft Edge. É importante ressaltar que a Microsoft não tem controle editorial sobre nenhuma das classificações do NewsGuard e a extensão do navegador NewsGuard não limita o acesso às informações de forma alguma. Em vez disso, o NewsGuard visa fornecer maior transparência e encorajar a cultura da mídia, fornecendo um contexto importante sobre a própria fonte de notícias.

Considerações

Governos, empresas, organizações sem fins lucrativos e outros em todo o mundo têm um papel crítico a desempenhar no tratamento da desinformação e da interferência eleitoral de forma ampla. Em 2018, a Chamada de Paris por Confiança e Segurança no Ciberespaço reuniu um grupo de múltiplas partes interessadas de líderes globais comprometidos com nove princípios que ajudarão a garantir paz e segurança online. Um dos mais críticos desses princípios é a defesa dos processos eleitorais. Em maio, a Microsoft, a Alliance for Securing Democracy e o Governo do Canadá lançaram um esforço para liderar atividades globais com base nesse princípio. Encorajamos qualquer organização interessada em contribuir para aderir à Chamada de Paris.

 

Tags: , , , , , , , , , ,

Posts Relacionados