Nuevos pasos para combatir la desinformación

Desinformación

Por: Tom Burt, vicepresidente corporativo de seguridad y confianza para clientes; y Eric Horvitz, director científico.

Anunciamos dos nuevas tecnologías para combatir la desinformación, nuevos trabajos para ayudar a educar al público sobre el problema, y asociaciones para ayudar a avanzar en estas tecnologías y esfuerzos educativos de manera rápida.

No hay duda de que la desinformación está generalizada. Una investigación que apoyamos del profesor Jacob Shapiro en Princeton, actualizada en agosto de 2020, catalogó 96 campañas separadas de influencia extranjera dirigidas a 30 países, entre 2013 y 2019. Estas campañas, realizadas a través de redes sociales, buscaban difamar a personas notables, persuadir al público o polarizar debates. Mientras que el 26% de estas campañas fueron dirigidas a Estados Unidos, otros países que fueron objetivo incluyeron a Alemania, Arabia Saudita, Armenia, Australia, Brasil, Canadá, Francia, Holanda, Polonia, Reino Unido, Sudáfrica, Taiwán, Ucrania y Yemen. Alrededor del 93% de estas campañas incluyeron la creación de contenido original, 86% amplificaron contenido preexistente, y 74% distorsionaron hechos verificables de manera objetiva. Reportes recientes también muestran que la desinformación ha sido distribuida alrededor de la pandemia de COVID-19, lo que ha llevado a muertes y hospitalizaciones de personas que buscaban supuestas curas que en realidad son peligrosas.

Lo que anunciamos hoy es una parte importante del Programa Defending Democracy de Microsoft, que, además de combatir la desinformación, ayuda a proteger a los votantes a través de ElectionGuard, y ayuda a asegurar las campañas y a otros involucrados en el proceso democrático a través de AccountGuard, Microsoft 365 for Campaigns y Election Security Advisors. También es parte de un foco más amplio para proteger y promover el periodismo, como lo discutieron Brad Smith y Carol Ann Browne en su Top Ten Tech Policy Issues for the 2020s.

Nuevas tecnologías

La desinformación viene en muchas formas, y una sola tecnología no resolverá el desafío de ayudar a las personas a descifrar lo que es cierto y preciso. En Microsoft, hemos trabajado en dos diferentes tecnologías para hacer frente a los diferentes aspectos del problema.

Un gran problema son los deepfakes, o medios sintéticos, que son fotos, videos o archivos de audio manipulados por inteligencia artificial (IA) en formas que son difíciles de detectar. Pueden aparecer para hacer que la gente diga cosas que no dijo o estar en lugares donde no estuvo, y el hecho de que están generadas por IA, que puede continuar aprendiendo, hace inevitable que puedan vencer a la tecnología convencional de detección. Sin embargo, a corto plazo, como las próximas elecciones en Estados Unidos, las tecnologías avanzadas de detección pueden ser una útil herramienta para ayudar a los usuarios más exigentes a identificar deepfakes.

Hoy, anunciamos Microsoft Video Authenticator, que puede analizar una foto fija o un video para brindar un porcentaje de probabilidad, o una calificación de confianza, de que el medio haya sido manipulado de manera artificial. En el caso de un video, puede brindar este porcentaje en tiempo real sobre cada cuadro a medida que se reproduce el video. Funciona a través de detectar el límite de fusión del deepfake y el sutil desvanecimiento o elementos de escala de grises que tal vez no puedan ser detectados por el ojo humano.

En un principio, esta tecnología fue desarrollada por Microsoft Research, en coordinación con el equipo de Responsible AI de Microsoft, y el Comité de IA, ética y efectos en ingeniería e investigación (AETHER, por sus siglas en inglés) de Microsoft, que es un consejo asesor en Microsoft que ayuda a asegurar que la nueva tecnología sea desarrollada e integrada de manera responsable. Video Authenticator fue creado a través de una base de datos pública de Face Forensic++ y fue probada en el DeepFake Detection Challenge Dataset, ambos modelos líderes para el entrenamiento y pruebas de tecnologías de detección de deepfake.

Esperamos que los métodos para generar medios sintéticos continúen con el crecimiento en su sofisticación. Ya que todos los métodos de detección de IA tienen tasa de error, tenemos que entender y estar listos para responder a que los deepfakes se deslicen a través de los métodos de detección. Por lo tanto, a largo plazo, debemos buscar métodos más fuertes para mantener y certificar la autenticidad de nuevos artículos y otros medios. Hoy, existen algunas herramientas para ayudar a asegurar a los lectores que los medios que ven en línea vienen de una fuente confiable y que no han sido alterados.

También anunciamos una nueva tecnología que puede detectar contenido manipulado y asegurar a la gente que los medios que ven son auténticos. Esta tecnología tiene dos componentes. El primero es una herramienta integrada en Microsoft Azure, que permite a un productor de contenido agregar hashes y certificados a una pieza de contenido, que luego viven en él como metadatos, donde sea que viajen en línea. El segundo es un lector, que puede existir como una extensión de navegador o en otras formas, que comprueba los certificados y relaciona los hashes, para permitir a la gente saber, con alto grado de precisión, que el contenido es auténtico y que no ha sido cambiado, así como brindar detalles sobre quién lo produjo.

Esta tecnología ha sido construida por Microsoft Research y Microsoft Azure, en asociación con el Programa Defending Democracy, y va a impulsar una iniciativa recién anunciada por la BBC, llamada Project Origin.

Asociaciones

Ninguna organización, por sí sola, podrá tener un impacto significativo en combatir la desinformación y los dañinos deepfakes. Haremos lo que podamos para ayudar, pero la naturaleza del desafío requiere que diferentes tecnologías sean adoptadas de manera amplia, que los esfuerzos educativos lleguen a los consumidores en todos lados, de manera consistente, y que no dejemos de aprender más sobre este desafío a medida que evoluciona.

Queremos destacar algunas asociaciones que hemos desarrollado para ayudar en estos esfuerzos.

Primero, nos asociamos con la AI Foundation, una empresa dual, comercial y sin fines de lucro, ubicada en San Francisco, con la misión de llevar el poder y la protección de la IA para todas las personas del mundo. A través de esta asociación, la iniciativa Reality Defender 2020 (RD2020), de AI Foundation, pondrá disponible Video Authenticator para las organizaciones involucradas en el proceso democrático, incluidos nuevos medios y campañas políticas. Video Authenticator estará disponible, en un principio, sólo a través de RD2020, que guiará a las organizaciones a través de las limitaciones y consideraciones éticas inherentes en cualquier tecnología de detección de deepfake. Campañas y periodistas interesados en aprender más, pueden contactar aquí a RD2020.

Segundo, nos hemos asociado con un consorcio de compañías de medios, incluida la BBC, CBC/Radio-Canada y el New York Times, en Project Origin, que probará nuestra tecnología de autenticidad y ayudará a avanzar en un estándar que pueda ser adoptado de manera amplia. La iniciativa Trusted News, que incluye a un rango de editoriales y compañías de redes sociales, también ha aceptado involucrarse con esta tecnología. En los meses por venir, esperamos ampliar el trabajo en esta área hacia más empresas de tecnología, editoriales de noticias y compañías de redes sociales.

Alfabetización mediática

También nos asociamos con la Universidad de Washington (UW), Sensity y USA Today en la alfabetización mediática, pues mejorarla, ayudará a la gente a clasificar la desinformación de los hechos genuinos, y a manejar los riesgos presentados por los deepfakes y los cheap fakes. El conocimiento mediático práctico nos puede permitir a todos pensar de manera crítica sobre el contexto de los medios, y convertirnos en ciudadanos más involucrados, a la vez que todavía podemos apreciar la sátira y la parodia. Aunque no todos los medios sintéticos son malos, incluso una corta intervención con recursos de alfabetización mediática ha mostrado que ayuda a la gente a identificarlos y tratarlos de manera más cuidadosa.

Trivia de deep fakes

Lanzamos una trivia interactiva para votantes en Estados Unidos, para aprender más sobre medios sintéticos, desarrollar habilidades críticas de alfabetización mediática y obtener conciencia del impacto de los medios sintéticos en la democracia. Spot the Deepfake Quiz es una herramienta de alfabetización mediática en forma de una experiencia interactiva, desarrollada en asociación con el Centro para un Público Informado de la UW, Sensity y USA Today. Esta trivia será distribuida a través de la red y de propiedades de redes sociales de USA Today, Microsoft y la Universidad de Washington, y a través de anuncios en redes sociales.

Adicional a esto, en colaboración con la Radio Television Digital News Association, The Trust Project y el Centro para un Público Informado de UW, y el Programa Accelerating Social Transformation, Microsoft apoya la campaña de anuncios de servicio público (PSA, por sus siglas en inglés) para invitar a la gente a tomar una “pausa reflexiva” y revisar para asegurarse que la información viene de una organización de noticias de buena reputación, antes de compartirla o promoverla en redes sociales, previo a las próximas elecciones en Estados Unidos. La campaña PSA ayudará a las personas a entender mejor el daño que la desinformación hace en nuestra democracia y la importancia de tomarse el tiempo de identificar, compartir y consumir información confiable. Los anuncios se distribuirán en estaciones de radio en Estados Unidos en septiembre y octubre de 2020.

Por último, en meses recientes hemos expandido de manera considerable nuestra implementación de NewsGuard, que permite a las personas aprender más sobre una fuente de noticias en línea antes de consumir su contenido. NewsGuard opera a un equipo de experimentados periodistas que califican sitios web de noticias con base en nueve criterios de integridad periodística, que utilizan para crear tanto una “etiqueta nutricional” como una clasificación rojo/verde para cada sitio web de noticias evaluado. La gente puede acceder al servicio de NewsGuard al descargar una sencilla extensión de navegador, que está disponible para todos los navegadores estándar. Es gratis para usuarios del navegador Microsoft Edge. Algo que es importante aclarar, Microsoft no tiene control editorial sobre ninguna de las calificaciones de NewsGuard y la extensión no limita el acceso a la información de ninguna forma. En su lugar, NewsGuard busca brindar mayor transparencia e invitar a la alfabetización mediática al brindar un contexto importante sobre la fuente de noticias.

Consideraciones de políticas

Gobiernos, empresas, organizaciones no lucrativas y otros alrededor del mundo tienen una parte crítica por jugar en hacer frente de manera amplia a la desinformación y la interferencia en elecciones. En 2018, el Paris Call for Trust & Security in Cyberspace reunió a un grupo de líderes globales de varias partes interesadas que se comprometieron con nueve principios que ayudarán a asegurar la paz y la seguridad en línea. Uno de los principios más importantes es defender los procesos electorales. En mayo de 2020, Microsoft, la Alianza para Asegurar la Democracia, y el Gobierno de Canadá, lanzaron un esfuerzo para liderar actividades globales basadas en este principio. Invitamos a cualquier organización interesada en contribuir, a unirse a Paris Call.

Tags: , , , , , , , , , ,

Publicaciones Relacionadas