Luchar contra los deepfakes con más transparencia sobre la IA
Poco después de la invasión de Ucrania en 2022, los fotógrafos locales comenzaron a documentar la destrucción de sitios culturales para ayudar a preservar el patrimonio del país y recopilar pruebas para la restitución. Pero la difusión de imágenes falsas relacionadas con la guerra causaba un problema: la gente no podía estar segura de qué fotos eran reales.
Eso llevó a los fotógrafos a usar una nueva herramienta para mostrar que sus imágenes no eran «deepfakes», es decir, contenido generado por IA que se asemeja de manera realista a personas, lugares o eventos existentes de una manera poco auténtica. El prototipo condujo al conjunto de herramientas Content Integrity de Microsoft, diseñado para brindar más transparencia al contenido en línea.
Dado que se espera que las elecciones mundiales atraigan a un récord de 2.000 millones de votantes este año, varias organizaciones políticas, electorales y de medios de comunicación utilizan las herramientas para atribuir su trabajo, mejorar la transparencia, infundir confianza y protegerse de la desinformación. Apoyar un ecosistema de información más confiable con herramientas y prácticas de IA responsables es solo una de las formas en que Microsoft lucha contra los deepfakes dañinos.
Esta publicación es parte de la serie Building AI Responsibly de Microsoft , que explora las principales preocupaciones con la implementación de IA y cómo la compañía las aborda con sus prácticas y herramientas de IA responsable.
«Las repercusiones de los deepfakes pueden ser muy graves. Son una forma de hacking cognitivo que cambia tu relación con la realidad y cómo piensas sobre el mundo», dice Andrew Jenks, director de procedencia de nedios de Microsoft. Jenks preside la Coalición para la Procedencia y la Autenticidad del Contenido (C2PA, por sus siglas en inglés), una organización que Microsoft cofundó para desarrollar un estándar técnico abierto para establecer la procedencia, o la fuente y la historia, del contenido digital, incluidos los activos generados por IA.
El contenido manipulado no es nada nuevo, y a veces es, de manera clara, una sátira o comedia. Pero el auge de la IA generativa facilita que las personas con malos motivos difundan desinformación que puede conducir al fraude, el robo de identidad, la interferencia electoral y otros daños. Detalles como la atribución y los subtítulos a menudo desaparecen cuando se comparte contenido, lo que dificulta que las personas sepan en qué confiar.
Conocer el origen y rastrear la historia del contenido puede ayudar a las personas a estar más informadas y ser menos vulnerables al engaño, dice Jenks. Las herramientas de Microsoft incluyen una aplicación, en la actualidad en versión preliminar privada, para que los creadores y editores agreguen credenciales de contenido a su trabajo, o metadatos certificados con detalles como quién hizo el contenido, cuándo se hizo y si se utilizó IA. Como parte del estándar técnico de C2PA, las credenciales de contenido se adjuntan a la foto, el video y el audio de forma criptográfica para que cualquier edición o manipulación posterior se pueda detectar más fácil.
Dado que los metadatos son invisibles, Microsoft también proporciona una herramienta pública de comprobación de integridad del contenido y una extensión de explorador web para que los consumidores busquen credenciales y revisen la información de procedencia. Las personas también pueden buscar un ícono de credenciales de contenido en imágenes y videos en plataformas como LinkedIn.
«Las credenciales de contenido proporcionan una capa importante de transparencia, ya sea que la IA esté involucrada o no, para ayudar a las personas a tomar decisiones más informadas sobre el contenido que comparten y consumen en línea», dice Jenks. «A medida que se vuelve más fácil identificar el origen del contenido y la historia, las personas pueden volverse más escépticas con el material que carece de información específica sobre la procedencia».
Microsoft usa sus herramientas de credenciales de contenido en sus propios productos de IA generadores de imágenes (Designer, Copilot, Paint y modelos seleccionados en Azure OpenAI Service) para revelar que se usó IA, cuándo se creó la imagen y otros detalles. Otros controles responsables de la IA para disuadir el abuso de los deepfakes incluyen difuminar los rostros de las personas en las fotos cargadas en Copilot.
«Los medios generados o modificados por IA pueden ser útiles en muchos contextos, desde la educación hasta la accesibilidad», dice Jessica Young, gerente senior de políticas de ciencia y tecnología de Microsoft y el experto en procedencia de medios, Eric Horvitz.
«Pero debe haber divulgación sobre la fuente del contenido y su recorrido para que las personas puedan entender de dónde proviene, en qué medida se alteró y si se utilizó la IA. Nuestro enfoque no es decirles a los consumidores qué contenido es confiable, sino darles el contexto que necesitan para tomar decisiones informadas».
Si bien Jenks dice que Content Credentials puede ayudar a establecer confianza en todo, desde publicidad hasta sitios web de citas, Microsoft ofrece la vista previa privada de sus herramientas de procedencia primero a campañas, organizaciones electorales y periodistas como parte de una promesa para luchar contra el uso engañoso de la IA en las elecciones de este año. La compañía también creó un sitio para que los candidatos informen sobre los deepfakes electorales que aparecen en LinkedIn, Xbox y otros servicios al consumidor de Microsoft, y lanzó un fondo de 2 millones de dólares con OpenAI para aumentar la educación en IA entre los votantes y las comunidades vulnerables.
Microsoft ha impulsado la integridad de la información a través de la cofundación de C2PA, que ahora cuenta con casi 200 miembros, el desarrollo de tecnologías de procedencia con periodistas y el apoyo a los procesos democráticos. A través de reconocer que ninguna empresa o enfoque puede abordar el problema por sí solo, también aboga por la legislación pertinente y la investigación de técnicas de transparencia adicionales. El trabajo integra experiencia en investigación, ingeniería, políticas e inteligencia de amenazas, todo ello orientado a fortalecer los sistemas de información en un panorama complejo de diferentes formatos de medios y plataformas.
«Continuamos con el desarrolla y la iteración para encontrar las soluciones más sólidas a medida que los medios evolucionan con el uso de IA generativa en nuevos formatos como el video en vivo», dice Young, «y compartimos las mejores prácticas y herramientas con el ecosistema más amplio».
Cómo detectar deepfakes
- Conozcan y comprendan la fuente: busquen la atribución, los subtítulos y las credenciales de contenido. Investiguen las imágenes a través de una búsqueda visual. Pregúntense si la fuente es confiable y procedan con precaución si no hay una fuente clara.
- Tengan en cuenta la intención: ¿El contenido está destinado a entretenerlos, informarlos o persuadirlos? Analizar el propósito puede darles una mejor idea de si alguien podría tratar de engañar.
- Busquen inconsistencias y anomalías: las imágenes generadas por IA pueden tener faltas de ortografía, figuras borrosas, ropa que no coincide, iluminación inconsistente y texturas extrañas.
- Pongan a prueba sus habilidades de detección de IA: Realicen el cuestionario Real or Not para ver si pueden distinguir las imágenes generadas por IA de las reales.
Obtengan más información sobre el trabajo de IA responsable de Microsoft.
Ilustración principal de Makeshift Studios / Rocío Galarza. Artículo publicado el 3 de octubre de 2024.