Proteger al público de los contenidos abusivos generados por la IA

Personas andando por la calle

Por Brad Smith, vicepresidente y presidente de Microsoft

Los deepfakes generados por IA son realistas, fáciles de hacer para casi cualquier persona y se utilizan cada vez más para actividades de fraude, abuso y manipulación, especialmente para dirigirse a niños y personas mayores. Si bien el sector tecnológico y los grupos sin fines de lucro han tomado medidas recientes para abordar este problema, se ha hecho evidente que nuestras leyes también deben evolucionar para combatir el fraude de los deepfakes. En resumen, necesitamos nuevas leyes que ayuden a evitar que los malos actores utilicen deepfakes para estafar a las personas mayores o abusar de los niños.

Aunque nosotros y otros nos hemos centrado, de forma correcta, en los deepfakes utilizados para interferir en las elecciones, el amplio papel que desempeñan en otros tipos de delitos y abusos necesita la misma atención. Afortunadamente, los miembros del Congreso de EE. UU. han propuesto una serie de leyes que contribuirían en gran medida a abordar el problema, la Administración se centra en el problema, grupos como AARP y NCMEC están profundamente involucrados en este tema, y la industria ha trabajado en conjunto y ha construido una base sólida en áreas adyacentes que pueden aplicarse aquí.

  • Una de las cosas más importantes que puede hacer EE. UU. es aprobar un estatuto integral de fraude de deepfakes para evitar que los ciberdelincuentes utilicen esta tecnología para robar a los estadounidenses de a pie.

No tenemos todas las soluciones, ni son las perfectas, sin embargo, queremos contribuir y fomentar la acción. Por ello, hoy publicamos 42 páginas sobre lo que nos ha llevado a comprender el desafío, así como un conjunto completo de ideas, que incluyen el respaldo al arduo trabajo y las políticas de otros. A continuación se muestra el prólogo que he escrito en lo que estamos publicando.

____________________________________________________________________________________

Lo siguiente ha sido escrito por Brad Smith para el informe de Microsoft Protecting the Public from Abusive AI-Generated Content. La copia completa del informe puede verse aquí: https://aka.ms/ProtectThePublic

«El mayor riesgo no es que el mundo haga demasiado para resolver estos problemas. Es que el mundo hará muy poco. Y no es que los gobiernos vayan a moverse demasiado rápido. Es que serán demasiado lentos».  

Con esas frases concluye el libro del que fui coautor en 2019 titulado “Tools and Weapons” –“Herramientas y armas”-. Como sugiere el título, el libro explora cómo la innovación tecnológica puede servir como una herramienta para el avance de la sociedad y, a la vez, ser un arma poderosa. En el panorama digital actual, que evoluciona rápidamente, el auge de la inteligencia artificial (IA) presenta oportunidades sin precedentes y desafíos significativos. La IA está transformando las pequeñas empresas, la educación y la investigación científica; está ayudando a los médicos e investigadores de la salud a diagnosticar y descubrir curas para enfermedades; y está potenciando la capacidad de los creadores para expresar nuevas ideas. Sin embargo, esta misma tecnología también está produciendo un aumento en el contenido abusivo generado por la IA, o como discutiremos en este artículo, contenido «sintético» abusivo.

Cinco años después, nos encontramos en un momento de la historia en el que cualquier persona con acceso a Internet puede utilizar herramientas de IA para crear una pieza muy realista de medios sintéticos que puede utilizarse para engañar: un clon de la voz de un miembro de la familia, una imagen deepfake de un candidato político, o incluso un documento gubernamental manipulado. La IA ha hecho que la manipulación de medios sea significativamente más fácil: más rápida, más accesible y que no requiera de mucha habilidad para lograrlo. Con la misma rapidez con la que la tecnología de IA se ha convertido en una herramienta, también lo ha hecho en un arma. Cuando este documento se envió a imprenta, el gobierno de EE. UU. anunció que había interrumpido con éxito una operación de desinformación mejorada por IA y patrocinada por un estado-nación. El director del FBI, Christopher Wray, dijo en su declaración: «Rusia tenía la intención de utilizar esta granja de bots para difundir desinformación extranjera generada por IA, ampliando su trabajo con la ayuda de la IA para socavar a nuestros socios en Ucrania e influir en las narrativas geopolíticas favorables al gobierno ruso». Aunque debemos felicitar a las fuerzas del orden público de los EE. UU. por trabajar de manera cooperativa y exitosa con una plataforma tecnológica para llevar a cabo esta operación, también debemos reconocer que este tipo de trabajo solo acaba de comenzar.

El propósito de este libro blanco es fomentar que se lleve a cabo una acción más rápida contra el contenido abusivo generado por IA por parte de los responsables políticos, los líderes de la sociedad civil y la industria tecnológica. A medida que navegamos por este complejo terreno, es imperativo que los sectores público y privado se unan para abordar este problema de frente. El gobierno desempeña un papel crucial en el establecimiento de marcos regulatorios y políticas que promuevan el desarrollo y el uso responsable de la IA. En todo el mundo, los gobiernos están tomando medidas para mejorar la seguridad online  y abordar el contenido ilegal y dañino.

El sector privado tiene la responsabilidad de innovar e implementar defensas que eviten el uso indebido de la IA. Las empresas tecnológicas deben dar prioridad a las consideraciones éticas en sus procesos de investigación y desarrollo de IA. Al invertir en técnicas avanzadas de análisis, divulgación y mitigación, el sector privado puede desempeñar un papel fundamental para frenar la creación y difusión de contenidos nocivos generados por la IA, manteniendo así la confianza en el ecosistema de la información.

La sociedad civil desempeña un papel importante a la hora de garantizar que tanto la regulación gubernamental, como la acción voluntaria de la industria defiendan los derechos humanos fundamentales, como son la libertad de expresión y la privacidad. Al fomentar la transparencia y la rendición de cuentas, podemos generar confianza pública en las tecnologías de IA.

Las siguientes páginas hacen tres cosas específicas: 1) ilustrar y analizar los daños derivados del contenido abusivo generado por IA, 2) explicar cuál es el enfoque de Microsoft y 3) ofrecer recomendaciones de políticas para comenzar a combatir estos problemas. En última instancia, abordar los desafíos que surgen del contenido abusivo generado por IA requiere un frente unido. Al aprovechar las fortalezas y la experiencia de los sectores público, privado y de las ONG, podemos crear un entorno digital más seguro y confiable para todos. Juntos, podemos liberar el poder de la IA para el bien, al tiempo que nos protegemos de sus peligros potenciales.

La responsabilidad de Microsoft de combatir el contenido abusivo generado por IA

A principios de este año, esbozamos un enfoque integral para combatir el contenido abusivo generado por IA y proteger a las personas y las comunidades, basado en seis áreas:

  1. Una sólida arquitectura de seguridad.
  2. Procedencia de medios y marcas de agua duraderas.
  3. Proteger nuestros servicios de contenido y conductas abusivas.
  4. Sólida colaboración entre la industria y con los gobiernos y la sociedad civil.
  5. Legislación actualizada para proteger a las personas del abuso de la tecnología.
  6. Sensibilización y educación pública.

Algo común en estas seis cuestiones es nuestra responsabilidad de ayudar a abordar el uso abusivo de la tecnología. Creemos que es imperativo que el sector tecnológico continúe tomando medidas proactivas para abordar los daños que estamos viendo en todos los servicios y plataformas. Hemos tomado medidas concretas, entre ellas:

  • Implementación de una arquitectura de seguridad que incluya análisis de “red team”, clasificadores de prevención, bloqueo de avisos abusivos, pruebas automatizadas y prohibiciones rápidas de usuarios que abusan del sistema.
  • Adjuntar automáticamente metadatos de procedencia a imágenes generadas con el modelo DALL-E 3 de OpenAI en Azure OpenAI Service, Microsoft Designer y Microsoft Paint.
  • Desarrollar estándares para la procedencia y autenticación del contenido a través de la Coalición para la Procedencia y Autenticidad del Contenido (C2PA) e implementar el estándar C2PA para que el contenido que lleva la tecnología se etiquete automáticamente en LinkedIn.
  • Tomar medidas continuas para proteger a los usuarios de los daños online, incluso uniéndose al programa Lantern de Tech Coalition y ampliando la disponibilidad de PhotoDNA.
  • Lanzamiento de nuevas herramientas de detección como Azure Operator Call Protection para que nuestros clientes detecten posibles estafas telefónicas mediante IA.
  • Cumplir nuestros compromisos con el nuevo Acuerdo Tecnológico  -Tech Accord- para combatir el uso engañoso de la IA en las elecciones.

 Proteger a los estadounidenses a través de nuevas medidas legislativas y políticas

En febrero de este año, Microsoft y LinkedIn se unieron a otras empresas tecnológicas para lanzar el Acuerdo Tecnológico para Combatir el Uso Engañoso de la IA en las Elecciones de 2024 en la Conferencia de Seguridad de Múnich. El Acuerdo insta a la acción en tres pilares clave que utilizamos para inspirar el trabajo adicional que se encuentra en este documento técnico: abordar la creación de deepfakes, detectar y responder ellos, y promover la transparencia y la resiliencia.

Además de combatir los deepfakes de IA en nuestras elecciones, es importante que los legisladores y los responsables políticos tomen medidas para ampliar nuestras capacidades colectivas para (1) promover la autenticidad del contenido, (2) detectar y responder a los deepfakes abusivos, y (3) dar al público las herramientas para aprender sobre los daños sintéticos de la IA. Hemos identificado nuevas recomendaciones de políticas para los responsables de la formulación de políticas en los EE. UU. Al pensar en estas ideas complejas, también debemos recordar pensar en este trabajo en términos sencillos. Estas recomendaciones tienen como objetivo:

  • Proteger nuestras elecciones.
  • Proteger a las personas mayores y a los consumidores del fraude online.
  • Proteger a las mujeres y los niños de la explotación en la red.

En ese sentido, vale la pena mencionar tres ideas que pueden tener un impacto descomunal en la lucha contra el contenido engañoso y abusivo generado por IA.

  • En primer lugar, el Congreso debería promulgar un nuevo «estatuto federal de fraude de deepfakes«. Necesitamos dar a los funcionarios encargados de hacer cumplir la ley, incluidos los fiscales generales de los estados, un marco legal independiente para enjuiciar el fraude y las estafas generadas por IA a medida que proliferan en velocidad y complejidad.
  • En segundo lugar, el Congreso debería exigir a los proveedores de sistemas de IA que utilicen herramientas de procedencia de última generación para etiquetar el contenido sintético. Esto es esencial para generar confianza en el ecosistema de la información y ayudará al público a comprender mejor si el contenido es generado o está manipulado por IA.
  • En tercer lugar, debemos asegurarnos de que nuestras leyes federales y estatales sobre la explotación y el abuso sexual infantil y las imágenes íntimas no consentidas se actualicen para incluir contenido generado por IA. Las sanciones por la creación y distribución de CSAM -contenido de abuso sexual infantil- y NCII -imágenes íntimas sin consentimiento- (ya sean sintéticos o no) son de sentido común y muy necesarias si queremos mitigar las acciones de los malos actores que utilizan herramientas de IA para la explotación sexual, especialmente cuando las víctimas suelen ser mujeres y niños.

No se trata necesariamente de ideas nuevas. La buena noticia es que algunas de ellas, de una forma u otra, ya están empezando a echar raíces en el Congreso y las legislaturas estatales. Destacamos piezas específicas de legislación que se ajustan a nuestras recomendaciones en este documento, y alentamos su pronta consideración por parte de nuestros funcionarios electos estatales y federales.

Microsoft ofrece estas recomendaciones para contribuir al tan necesario diálogo sobre los daños de los medios sintéticos de la IA. La puesta en práctica de cualquiera de estas propuestas requerirá fundamentalmente un enfoque por parte de toda la sociedad. Si bien es imperativo que la industria tecnológica tenga un papel aquí, debe hacerlo con humildad y para promover la acción. Microsoft da la bienvenida a ideas adicionales de las partes interesadas en todo el ecosistema digital para abordar los daños del contenido sintético. En última instancia, el peligro no es que nos movamos demasiado rápido, sino que nos movemos demasiado lento o no lo hacemos en absoluto.

[Post Original: Protecting the public from abusive AI-generated content]

 

 

 

 

 

 

Tags: , , , ,

Posts relacionados

Los «red teams» piensan como hackers para ayudar a mantener la seguridad de la IA

Al igual que las herramientas de Inteligencia Artificial como ChatGPT y Copilot han transformado la manera de trabajar de personas que desempeñan todo tipo de roles en todo el mundo, también han redefinido los red teams, grupos formados por expertos en ciberseguridad cuyo trabajo consiste en pensar como hackers para ayudar a proteger y mantener segura la tecnología.