Por: Courtney Gregoire, directora de seguridad digital.
Desde 2015, Microsoft ha reconocido los impactos devastadores, emocionales y de otro tipo muy reales que surgen cuando las imágenes íntimas de una persona se comparten en línea sin su consentimiento. Sin embargo, este desafío solo se ha vuelto más serio y complejo con el tiempo, ya que la tecnología ha permitido la creación de imágenes sintéticas o «deepfake» cada vez más realistas, incluido el video.
El advenimiento de la IA generativa tiene el potencial de sobrecargar este daño, y ya ha habido un aumento en el contenido abusivo generado por la IA. El abuso de imagen íntima afecta de manera abrumadora a mujeres y niñas y se utiliza para avergonzar, acosar y extorsionar no solo a candidatos políticos u otras mujeres con perfil público, sino también a personas privadas, incluidas adolescentes. Ya sean reales o sintéticas, la publicación de dichas imágenes tiene graves consecuencias en el mundo real: tanto desde la publicación inicial como desde la distribución en curso en todo el ecosistema en línea. Por lo tanto, nuestro enfoque colectivo de este desafío que afecta a toda la sociedad debe ser dinámico.
El 30 de julio, Microsoft publicó un documento técnico de políticas, en el que se describen una serie de sugerencias para que los responsables políticos ayuden a proteger a los estadounidenses de los deepfakes abusivos de IA, centrándose en proteger a las mujeres y los niños de la explotación en línea. Abogar por leyes modernizadas para proteger a las víctimas es un elemento de nuestro enfoque integral para abordar el contenido abusivo generado por IA: hoy también proporcionamos una actualización sobre los esfuerzos globales de Microsoft para proteger sus servicios y personas de imágenes íntimas no consensuadas (NCII, por sus siglas en inglés).
Anunciamos nuestra asociación con StopNCII
Hemos escuchado preocupaciones de víctimas, expertos y otras partes interesadas en el sentido de que los informes de los usuarios por sí solos pueden no escalar de manera efectiva para el impacto o abordar de manera adecuada el riesgo de que se pueda acceder a las imágenes a través de la búsqueda. Como resultado, hoy anunciamos que nos hemos asociado con StopNCII para poner a prueba un enfoque de detección centrado en la víctima en Bing, nuestro motor de búsqueda.
StopNCII es una plataforma administrada por SWGfL que permite a los adultos de todo el mundo protegerse de que sus imágenes íntimas se compartan en línea sin su consentimiento. StopNCII permite a las víctimas crear un «hash» o huella digital de sus imágenes, sin que esas imágenes salgan de su dispositivo (incluidas las imágenes sintéticas). Esos hashes pueden ser utilizados por una amplia gama de socios de la industria para detectar esas imágenes en sus servicios y tomar medidas en línea con sus políticas. En marzo de 2024, Microsoft donó una nueva capacidad de PhotoDNA para apoyar los esfuerzos de StopNCII. Hemos probado el uso de la base de datos StopNCII para evitar que este contenido se devuelva en los resultados de búsqueda de imágenes en Bing. Hasta finales de agosto, hemos tomado medidas sobre 268.899 imágenes. Continuaremos con la evaluación de los esfuerzos para expandir esta asociación. Animamos a los adultos preocupados por la publicación, o posible publicación, de sus imágenes a que informen a StopNCII.
Nuestro enfoque para abordar las imágenes íntimas no consensuadas
En Microsoft, reconocemos que tenemos la responsabilidad de proteger a nuestros usuarios de contenido en línea ilegal y dañino, al tiempo que respetamos los derechos fundamentales. Nos esforzamos por lograr esto en todos nuestros diversos servicios para adoptar un enfoque proporcionado al riesgo: adaptar nuestras medidas de seguridad al riesgo y al servicio único. A través de nuestros servicios al consumidor, Microsoft no permite compartir ni crear imágenes íntimas de alguien sin su permiso. Esto incluye contenido fotorrealista de NCII que se creó o modificó por medio de tecnología. No permitimos que NCII se distribuya en nuestros servicios, ni permitimos ningún contenido que elogie, apoye o solicite NCII.
Además, Microsoft no permite ninguna amenaza para compartir o publicar NCII, también llamada extorsión íntima. Esto incluye pedir o amenazar a una persona para que obtenga dinero, imágenes u otras cosas valiosas a cambio de no hacer público el NCII. Además de esta política integral, hemos adaptado las prohibiciones vigentes cuando corresponde, como para Microsoft Store. El Código de Conducta de los Servicios de IA Generativa de Microsoft también prohíbe la creación de contenido sexualmente explícito.
Informar de contenido directo a Microsoft
Continuaremos con la eliminación del contenido que se nos informe de manera directa a nivel mundial, así como aquellos casos en los que las ONG y otros socios nos señalen el contenido infractor. En la búsqueda, también tomamos una serie de medidas para degradar el contenido de baja calidad y mejorar las fuentes autorizadas, al tiempo que consideramos cómo podemos evolucionar aún más nuestro enfoque en respuesta a los comentarios de expertos y externos.
Cualquiera puede solicitar la eliminación de una imagen o video de sí mismo desnudo o sexualmente explícito que se haya compartido sin su consentimiento a través del portal de informes centralizado de Microsoft.
* Los informes del NCII son para usuarios mayores de 18 años. En el caso de los menores de 18 años, deben denunciar las imágenes de explotación y abuso sexual infantil.
Una vez que Microsoft ha revisado ese contenido y se ha confirmado que infringe nuestra política de NCII, eliminamos los vínculos notificados a fotos y vídeos de los resultados de búsqueda en Bing a nivel mundial y/o eliminamos el acceso al contenido en sí si se ha compartido en uno de los servicios al consumidor alojados de Microsoft. Este enfoque se aplica tanto a las imágenes reales como a las sintéticas. Algunos servicios (como los juegos y Bing) también ofrecen opciones de informes en el producto. Por último, proporcionamos transparencia sobre nuestro enfoque a través de nuestro Informe de contenido de seguridad digital.
Continuar con la colaboración de toda la sociedad para hacer frente al reto
Como hemos visto ilustrado de manera vívida a través de historias recientes y trágicas, el abuso de imágenes íntimas sintéticas también afecta a niños y adolescentes. En abril, describimos nuestro compromiso con los nuevos principios de seguridad desde el diseño, liderados por las ONG Thorn y All Tech is Human, destinados a reducir los riesgos de explotación y abuso sexual infantil (CSEA, por sus siglas en inglés) en el desarrollo, la implementación y el mantenimiento de nuestros servicios de IA. Al igual que con el NCII sintético, tomaremos medidas para abordar cualquier contenido aparente de CSEA en nuestros servicios, incluso al informar al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC, por sus siglas en inglés). Los jóvenes que estén preocupados por la publicación de sus imágenes íntimas también pueden realizar su denuncia al servicio Take It Down del NCMEC.
La actualización de hoy no es más que un punto en el tiempo: estos daños continuarán su evolución y también debe hacerlo nuestro enfoque. Seguimos comprometidos a trabajar con líderes y expertos de todo el mundo en este desafío y a escuchar las perspectivas de manera directa de las víctimas y los sobrevivientes. Microsoft se ha unido a un nuevo grupo de trabajo de múltiples partes interesadas, presidido por el Centro para la Democracia y la Tecnología, la Iniciativa de Derechos Civiles Cibernéticos y la Red Nacional para Poner Fin a la Violencia Doméstica, y esperamos colaborar a través de este y otros foros en la evolución de las mejores prácticas. También elogiamos el enfoque en este daño a través de la Orden Ejecutiva sobre el Desarrollo y el Uso Seguro y Confiable de la Inteligencia Artificial y esperamos continuar el trabajo con el Instituto Nacional de Estándares y Tecnología del Departamento de Comercio de EE. UU. y el Instituto de Seguridad de IA en las mejores prácticas para reducir los riesgos de NCII sintéticos. incluso como un problema distinto del CSEA sintético. Y continuaremos con la defensa de los cambios en las políticas y la legislación para disuadir a los malos actores y garantizar justicia para las víctimas, al tiempo que creamos conciencia sobre el impacto en las mujeres y las niñas.