Por: Steven Masada, consejero general adjunto de la Unidad de Delitos Digitales de Microsoft.
La Unidad de Delitos Digitales (DCU, por sus siglas en inglés) de Microsoft ha emprendido acciones legales para garantizar la seguridad e integridad de nuestros servicios de IA. En una denuncia presentada en el Distrito Este de Virginia, llevamos a cabo una acción para interrumpir a los ciberdelincuentes que desarrollan de manera intencionada herramientas diseñadas en específico para eludir las barreras de seguridad de los servicios de IA generativa, incluida la de Microsoft, para crear contenido ofensivo y dañino. Microsoft no deja de hacer todo lo posible para mejorar la resiliencia de nuestros productos y servicios frente a los abusos; sin embargo, los ciberdelincuentes siguen persistentes e innovan de manera incesante sus herramientas y técnicas para eludir incluso las medidas de seguridad más sólidas. Con esta acción, enviamos un mensaje claro: no se tolerará la militarización de nuestra tecnología de IA por parte de actores en línea.
Los servicios de IA de Microsoft implementan sólidas medidas de seguridad, incluidas mitigaciones de seguridad integradas en los niveles de modelo, plataforma y aplicación de IA. Como se alega en nuestros documentos judiciales revelados hoy, Microsoft ha observado que un grupo de actores de amenazas con sede en el extranjero desarrolló un software sofisticado que explotó las credenciales expuestas de los clientes extraídas de sitios web públicos. Al hacerlo, trataron de identificar y acceder de manera ilegal a cuentas con ciertos servicios de IA generativa y alterar de manera deliberada las capacidades de esos servicios. Luego, los ciberdelincuentes utilizaron estos servicios y revendieron el acceso a otros actores maliciosos con instrucciones detalladas sobre cómo usar estas herramientas personalizadas para generar contenido dañino e ilícito. Tras el descubrimiento, Microsoft revocó el acceso de los ciberdelincuentes, puso en marcha contramedidas y mejoró sus salvaguardas para bloquear aún más dicha actividad maliciosa en el futuro.
Esta actividad viola de manera directa la ley de EE. UU. y la Política de uso aceptable y el Código de conducta de nuestros servicios. Los documentos judiciales presentados hoy son parte de una investigación en curso sobre los creadores de estas herramientas y servicios ilícitos. En concreto, la orden judicial nos ha permitido incautar un sitio web fundamental para la operación criminal que nos permitirá reunir pruebas cruciales sobre las personas que están detrás de estas operaciones, descifrar cómo se monetizan estos servicios y desbaratar la infraestructura técnica adicional que encontremos. Al mismo tiempo, hemos agregado mitigaciones de seguridad adicionales dirigidas a la actividad que hemos observado y continuaremos con el fortalecimiento de nuestras barreras de seguridad en función de los hallazgos de nuestra investigación.
Todos los días, las personas aprovechan las herramientas de IA generativa para mejorar su expresión creativa y productividad. Por desgracia, y como hemos visto con la aparición de otras tecnologías, los beneficios de estas herramientas atraen a malos actores que buscan explotar y abusar de la tecnología y la innovación con fines maliciosos. Microsoft reconoce el papel que desempeñamos en la protección contra el abuso y el uso indebido de nuestras herramientas a medida que nosotros y otros en todo el sector introducimos nuevas funcionalidades. El año pasado, nos comprometimos a seguir con la innovación en nuevas formas de mantener seguros a los usuarios y esbozamos un enfoque integral para combatir el contenido abusivo generado por IA y proteger a las personas y las comunidades. Esta acción legal más reciente se basa en esa promesa.
Más allá de las acciones legales y el fortalecimiento perpetuo de nuestras barreras de seguridad, Microsoft continúa en la búsqueda de medidas proactivas adicionales y asociaciones con otros para abordar los daños en línea, al tiempo que aboga por nuevas leyes que brinden a las autoridades gubernamentales las herramientas necesarias para combatir con eficacia el abuso de la IA, en particular para dañar a otros. Microsoft publicó de manera reciente un extenso informe, “Proteger al público del contenido abusivo generado por IA“, que establece recomendaciones para que la industria y el gobierno protejan mejor al público, y en específico a las mujeres y los niños, de actores con motivos malignos.
Durante casi dos décadas, la DCU de Microsoft ha trabajado para interrumpir y disuadir a los ciberdelincuentes que buscan convertir en armas las herramientas cotidianas en las que los consumidores y las empresas han llegado a confiar. En la actualidad, la DCU se basa en este enfoque y aplica los aprendizajes clave de las acciones de ciberseguridad anteriores para evitar el abuso de la IA generativa. Microsoft hará su parte para buscar formas creativas de proteger a las personas en línea, informar de manera transparente sobre nuestros hallazgos, tomar medidas legales contra aquellos que intentan convertir la tecnología de IA en un arma y trabajar con otros en los sectores público y privado a nivel mundial para ayudar a que todas las plataformas de IA permanezcan seguras contra el abuso dañino.