Por: Brad Smith, Presidente.
Cada día, millones de personas utilizan potentes herramientas de IA generativa para potenciar su expresión creativa. En muchos sentidos, la IA creará oportunidades emocionantes para que todos demos vida a nuevas ideas. Pero, a medida que estas nuevas herramientas llegan al mercado, de parte de Microsoft y de todo el sector tecnológico, debemos tomar nuevas medidas para garantizar que estas nuevas tecnologías sean resistentes al abuso.
La historia de la tecnología ha demostrado durante mucho tiempo que la creatividad no se limita a las personas con buenas intenciones. Por desgracia, las herramientas también se convierten en armas, y este patrón se repite por sí mismo. En la actualidad, todavía somos testigos de una rápida expansión en el abuso de estas nuevas herramientas de IA por parte de malos actores, incluso a través de deepfakes basados en video, audio e imágenes generados por IA. Esta tendencia plantea nuevas amenazas para las elecciones, el fraude financiero, el acoso a través de la pornografía no consentida y la próxima generación de acoso cibernético.
Tenemos que actuar con urgencia para combatir todos estos problemas.
De manera alentadora, hay mucho que podemos aprender de nuestra experiencia como industria en espacios adyacentes: en el avance de la ciberseguridad, la promoción de la seguridad electoral, la lucha contra el contenido extremista violento y la protección de los niños. Estamos comprometidos como empresa con un enfoque sólido e integral que proteja a las personas y a nuestras comunidades, basado en seis áreas de enfoque:
- Una sólida arquitectura de seguridad. Estamos comprometidos con un enfoque técnico integral basado en la seguridad por diseño. De acuerdo con el escenario, es necesario aplicar una arquitectura de seguridad sólida a nivel de plataforma, modelo y aplicaciones de IA. Incluye aspectos como el análisis continuo de parte del equipo rojo, los clasificadores preventivos, el bloqueo de avisos abusivos, las pruebas automatizadas y las prohibiciones rápidas de los usuarios que abusan del sistema. Debe basarse en un análisis de datos sólido y amplio. Microsoft ha establecido una arquitectura sólida y ha compartido nuestro aprendizaje a través de nuestros estándares de IA responsable y seguridad digital, pero está claro que tendremos que seguir con la innovación en estos espacios a medida que evolucione la tecnología.
- Procedencia de medios duraderos y marca de agua. Esto es esencial para combatir los deepfakes en vídeo, imágenes o audio. El año pasado, en nuestra conferencia Build 2023, anunciamos capacidades de procedencia de medios que utilizan métodos criptográficos para marcar y firmar contenido generado por IA con metadatos sobre su origen e historial. Junto con otras empresas líderes, Microsoft ha sido líder en investigación y desarrollo de métodos para autenticar la procedencia, incluso como cofundador de Project Origin y el organismo de estándares Coalition for Content Provenance and Authenticity (C2PA). Hace unas semanas, Google y Meta dieron importantes pasos adelante en el apoyo a C2PA, pasos que apreciamos y aplaudimos.
Ya utilizamos la tecnología de procedencia en las herramientas de creación de imágenes de Microsoft Designer en Bing y en Copilot, y estamos en el proceso de extender la procedencia de los medios a todas nuestras herramientas que crean o manipulan imágenes. También exploramos de manera activa técnicas de marcas de agua y huellas dactilares que ayudan a reforzar las técnicas de procedencia. Estamos comprometidos con la innovación continua que ayudará a los usuarios a determinar con rapidez si una imagen o video es generado o manipulado por IA.
- Proteger nuestros servicios de contenidos y conductas abusivas. Estamos comprometidos con la protección de la libertad de expresión. Pero esto no debe proteger a las personas que buscan falsificar la voz de una persona para defraudar a una persona mayor con su dinero. No debe extenderse a los deepfakes que alteran las acciones o declaraciones de los candidatos políticos para engañar al público. Tampoco debe proteger a un acosador cibernético o distribuidor de pornografía no consentida. Nos comprometemos a identificar y eliminar contenido engañoso y abusivo como este cuando se encuentre en nuestros servicios de consumo alojados, como LinkedIn, nuestra red de juegos, y otros servicios relevantes.
- Colaboración sólida entre la industria y con los gobiernos y la sociedad civil. Si bien cada empresa es responsable de sus propios productos y servicios, la experiencia sugiere que a menudo hacemos nuestro mejor trabajo cuando trabajamos juntos para lograr un ecosistema digital más seguro. Nos comprometemos a trabajar en colaboración con otros en el sector tecnológico, incluso en los espacios de la IA generativa y las redes sociales. También estamos comprometidos con los esfuerzos proactivos con los grupos de la sociedad civil y en la colaboración adecuada con los gobiernos.
A medida que avancemos, aprovecharemos nuestra experiencia en la lucha contra el extremismo violento en el marco del Llamamiento de Christchurch, nuestra colaboración con las fuerzas del orden a través de nuestra Unidad de Delitos Digitales y nuestros esfuerzos para proteger mejor a los niños a través de la Alianza Global WeProtect y de manera más amplia. Nos comprometemos a tomar nuevas iniciativas en todo el sector tecnológico y con otros grupos de interés.
- Modernización de la legislación para proteger a las personas del abuso de la tecnología. Ya es evidente que algunas de estas nuevas amenazas requerirán el desarrollo de nuevas leyes y nuevos esfuerzos por parte de las fuerzas del orden. Esperamos contribuir con ideas y apoyar nuevas iniciativas de gobiernos de todo el mundo, para que podamos proteger mejor a las personas en línea mientras honramos valores atemporales como la protección de la libertad de expresión y la privacidad personal.
- Sensibilización y educación pública. Por último, una defensa fuerte requerirá un público bien informado. A medida que nos acercamos al segundo cuarto del siglo XXI, la mayoría de la gente ha aprendido que no se puede creer todo lo que se lee en Internet (o en cualquier otro lugar). Una combinación bien informada de curiosidad y escepticismo es una habilidad fundamental para la vida de todos.
De manera similar, debemos ayudar a las personas a reconocer que no puedes creer cada video que ves o audio que escuchas. Tenemos que ayudar a las personas a aprender a detectar las diferencias entre el contenido legítimo y el falso, incluso con marcas de agua. Esto requerirá nuevas herramientas y programas de educación pública, incluso en estrecha colaboración con la sociedad civil y los líderes de toda la sociedad.
En última instancia, nada de esto será fácil. Requerirá esfuerzos duros pero indispensables todos los días. Pero con un compromiso común con la innovación y la colaboración, creemos que todos podemos trabajar juntos para garantizar que la tecnología se mantenga a la vanguardia en su capacidad para proteger al público. Quizás más que nunca, este debe ser nuestro objetivo colectivo.