7 conclusiones de un año de desarrollo de la IA generativa de forma responsable y a escala

Imagen decorativa generada por IA.

Por Sally Beatty

El año pasado se vieron grandes avances en la IA generativa, ya que las personas experimentaron la capacidad de generar imágenes realistas con palabras y herramientas de Microsoft Copilot que pueden resumir reuniones perdidas, ayudar a escribir propuestas comerciales o sugerir un menú de cena basado en lo que hay en su refrigerador. Si bien Microsoft ha establecido durante mucho tiempo principios y procesos para crear aplicaciones de IA de manera que busquen minimizar los daños inesperados y brindar a las personas las experiencias que buscan, la implementación de productos de IA generativa a una escala tan grande ha introducido nuevos desafíos y oportunidades.

Es por eso que Microsoft publicó de manera reciente su primer Informe anual de transparencia de IA responsable para ayudar a las personas a comprender cómo abordamos la IA Responsable (RAI, por sus siglas en inglés). La compañía también ha lanzado nuevas herramientas disponibles en Azure AI para clientes empresariales y desarrolladores para ayudar a salvaguardar la calidad de sus resultados de IA y protegerse contra usos malintencionados o inesperados de los sistemas.

Ha sido un año trascendental en el que se han puesto a prueba nuevas y emocionantes tecnologías y medidas de seguridad a escala. Estos son algunos de los puntos clave de Natasha Crampton, directora responsable de IA de Microsoft, que lidera el equipo que define y gobierna el enfoque de la empresa para RAI, y Sarah Bird, directora de productos de Microsoft para IA Responsable, que impulsa la implementación de RAI en toda la cartera de productos:

#1: Hacer que la IA responsable sea una base, no una ocurrencia tardía

La IA responsable nunca se trata de un solo equipo o conjunto de expertos, sino de la responsabilidad de todos los empleados de Microsoft. Por ejemplo, todos los empleados que trabajan en el desarrollo de aplicaciones de IA generativa deben seguir el Estándar de IA Responsable de la empresa, una lista detallada de los requisitos de IA responsable para el desarrollo de productos. Estos incluyen instrucciones para evaluar el impacto potencial de las nuevas aplicaciones de IA, crear planes para administrar fallas desconocidas de manera previa, que salen a la luz una vez en uso e identificar limitaciones o cambios para que los clientes, socios y personas que usan las aplicaciones de IA puedan tomar decisiones informadas.

Microsoft también ha invertido en formación obligatoria para crear conciencia y promoción en toda la empresa: a finales del año pasado, el 99% de los empleados habían completado un módulo de formación sobre IA responsable en nuestros estándares anuales de formación en conducta empresarial.

«No es posible hacer un trabajo responsable de IA como una especie de lista de verificación justo antes de enviar un producto», dice Natasha Crampton. «Debe integrarse en la forma en que construimos productos desde el principio. Necesitamos que todos en la empresa piensen en las consideraciones responsables de la IA desde el principio».

#2: Prepararse para evolucionar y moverse con rapidez

El desarrollo de nuevos productos de IA es dinámico. Llevar la IA generativa a escala ha requerido una rápida integración de los comentarios de los clientes de docenas de programas piloto, seguida de un compromiso continuo con los clientes para comprender no solo qué problemas podrían surgir a medida que más personas comiencen a usar la nueva tecnología, sino también qué podría hacer que la experiencia sea más atractiva.

Fue a través de este proceso que Microsoft decidió ofrecer diferentes estilos conversacionales -modo más creativo, más equilibrado o más preciso- como parte de Copilot en su motor de búsqueda Bing.

«Necesitamos tener un ciclo de experimentación con ellos en el que se prueben cosas», dice Sarah Bird. «Aprendemos de eso y adaptamos el producto en consecuencia».

#3: Centralizar para escalar más rápido

A medida que la compañía introdujo Microsoft Copilot y comenzó a integrar esas experiencias impulsadas por IA en sus productos, la compañía necesitaba un sistema más centralizado para asegurarse de que todo lo que se lanzaba cumpliera con el mismo estándar alto. Y no tenía sentido reinventar la rueda con cada producto, por lo que la compañía desarrolla una pila de tecnología de IA responsable en Azure AI para que los equipos puedan confiar en las mismas herramientas y procesos.

Los expertos en IA responsable de Microsoft también desarrollaron un nuevo enfoque que centraliza la forma en que se evalúan y aprueban los lanzamientos de productos. El equipo revisa los pasos que han dado los equipos de producto para mapear, medir y gestionar los riesgos potenciales de la IA generativa, basándose en un marco basado en el consenso, en cada capa de la pila tecnológica y antes, durante y después del lanzamiento de un producto. También tienen en cuenta los datos recopilados de las pruebas, el modelado de amenazas y el «red-teaming», una técnica para probar la presión de la nueva tecnología de IA generativa donde se intenta deshacer o manipular las características de seguridad.

La centralización de este proceso de revisión facilitó la detección y mitigación de posibles vulnerabilidades en toda la cartera, el desarrollo de procedimientos recomendados y la garantía del intercambio oportuno de información en toda la empresa y con clientes y desarrolladores fuera de Microsoft.

«La tecnología cambia muy rápido», dice Sarah Bird. «Hemos tenido que centrarnos en verdad en hacerlo bien una vez, y luego reutilizar (esas lecciones) al máximo».

#4: Decir a la gente de dónde vienen las cosas

Debido a que los sistemas de IA se han vuelto tan buenos para generar videos, audio e imágenes artificiales que son difíciles de distinguir de las reales, es cada vez más importante que los usuarios puedan identificar la procedencia o fuente de la información generada por IA.

En febrero, Microsoft se unió a otras 19 empresas para acordar un conjunto de compromisos voluntarios destinados a combatir el uso engañoso de la IA y el posible uso indebido de los «deepfakes» en las elecciones de 2024. Esto incluye fomentar las funciones para bloquear las indicaciones abusivas destinadas a crear imágenes falsas destinadas a engañar al público, incrustar metadatos para identificar los orígenes de una imagen y proporcionar mecanismos para que los candidatos políticos denuncien deepfakes de sí mismos.

Microsoft ha desarrollado e implementado capacidades de procedencia de medios, o «Credenciales de contenido», que permiten a los usuarios verificar si una imagen o video fue generado por IA, a través de métodos criptográficos para marcar y firmar contenido generado por IA con metadatos sobre su fuente e historial, que sigue un estándar técnico abierto desarrollado por la Coalición para la Procedencia y Autenticidad del Contenido (C2PA, por sus siglas en inglés).  que cofundamos en 2021. El AI for Good Lab de Microsoft también se ha centrado más en la identificación de deepfakes, el seguimiento de los malos actores y el análisis de sus tácticas.

«Estos problemas no son solo un desafío para las empresas de tecnología, sino también un desafío social más amplio», dice Natasha Crampton.

#5: Poner las herramientas RAI en manos de los clientes

Para mejorar la calidad de los resultados de los modelos de IA y ayudar a proteger contra el uso malintencionado de sus sistemas de IA generativa, Microsoft también trabaja para poner las mismas herramientas y medidas de seguridad que usa en manos de los clientes para que puedan construir de manera responsable. Estos incluyen herramientas y servicios comerciales y de código abierto, y plantillas y orientación para ayudar a las organizaciones a crear, evaluar, implementar y administrar sistemas de IA generativa.

El año pasado, Microsoft lanzó Azure AI Content Safety, una herramienta que ayuda a los clientes a identificar y filtrar los resultados no deseados de los modelos de IA, como el odio, la violencia, el contenido sexual o de autolesión. De manera más reciente, la compañía ha agregado nuevas herramientas que ya están disponibles o que estarán disponibles más adelante en Azure AI Studio para ayudar a los desarrolladores y clientes a mejorar la seguridad y la confiabilidad de sus propios sistemas de IA generativa.

Estas incluyen nuevas características que permiten a los clientes realizar evaluaciones de seguridad de sus aplicaciones que ayudan a los desarrolladores a identificar y abordar vulnerabilidades con rapidez, realizar un monitoreo adicional de riesgos y seguridad y detectar instancias en las que un modelo está «alucinando» o generando datos falsos o ficticios.

«El punto es que queremos que sea fácil estar seguro por defecto», dice Sarah Bird.

#6: Esperar que la gente rompa cosas

A medida que las personas experimentan una tecnología de IA más sofisticada, quizás sea inevitable que algunos intenten desafiar a los sistemas de formas que van desde inofensivas hasta maliciosas. Eso ha dado lugar a un fenómeno conocido como «jailbreaks«, que en tecnología se refiere a la práctica de trabajar para sortear las herramientas de seguridad integradas en los sistemas de IA.

Además de sondear posibles vulnerabilidades antes de lanzar actualizaciones de nuevos productos de IA, Microsoft trabaja con los clientes para asegurarse de que también tienen las herramientas más recientes para proteger sus propias aplicaciones de IA personalizadas basadas en Azure.

Por ejemplo, Microsoft ha puesto a disposición de manera reciente nuevos modelos que utilizan el reconocimiento de patrones para detectar y bloquear jailbreaks maliciosos, lo que ayuda a salvaguardar la integridad de los modelos de lenguaje grandes (LLM, por sus siglas en inglés) y las interacciones de los usuarios. Otro busca evitar un nuevo tipo de ataque que intenta insertar instrucciones que permitan a alguien tomar el control del sistema de IA.

«Estos son usos para los que no diseñamos, pero eso es lo que sucede de manera natural cuando empujas los bordes de la tecnología», dice Natasha Crampton.

#7: Ayudar a informar a los usuarios sobre los límites de la IA

Si bien la IA ya puede hacer mucho para hacer la vida más fácil, está lejos de ser perfecta. Es una buena práctica que los usuarios comprueben la información que reciben de los sistemas habilitados para IA, por lo que Microsoft proporciona vínculos a fuentes citadas al final de cualquier salida producida por chat.

Desde 2019, Microsoft ha publicado «notas de transparencia» que brindan a los clientes de los servicios de plataforma de la compañía información detallada sobre capacidades, limitaciones, usos previstos y detalles para la integración y el uso responsables de la IA. La compañía también incluye avisos fáciles de usar en productos dirigidos a los consumidores, como Copilot, para proporcionar divulgaciones importantes sobre temas como la identificación de riesgos, el potencial de la IA para cometer errores o generar contenido inesperado, y para recordar a las personas que interactúan con la IA.

A medida que la tecnología de IA generativa y sus usos continúen expandiéndose, será fundamental continuar con el fortalecimiento de los sistemas, adaptarse a la nueva regulación, actualizar los procesos y seguir esforzándose por crear sistemas de IA que brinden las experiencias que las personas desean.

«Tenemos que ser muy humildes al decir que no sabemos cómo la gente usará esta nueva tecnología, así que necesitamos saber de ellos», dice Sarah Bird. «No hay que dejar de innovar, aprender y escuchar».

Las imágenes de esta historia se crearon con Microsoft Designer, una aplicación de diseño gráfico impulsada por IA.