Facilitar a las empresas la creación y distribución de una IA en la que las personas puedan confiar
La IA generativa ha comenzado a transformar a muchas industrias, pero las empresas a menudo luchan con cómo crear e implementar herramientas de IA seguras a medida que la tecnología evoluciona. A los líderes les preocupa el riesgo de que la IA genere información incorrecta o dañina, filtre datos confidenciales, sea secuestrada por atacantes o viole las leyes de privacidad, y a veces están mal equipados para manejar los riesgos.
«Las organizaciones se preocupan por la seguridad junto con la calidad y el rendimiento de sus aplicaciones de IA», dice Sarah Bird, directora de productos de IA Responsable en Microsoft. «Pero muchos de ellos no entienden lo que tienen que hacer para que su IA sea fiable, o no tienen las herramientas para hacerlo».
Para cerrar la brecha, Microsoft proporciona herramientas y servicios que ayudan a los desarrolladores a crear y enviar sistemas de IA confiables, o una IA creada con la seguridad, la protección y la privacidad en mente. Las herramientas han ayudado a muchas organizaciones a lanzar tecnologías en entornos complejos y regulados de manera importante, desde un asistente de IA que resume los registros médicos de los pacientes hasta un chatbot de IA que brinda orientación fiscal a los clientes.
El enfoque también ayuda a los desarrolladores a trabajar de manera más eficiente, dice Mehrnoosh Sameki, gerente principal de productos de IA responsable en Microsoft.
Esta publicación es parte de la serie Construir IA de manera responsable, que explora las principales preocupaciones con la implementación de la IA y cómo la empresa las aborda con sus prácticas y herramientas de IA responsable.
«Es muy fácil llegar a la primera versión de una aplicación de IA generativa, pero la gente se ralentiza de manera drástica antes de que se ponga en marcha, porque tienen miedo de que pueda exponerlos a riesgos, o no saben si cumplen con las regulaciones y los requisitos», dice. «Estas herramientas aceleran la implementación y brindan tranquilidad a medida que avanza en las pruebas y protege su aplicación».
Las herramientas son parte de un método holístico que Microsoft proporciona para construir IA de manera responsable, perfeccionado por la experiencia en identificar, medir, administrar y monitorear el riesgo en sus propios productos, y asegurarse de que se realice cada paso. Cuando surgió la IA generativa, la empresa reunió a expertos en seguridad, protección, equidad y otras áreas para identificar los riesgos fundamentales y compartir documentación, algo que aún se hace hoy en día a medida que cambia la tecnología. A continuación, desarrolló un enfoque exhaustivo para mitigar el riesgo y herramientas para ponerlo en práctica.
El enfoque refleja el trabajo de un Equipo Rojo de IA que identifica riesgos emergentes como alucinaciones y ataques de prompt , los investigadores que estudian deepfakes, expertos en medición que desarrollaron un sistema para evaluar la IA, e ingenieros que construyen y refinan barandillas de seguridad. Las herramientas incluyen el marco de código abierto PyRIT para que los equipos rojos identifiquen los riesgos, evaluaciones automatizadas en Azure AI Foundry para la medición y el seguimiento continuos de los riesgos, y seguridad del contenido de Azure AI para detectar y bloquear entradas y salidas dañinas.
Microsoft también publica las mejores prácticas para elegir el modelo adecuado para una aplicación, escribir mensajes del sistema y diseñar experiencias de usuario como parte de la creación de un sistema de seguridad de IA sólido.
«Utilizamos un enfoque de defensa en profundidad con muchas capas que protegen contra diferentes tipos de riesgos, y le damos a las personas todas las piezas para hacer este trabajo por sí mismas», dice Bird.
Para la empresa de preparación de impuestos que creó un chatbot de orientación, la capacidad de corregir las alucinaciones de la IA fue en particular importante para proporcionar información precisa, dice Sameki. La compañía también hizo que su chatbot fuera más seguro y privado con filtros que bloquean ataques rápidos, contenido dañino e información de identificación personal.
Hacer que nuestros propios sistemas de IA sean confiables es fundamental en lo que hacemos, y queremos empoderar a los clientes para que hagan lo mismo.
Sarah Bird, directora de productos de IA Responsable
Ella dice que la organización de atención médica que creó el asistente de resumen estaba en especial interesada en las herramientas para mejorar la precisión y crear un filtro personalizado para asegurarse de que los resúmenes no omitieran información clave.
«Muchas de nuestras herramientas ayudan como herramientas de depuración para que puedan entender cómo mejorar su aplicación», dice Sameki. «Ambas compañías pudieron implementar más rápido y con mucha más confianza».
Microsoft también ayuda a las organizaciones a mejorar su gobernanza de IA, un sistema para rastrear y compartir detalles importantes sobre el desarrollo, la implementación y el funcionamiento de una aplicación o modelo. Disponible en versión preliminar privada en Azure AI Foundry, Informes de IA brindará a las organizaciones una plataforma unificada para colaborar, cumplir con un número creciente de regulaciones de IA y documentar los conocimientos de evaluación, los riesgos potenciales y las mitigaciones.
«Es difícil saber que todas las piezas funcionan si no se cuenta con la gobernanza adecuada», dice Bird. «Nos aseguramos de que los sistemas de IA de Microsoft cumplan con la normativa, y compartimos las mejores prácticas, herramientas y tecnologías que ayudan a los clientes en su viaje de cumplimiento».
El trabajo es parte del objetivo de Microsoft de ayudar a las personas a hacer más con la IA y compartir aprendizajes que faciliten el trabajo para todos.
«Hacer que nuestros propios sistemas de IA sean confiables es fundamental en lo que hacemos, y queremos empoderar a los clientes para que hagan lo mismo», dice Bird.
Conozcan más sobre el trabajo de IA Responsable de Microsoft.
Ilustración principal de Makeshift Studios / Rocío Galarza. Artículo publicado el 22 de enero de 2025