Cómo facilitar a las empresas el desarrollo y lanzamiento de una IA en la que las personas confíen

Ilustracion de un barco

La IA generativa está revolucionando múltiples industrias. A pesar de ello, muchas empresas enfrentan desafíos a la hora de desarrollar y desplegar herramientas seguras en un panorama tecnológico en constante evolución. Los líderes empresariales se preocupan por los riesgos asociados, como pueden ser la generación de información errónea o dañina, la filtración de datos sensibles, el riesgo de ciberataques o el incumplimiento de normativas de privacidad. Sin embargo, en muchos casos, no cuentan con los recursos ni el conocimiento necesario para gestionar estos desafíos de manera efectiva.

«Las organizaciones valoran la seguridad y la protección, además de la calidad y el rendimiento de sus aplicaciones de IA -explica Sarah Bird, Chief Product Officer de IA Responsable en Microsoftpero muchas no saben qué pasos deben seguir para hacer que su IA sea confiable o carecen de las herramientas adecuadas para lograrlo«.

Para abordar esta problemática, Microsoft ofrece herramientas y servicios diseñados que ayudan a los desarrolladores a crear y lanzar sistemas de IA confiables, con un enfoque centrado en la seguridad, la privacidad y la protección. Estas soluciones han permitido a numerosas organizaciones implementar tecnología en entornos complejos y altamente regulados, desde un asistente de IA que resume historiales médicos hasta un chatbot que ofrece asesoramiento fiscal.

Además, este enfoque está optimizando el trabajo de los desarrolladores, ayudándoles a ser más eficientes”, destaca Mehrnoosh Sameki, manager principal de producto de IA Responsable en Microsoft.

«Aunque desarrollar la primera versión de una aplicación de IA generativa es relativamente sencillo, muchas empresas se frenan antes de su lanzamiento por temor a los riesgos, o por la incertidumbre sobre el cumplimiento de normativas y requisitos«, revela Sameki. «Estas herramientas agilizan la implementación y proporcionan tranquilidad al facilitar las pruebas y la protección de la aplicación«.

Estas soluciones forman parte de un enfoque integral de Microsoft para el desarrollo de una IA responsable, respaldado por su experiencia en la identificación, medición, gestión y monitorización de riesgos de sus propios productos. La compañía se asegura de que cada paso del proceso se lleve a cabo de manera rigurosa.

Desde la aparición de la IA generativa, Microsoft ha reunido a expertos en seguridad, privacidad y otros campos clave para identificar riesgos posibles y documentar buenas prácticas, un proceso que continúa evolucionando al mismo ritmo que la propia tecnología. A partir de este trabajo, Microsoft ha desarrollado un marco sólido para reducir riesgos y desarrollar soluciones prácticas.

Este enfoque combina el trabajo de diversos expertos: un red team de IA que detecta posibles riesgos como alucinaciones o ataques por prompts, investigadores expertos en deepfakes, especialistas en medición que han desarrollado sistemas de evaluación de IA, e ingenieros dedicados a diseñar y mejorar las medidas de seguridad.

Entre las herramientas disponibles se incluyen PyRIT, un marco de código abierto que ayuda a los equipos de seguridad a identificar riesgos; Azure AI Foundry, que evalúa automáticamente para medir y monitorizar riesgos de manera constante; y Azure AI Content Safety, diseñado para detectar y bloquear contenido dañino.

Además, Microsoft comparte sus mejores prácticas para ayudar a las empresas a elegir el modelo adecuado para sus aplicaciones, redactar mensajes del sistema y diseñar experiencias de usuario que refuercen la seguridad de la IA.

«Nuestro enfoque centrado en la seguridad incorpora múltiples capas de protección contra distintos riesgos. Estamos proporcionando a las organizaciones todas las herramientas necesarias para que puedan implementarlo por sí mismas«, asegura Bird.

Por ejemplo, para una gestoría que desarrolló un chatbot de asesoría fiscal, la capacidad de corregir alucinaciones de la IA fue clave para garantizar la precisión de la información, según Sameki. Además, la empresa reforzó la seguridad, la privacidad y la confiabilidad del chatbot con filtros diseñados para bloquear ataques por prompts, contenido perjudicial y datos personales identificables.

“Hacer que nuestros propios sistemas de IA sean fiables es fundamental en nuestro día a día. Por ello, queremos capacitar a los clientes para que hagan lo mismo”. Sarah Bird, Chief Product Officer de IA Responsable

Por otro lado, una organización de atención médica desplegó un asistente de resumen con el objetivo de desarrollar herramientas para mejorar la precisión la creación de un filtro personalizado que garantice que los resúmenes no omitan información clave.

«Muchas de nuestras herramientas funcionan como sistemas de depuración, lo que ayudó a esta organización sanitaria a comprender mejor cómo optimizar su aplicación«, señala Sameki. «Gracias a esto, ambas empresas pudieron implementar sus soluciones más rápido y con mucha más confianza«.

Además, Microsoft está ayudando a las organizaciones a fortalecer la gobernanza de la IA, un sistema que facilita el seguimiento y la gestión de información clave sobre el desarrollo, implementación y operación de modelos y aplicaciones. Actualmente disponible en versión preview privada en Azure AI Foundry, AI Reports ofrecerá a las empresas una plataforma unificada para colaborar, cumplir con el creciente número de regulaciones y documentar evaluaciones y estrategias para mitigar de riesgos potenciales.

«Si no se cuenta con un sistema de gobernanza adecuado, es difícil garantizar que todo funcione correctamente«, apunta Bird. «En Microsoft nos aseguramos de que nuestros sistemas de IA cumplan con las normativas, y compartimos nuestras mejores prácticas, herramientas y tecnologías para ayudar a nuestros clientes en su proceso de cumplimiento«.

Este trabajo es parte del compromiso de Microsoft de empoderar a las personas a través de la IA y de compartir conocimientos que faciliten su adopción de manera segura y eficiente.

«La confianza en nuestros propios sistemas de IA es la base de todo lo que hacemos, y queremos brindar a nuestros clientes las herramientas para que logren lo mismo«, afirma Bird.

Para saber más: Blog de IA Responsable en el trabajo de Microsoft

Tags: ,

Posts relacionados

Fugas de información: el desafío de las empresas ante el uso de herramientas de IA no supervisadas

Las empresas enfrentan desafíos debido al uso no supervisado de herramientas de IA generativa por parte de los empleados, lo que incrementa los riesgos de seguridad y cumplimiento normativo. Un estudio de Microsoft y LinkedIn revela que el 77% de los empleados introduce sus propias herramientas de IA en el entorno laboral, exponiendo a las organizaciones a posibles fugas de datos y uso indebido de información confidencial. Microsoft Purview se presenta como una solución para descubrir, proteger y gobernar el uso de datos, asegurando el cumplimiento normativo y evitando la transferencia de información sensible a plataformas no autorizadas. La Iniciativa Futuro Seguro de Microsoft prioriza la seguridad en el diseño, implementación y operación de sus productos y servicios, destacando las capacidades avanzadas de Microsoft Purview y otras herramientas de seguridad de Microsoft para proteger los activos digitales de las empresas.