Microsoft anuncia nuevas herramientas en Azure AI para ayudar a crear aplicaciones de IA generativa más seguras y fiables

  • Las novedades en la oferta Azure IA de Microsoft ayudan a mitigar, evaluar y monitorear los riesgos de la IA y facilitan a cada organización alcanzar sus objetivos con IA generativa responsable y segura

Microsoft anuncia nuevas herramientas en Azure AI Studio para desarrolladores de aplicaciones de Inteligencia Artificial generativa que les ayudan a superar retos de calidad y seguridad de la IA. Con estas incorporaciones, el portfolio de soluciones que Microsoft ofrece con Azure AI continúa proporcionando tecnologías innovadoras para salvaguardar aplicaciones a lo largo del ciclo de vida de la IA generativa.

Protección de los LLM contra los ataques de inyección puntual con Prompt Shields

Para combatir los ataques de inyección de prompts, tanto los directos, conocidos como jailbreaks, como los indirectos, Microsoft ha introducido Prompt Shields para detectar entradas sospechosas en tiempo real y bloquearlas antes de que lleguen al modelo base. Este enfoque proactivo salvaguarda la integridad de los grandes sistemas de modelos de lenguaje (LLM) y las interacciones de los usuarios.

Identificación de alucinaciones de LLM con Groundedness detections

Microsoft también ha anunciado la próxima disponibilidad de Groundedness detection, una nueva función diseñada para identificar las alucinaciones basadas en texto (casos en que un modelo genera con confianza resultados que no coinciden con el sentido común o carecen de datos de base). Esta función detecta «material no fundamentado» en el texto para mejorar la calidad de los resultados de LLM.

Identificar las alucinaciones es crucial para mejorar la calidad y la fiabilidad de los sistemas de IA generativa, pues este problema puede manifestarse de distintas formas, desde pequeñas imprecisiones hasta resultados totalmente falsos.

Un mensaje de sistema de seguridad eficaz para dirigir aplicaciones

Además de añadir sistemas de seguridad como Azure AI Content Safety, para ayudar a crear mensajes de sistema eficaces, Microsoft ha anunciado que pronto estarán disponibles plantillas de mensajes de sistema de seguridad directamente en los playgrounds Azure AI Studio y Azure OpenAI Service de forma predeterminada. Desarrolladas para mitigar la generación de contenido dañino y el uso indebido, estas plantillas pueden ayudar a los desarrolladores a empezar a crear aplicaciones de alta calidad en menos tiempo.

Evaluación de los riesgos y la seguridad de las solicitudes de LLM

Hoy en día, muchas organizaciones carecen de los recursos para realizar pruebas de estrés en sus aplicaciones de IA generativa para poder avanzar con confianza desde el prototipo hasta la producción. Para ayudarles, entre las novedades que ha anunciado Microsoft, se encuentran las evaluaciones automatizadas para nuevas métricas de riesgo y seguridad. Ya disponibles en versión en preview, estas evaluaciones de seguridad miden la susceptibilidad de una aplicación a los intentos de jailbreak la producción de contenido violento, sexual, relacionado con autolesiones, injusto y que incite al odio. También ofrecen explicaciones en lenguaje natural de los resultados de la evaluación para ayudar a mitigar los riesgos.

Los desarrolladores pueden evaluar una aplicación utilizando su propio conjunto de datos de prueba o simplemente generar un conjunto de datos de prueba de alta calidad, utilizando plantillas de mensajes adversos desarrolladas por Microsoft Research.

Supervisión de las implementaciones de Azure OpenAI Service en busca de riesgos y seguridad en la producción

Microsoft presenta la monitorización de riesgos y seguridad en Azure OpenAI Service. Ahora, los desarrolladores pueden visualizar el volumen, la gravedad y la categoría de las entradas del usuario y las salidas del modelo que fueron bloqueadas por sus filtros de contenido y listas de bloqueo de Azure OpenAI Service a lo largo del tiempo.

Además de la supervisión y las perspectivas a nivel de contenido, se incluyen informes para detectar posibles abusos a nivel de usuario. Si el contenido de un usuario se marca como dañino por los filtros de contenido preconfigurados o las listas de bloqueo de un cliente, el servicio utilizará señales contextuales para determinar si el comportamiento del usuario califica como abuso del sistema de IA. Con estas nuevas capacidades de monitoreo, las organizaciones pueden comprender mejor las tendencias en las aplicaciones y el comportamiento de los usuarios y aplicar esos conocimientos para ajustar las configuraciones de filtros de contenido, las listas de bloqueo y el diseño general de las aplicaciones.

Más información sobre los anuncios en el post de Sarah Bird, directora de productos de IA responsable de Microsoft

Tags: , , ,

Posts relacionados

La universidad CEU Cardenal Herrera potencia el proceso de admisión y matriculación de alumnos internacionales con la Inteligencia Artificial de Microsoft Azure OpenAI

La universidad CEU Cardenal Herrera Oria ha elegido la IA de Microsoft ppara potenciar la admisión y matriculación de alumnado internacional. El chatbot, que usa el modelo de Inteligencia Artificial (IA) generativa de Azure OpenAI de Microsoft, permite que los estudiantes tengan un contacto abierto 24/7 con la universidad, en su propio idioma, para agilizar y facilitar la gestión de las solicitudes.

CaixaBank y Microsoft convocan los Premios WONNOW para reconocer la excelencia femenina en grados STEM

Microsoft y CaixaBank convocan la séptima edición de los Premios WONNOW para impulsar el talento femenino en áreas STEM entre las universitarias españolas. Con estos galardones, ambas compañías reconocerán a la alumna con el mejor expediente académico, trayectoria personal, profesional y social con una dotación económica de 10.000 euros. Además, los premios ofrecen 15 becas remuneradas para trabajar en CaixaBank durante seis meses y el acceso a un programa de mentoring de Microsoft para todas las ganadoras.

Microsoft Copilot for Finance, la herramienta de IA generativa en Microsoft 365 que revolucionará los departamentos financieros

Microsoft anuncia la versión preview de Microsoft Copilot for Finance, una extensión basada en roles de Copilot para Microsoft 365, la herramienta de IA que permite a los equipos financieros automatizar los flujos de trabajo y liberar tiempo a los trabajadores. Copilot for Finance se suma a Microsoft Copilot for Sales y Microsoft Copilot for Service, ya disponibles de forma general, para proporcionar una automatización del flujo de trabajo impulsada por roles y potenciada por Inteligencia Artificial (IA). Además, esta solución facilita recomendaciones y acciones guiadas para mejorar el flujo de trabajo