Anunciamos el ajuste fino de Phi-3, nuevos modelos de IA generativa y otras actualizaciones de Azure AI para permitir a las organizaciones personalizar y escalar aplicaciones de IA

Ilustración de un monitor de computadora

Por: Asha Sharma, vicepresidenta corporativa de la plataforma de IA.

La IA ha comenzado a transformar todas las industrias y a crear nuevas oportunidades para la innovación y el crecimiento. Sin embargo, el desarrollo y la implementación de aplicaciones de IA a escala requieren una plataforma sólida y flexible que pueda manejar las necesidades complejas y diversas de las empresas modernas y permitirles crear soluciones basadas en los datos de su organización. Es por eso que nos complace anunciar varias actualizaciones para ayudar a los desarrolladores a crear, de manera rápida, soluciones de IA personalizadas con mayor variedad y flexibilidad, a través de aprovechar la cadena de herramientas de Azure AI:

  • El ajuste sin servidor para los modelos Phi-3-mini y Phi-3-medium permite a los desarrolladores personalizar de manera rápida y fácil los modelos para escenarios de nube y periféricos sin tener que organizar la computación.
  • Las actualizaciones de Phi-3-mini incluyen una mejora significativa en la calidad del núcleo, el seguimiento de instrucciones y la salida estructurada, lo que permite a los desarrolladores crear con un modelo de mayor rendimiento sin costo adicional.
  • Envío el mismo día a principios de este mes de los últimos modelos de OpenAI (GPT-4o mini), Meta (Llama 3.1 405B), Mistral (Large 2) a Azure AI para brindar a los clientes una mayor variedad y flexibilidad.

Liberar valor a través de la innovación y la personalización de modelos

En abril, presentamos la familia Phi-3 de modelos pequeños y abiertos desarrollados por Microsoft. Los modelos Phi-3 son nuestros modelos de lenguaje pequeño (SLM, por sus siglas en inglés) más capaces y rentables disponibles, que superan a los modelos del mismo tamaño y del siguiente tamaño. A medida que los desarrolladores buscan adaptar las soluciones de IA para satisfacer necesidades comerciales específicas y mejorar la calidad de las respuestas, ajustar un modelo pequeño es una excelente alternativa sin sacrificar el rendimiento. A partir de hoy, los desarrolladores pueden ajustar Phi-3-mini y Phi-3-medium con sus datos para crear experiencias de IA que sean más relevantes para sus usuarios, de forma segura y económica.

Dada su pequeña huella de cómputo y compatibilidad en la nube y en el entorno, los modelos Phi-3 son muy adecuados para el ajuste fino y para mejorar el rendimiento del modelo base en una variedad de escenarios, incluido el aprendizaje de una nueva habilidad o una tarea (por ejemplo, tutoría) o la mejora de la consistencia y la calidad de la respuesta (por ejemplo, tono o estilo de respuestas en el chat / preguntas y respuestas). Ya hemos comenzado a ver adaptaciones de Phi-3 para nuevos casos de uso.

Microsoft y Khan Academy trabajan juntos para ayudar a mejorar las soluciones para profesores y estudiantes de todo el mundo. Como parte de la colaboración, Khan Academy usa Azure OpenAI Service para impulsar Khanmigo for Teachers, un asistente de enseñanza piloto impulsado por IA para educadores en 44 países, y experimenta con Phi-3 para mejorar la tutoría de matemáticas. Khan Academy publicó de manera reciente un artículo de investigación que destaca cómo se desempeñan los diferentes modelos de IA al evaluar la precisión matemática en escenarios de tutoría, incluidos los puntos de referencia de una versión ajustada de Phi-3. Los datos iniciales muestran que cuando un estudiante comete un error matemático, Phi-3 superó a la mayoría de los otros modelos líderes de IA generativa en la corrección e identificación de errores de los estudiantes.

Y también hemos ajustado Phi-3 para el dispositivo. En junio, presentamos Phi Silica para empoderar a los desarrolladores con un modelo potente y confiable para crear aplicaciones con experiencias de IA seguras. Phi Silica se basa en la familia de modelos Phi y está diseñado en específico para las NPU de los PC Copilot+. Microsoft Windows es la primera plataforma en tener un modelo de lenguaje pequeño (SLM) de última generación personalizado para la Unidad de Procesamiento Neuronal (NPU, por sus siglas en inglés) y la bandeja de entrada de envío.

Pueden intentar el ajuste preciso de los modelos Phi-3 hoy mismo en Azure AI.

También me complace compartir que nuestra capacidad de modelos como servicio (punto de conexión sin servidor) en Azure AI ya está disponible con carácter general. Además, Phi-3-small ahora está disponible a través de un punto final sin servidor para que los desarrolladores puedan comenzar de manera rápida y fácil con el desarrollo de IA sin tener que administrar la infraestructura subyacente. Phi-3-vision, el modelo multimodal de la familia Phi-3, se anunció en Microsoft Build y está disponible a través del catálogo de modelos de Azure AI. Pronto también estará disponible a través de un punto final sin servidor. Phi-3-small (parámetro 7B) está disponible en dos longitudes de contexto: 128K y 8K, mientras que Phi-3-vision (parámetro 4.2B) también se ha optimizado para la comprensión de gráficos y diagramas, y se puede utilizar para generar información y responder preguntas.

Hemos visto una gran respuesta de la comunidad en Phi-3. Lanzamos una actualización para Phi-3-mini el mes pasado que aporta una mejora significativa en la calidad del núcleo y el seguimiento de las instrucciones. El modelo se volvió a entrenar, lo que condujo a una mejora sustancial en el seguimiento de la instrucción y el apoyo a los resultados estructurados. También mejoramos la calidad de las conversaciones en varios turnos, introdujimos soporte para indicaciones de <|sistema|> y mejoramos de manera significativa la capacidad de razonamiento.

En la siguiente tabla se destacan las mejoras en el seguimiento de instrucciones, la salida estructurada y el razonamiento.

ReferenciaPhi-3-mini-4kPhi-3-mini-128k
Versión abr ’24Actualización Jun ’24Versión abr ’24Actualización Jun ’24
Instrucción Extra Hard5.76.05.75.9
Instrucción Difícil4.95.155.2
Salida de estructura JSON11.552.31.960.1
Salida de estructura XML14.449.847.852.9
GPQA23.730.625.929.7
MMLU (en inglés)68.870.968.169.7
Promedio21.735.825.737.6

También seguimos con las mejoras a la seguridad del Phi-3. Un documento de investigación reciente destacó el enfoque iterativo de «reparación de averías» de Microsoft para mejorar la seguridad de los modelos Phi-3, que implicó múltiples rondas de pruebas y refinamiento, equipo rojo e identificación de vulnerabilidades. Este método redujo de manera significativa el contenido dañino en un 75% y mejoró el rendimiento de los modelos en los puntos de referencia de IA responsables. 

Ampliación de la elección de modelos, ahora con más de 1,600 modelos disponibles en Azure AI

Con Azure AI, nos comprometemos a ofrecer la selección más completa de modelos abiertos y fronterizos, así como herramientas de última generación para ayudar a satisfacer las necesidades únicas de costo, latencia y diseño de los clientes. El año pasado lanzamos el catálogo de modelos de Azure AI, donde ahora tenemos la selección más amplia de modelos con más de 1.600 modelos de proveedores como AI21, Cohere, Databricks, Hugging Face, Meta, Mistral, Microsoft Research, OpenAI, Snowflake, Stability AI y otros. Este mes agregamos GPT-4o mini de OpenAI a través de Azure OpenAI Service, Meta Llama 3.1 405B y Mistral Large 2.

Para seguir con el impulso, nos complace compartir que Cohere Rerank ya está disponible en Azure. El acceso a los modelos de lenguaje listos para la empresa de Cohere, en la sólida infraestructura de Azure AI, permite a las empresas incorporar de manera fluida, confiable y segura tecnología de búsqueda semántica de vanguardia en sus aplicaciones. Esta integración permite a los usuarios aprovechar la flexibilidad y la escalabilidad de Azure, combinadas con los modelos de lenguaje eficientes y de alto rendimiento de Cohere, para ofrecer resultados de búsqueda superiores en producción.

TD Bank Group, uno de los bancos más grandes de América del Norte, firmó recientemente un acuerdo con Cohere para explorar su conjunto completo de modelos de lenguaje (LLM, por sus siglas en inglés) de gran tamaño, incluido Cohere Rerank.

En TD, hemos visto el potencial transformador de la IA para ofrecer experiencias más personalizadas e intuitivas para nuestros clientes, colegas y comunidades, estamos entusiasmados de trabajar junto a Cohere para explorar cómo se desempeñan sus modelos de lenguaje en Microsoft Azure para ayudar a respaldar nuestro recorrido de innovación en el Banco».

Kirsti Racine, vicepresidenta y líder de tecnología de inteligencia artificial, TD.

Atomicwork, una plataforma de experiencia digital en el lugar de trabajo y cliente de Azure desde hace mucho tiempo, ha mejorado de manera significativa su plataforma de gestión de servicios de TI con Cohere Rerank. Al integrar el modelo en su asistente digital de IA, Atom AI, Atomicwork ha mejorado la precisión y la relevancia de la búsqueda, para brindar respuestas más rápidas y precisas a consultas complejas de soporte de TI. Esta integración ha optimizado las operaciones de TI y ha aumentado la productividad en toda la empresa.

La fuerza impulsora detrás de la solución de experiencia digital en el lugar de trabajo de Atomicwork es el modelo Rerank de Cohere y Azure AI Studio, que empodera a Atom AI, nuestro asistente digital, con la precisión y el rendimiento necesarios para ofrecer resultados en el mundo real. Esta colaboración estratégica subraya nuestro compromiso de proporcionar a las empresas capacidades de IA empresarial avanzadas, seguras y confiables».

Vijay Rayapati, director ejecutivo de Atomicwork

Command R+, el modelo generativo insignia de Cohere, que también está disponible en Azure AI, está diseñado en específico para funcionar bien con Cohere Rerank dentro de un sistema de generación aumentada (RAG, por sus siglas en inglés) de recuperación. Juntos, son capaces de atender algunas de las cargas de trabajo empresariales más exigentes en producción.

Hace unos días, anunciamos que Meta Llama 3.1 405B, junto con los últimos modelos de Llama 3.1 ajustados, incluidos 8B y 70B, ya están disponibles a través de un punto de conexión sin servidor en Azure AI. Llama 3.1 405B se puede utilizar para la generación y destilación de datos sintéticos avanzados, con 405B-Instruct que sirve como modelo de profesor y los modelos 8B-Instruct/70B-Instruct actuando como modelos de estudiante. Obtengan más información sobre este anuncio aquí.

Mistral Large 2 ya está disponible en Azure, lo que convierte a Azure en el primer proveedor líder de la nube en ofrecer este modelo de próxima generación. Mistral Large 2 supera a las versiones anteriores en codificación, razonamiento y comportamiento agente, situándose a la par con otros modelos líderes. Además, Mistral Nemo, desarrollado en colaboración con NVIDIA, ofrece un potente modelo 12B que supera los límites de la comprensión y la generación de idiomas. Más información.

Y hace unos días, trajimos GPT-4o mini a Azure AI junto con otras actualizaciones de Azure OpenAI Service, lo que permite a los clientes ampliar su gama de aplicaciones de IA a un menor costo y latencia con opciones mejoradas de seguridad e implementación de datos. Anunciaremos más capacidades para GPT-4o mini en las próximas semanas. También nos complace presentar una nueva característica para implementar chatbots creados con Azure OpenAI Service en Microsoft Teams.  

Habilitar la innovación en IA de forma segura y responsable

La creación responsable de soluciones de IA es el núcleo del desarrollo de la IA en Microsoft. Contamos con un sólido conjunto de capacidades para ayudar a las organizaciones a medir, mitigar y gestionar los riesgos de IA en todo el ciclo de vida del desarrollo de IA para aplicaciones tradicionales de aprendizaje automático e IA generativa. Las evaluaciones de Azure AI permiten a los desarrolladores evaluar de forma iterativa la calidad y la seguridad de los modelos y las aplicaciones mediante métricas integradas y personalizadas para informar sobre las mitigaciones. Las características adicionales de seguridad del contenido de Azure AI, incluidos los escudos de aviso y la detección de materiales protegidos, ahora están «activadas de forma predeterminada» en Azure OpenAI Service. Estas capacidades se pueden aprovechar como filtros de contenido con cualquier modelo básico incluido en nuestro catálogo de modelos, incluidos Phi-3, Llama y Mistral. Los desarrolladores también pueden integrar estas capacidades en su aplicación de manera sencilla, a través de una sola API. Una vez en producción, los desarrolladores pueden supervisar la calidad y la seguridad de su aplicación, los ataques rápidos adversarios y la integridad de los datos, para realizar intervenciones oportunas con la ayuda de alertas en tiempo real.

Azure AI usa el escáner de modelos HiddenLayer para examinar modelos abiertos y de terceros en busca de amenazas emergentes, como vulnerabilidades de ciberseguridad, malware y otros signos de manipulación, antes de incorporarlos al catálogo de modelos de Azure AI. Las verificaciones resultantes de Model Scanner, proporcionadas dentro de cada tarjeta de modelo, pueden dar a los equipos de desarrolladores una mayor confianza a medida que seleccionan, ajustan e implementan modelos abiertos para su aplicación.

Seguimos con la inversión en la pila de IA de Azure para ofrecer innovación de vanguardia a nuestros clientes para que puedan crear, implementar y escalar sus soluciones de IA de forma segura y con confianza. Estamos ansiosos por ver lo que construyen a continuación.

Manténganse al día con más noticias de Azure AI

  • Vean este vídeo para obtener más información sobre el catálogo de modelos de Azure AI.
  • Escuchen el podcast sobre Phi-3 con el investigador principal de Microsoft, Sebastien Bubeck.