Nuestro Informe de Transparencia de IA Responsable 2025: cómo construimos, apoyamos a nuestros clientes y crecemos

La imagen presenta un collage digital con dos elementos principales. El primero es un diseño abstracto con formas curvas y fluidas en tonos de azul y púrpura, con una textura brillante y translúcida que crea una sensación de profundidad y movimiento. El segundo es un fondo abstracto con formas curvas y fluidas en tonos translúcidos de azul y púrpura, que generan una textura brillante y una sensación de profundidad y movimiento.

Por: Teresa Hutson, vicepresidenta corporativa del grupo de tecnología confiable y Natasha Crampton, directora de IA Responsable.

En mayo de 2024, publicamos nuestro primer Informe de Transparencia sobre IA Responsable. Estamos agradecidos por los comentarios que recibimos de nuestros grupos de interés de todo el mundo. Sus puntos de vista han servido de base para este segundo Informe anual de Transparencia de IA Responsable, que subraya nuestro compromiso continuo con la creación de tecnologías de IA en las que las personas confíen. Nuestro informe destaca nuevos desarrollos relacionados con la forma en que construimos e implementamos sistemas de IA de manera responsable, cómo apoyamos a nuestros clientes y al ecosistema en general, y cómo aprendemos y evolucionamos.

El año pasado se produjo una ola de adopción de la IA por parte de organizaciones de todos los tamaños, lo que ha provocado un enfoque renovado en la gobernanza eficaz de la IA en la práctica. Nuestros clientes y socios están ansiosos por aprender sobre cómo hemos escalado nuestro programa en Microsoft y hemos desarrollado herramientas y prácticas que ponen en práctica normas de alto nivel.

Al igual que nosotros, han descubierto que crear una IA fiable es bueno para las empresas, y que una buena gobernanza desbloquea las oportunidades de la IA. Según la Encuesta de IA Responsable de Microsoft de IDC, que recopiló información sobre las actitudes organizacionales y el estado de la IA responsable, más del 30% de los encuestados señala la falta de soluciones de gobernanza y gestión de riesgos como la principal barrera para adoptar y escalar la IA. Por el contrario, más del 75% de los encuestados que utilizan herramientas de IA responsable para la gestión de riesgos afirman que han ayudado con la privacidad de los datos, la experiencia del cliente, las decisiones empresariales seguras, la reputación de la marca y la confianza.

También hemos visto surgir nuevos esfuerzos regulatorios y leyes durante el año pasado. Debido a que hemos invertido en la puesta en práctica de prácticas de IA responsables en Microsoft durante casi una década, estamos bien preparados para cumplir con estas regulaciones y capacitar a nuestros clientes para que hagan lo mismo. Sin embargo, nuestro trabajo aquí no ha terminado. Como detallamos en el informe, aún están en proceso de definición las prácticas de regulación e implementación eficientes y efectivas que apoyen la adopción de la tecnología de IA a través de las fronteras. Seguimos centrados en aportar nuestros conocimientos prácticos a los esfuerzos de establecimiento de normas y estándares en todo el mundo.

En todas estas facetas de la gobernanza, es importante mantener la agilidad en nuestro enfoque, aplicar los aprendizajes de nuestras implementaciones en el mundo real, actualizar nuestras prácticas para reflejar los avances en el estado del arte y asegurarnos de que respondemos a los comentarios de nuestros grupos de interés. Los aprendizajes de nuestro enfoque iterativo y basado en principios se reflejan en las páginas de este informe. A medida que nuestras prácticas de gobernanza continúen su evolución, compartiremos de manera proactiva nuestros nuevos conocimientos con nuestros grupos de interés, tanto en futuros informes anuales de transparencia como en otros entornos públicos.

Principales conclusiones de nuestro Informe de Transparencia 2025

En 2024, realizamos inversiones clave en nuestras herramientas, políticas y prácticas de IA responsable para avanzar a la velocidad de la innovación en IA.

  1. Mejoramos nuestras herramientas de IA responsable para proporcionar una cobertura ampliada de medición y mitigación de riesgos para modalidades más allá del texto, como imágenes, audio y video, y soporte adicional para sistemas agénticos, sistemas semiautónomos que anticipamos que representarán un área significativa de inversión e innovación en IA en 2025 y más allá.
  2. Adoptamos un enfoque proactivo y estratificado para cumplir con los nuevos requisitos regulatorios, incluida la Ley de IA de la Unión Europea, y proporcionamos a nuestros clientes recursos y materiales que les permiten innovar de acuerdo con las regulaciones relevantes. Nuestras primeras inversiones en la creación de un programa de IA responsable integral y líder en la industria nos posicionó bien para acelerar nuestros esfuerzos de preparación regulatoria para la IA en 2024.
  3. Continuamos con la aplicación de un enfoque coherente de gestión de riesgos en todas las versiones a través de nuestra revisión previa a la implementación y los esfuerzos de equipo rojo. Esto incluyó la supervisión y revisión de los usos de alto impacto y mayor riesgo de la IA y las versiones de IA generativa, incluidos todos los modelos emblemáticos agregados al servicio Azure OpenAI y todas las versiones de modelos de Phi. Para respaldar aún más la documentación de IA responsable como parte de estas revisiones, lanzamos una herramienta de flujo de trabajo interna diseñada para centralizar los diversos requisitos de IA responsable descritos en el Estándar de IA Responsable.
  4. Continuamos con el ofrecimiento de asesoramiento práctico para usos de alto impacto y mayor riesgo de la IA a través de nuestro equipo de Usos Sensibles y Tecnologías Emergentes. Las aplicaciones de IA generativa, en especial en campos como la salud y las ciencias, fueron áreas de crecimiento notables en 2024. Al recopilar información sobre los casos e involucrar a los investigadores, el equipo proporcionó orientación temprana para los riesgos novedosos y las capacidades emergentes de IA, lo que permitió la innovación e incubó nuevas políticas y directrices internas.
  5. Seguimos apoyándonos en los conocimientos de la investigación para informar nuestra comprensión de los problemas sociotécnicos relacionados con los últimos avances en IA. Establecimos el AI Frontiers Lab para invertir en las tecnologías centrales que amplían la frontera de lo que los sistemas de IA pueden hacer en términos de capacidad, eficiencia y seguridad.
  6. Trabajamos con partes interesadas de todo el mundo para avanzar en la creación de enfoques de gobernanza coherentes que ayuden a acelerar la adopción y permitan que las organizaciones de todo tipo innoven y utilicen la IA a través de las fronteras. Esto incluyó la publicación de un libro que explora la gobernanza en varios dominios y ayuda a avanzar en estándares cohesivos para probar sistemas de IA.

De cara a la segunda mitad de 2025 y más allá

A medida que la innovación y la adopción de la IA continúan su avance, nuestro objetivo principal se mantiene igual: ganarnos la confianza que consideramos fundamental para fomentar la adopción amplia y beneficiosa de la IA en todo el mundo. A medida que continuamos ese recorrido durante el próximo año, nos centraremos en tres áreas para avanzar en nuestro firme compromiso con la gobernanza de la IA y, al mismo tiempo, garantizar que nuestros esfuerzos respondan a un panorama en constante evolución:

  1. Desarrollar herramientas y prácticas de gestión de riesgos más flexibles y ágiles, además de fomentar el desarrollo de habilidades para anticipar y adaptarse a los avances en IA. Para garantizar que las personas y las organizaciones de todo el mundo puedan aprovechar el potencial transformador de la IA, nuestra capacidad para anticipar y gestionar los riesgos de la IA debe seguir el ritmo de la innovación en IA. Esto requiere que construyamos herramientas y prácticas que puedan adaptarse con rapidez a los avances en las capacidades de IA y a la creciente diversidad de escenarios de implementación, cada uno de los cuales tiene perfiles de riesgo únicos. Para ello, realizaremos mayores inversiones en nuestros sistemas de administración de riesgos para proporcionar herramientas y procedimientos para los riesgos más comunes en los escenarios de implementación, y también permitiremos el uso compartido de conjuntos de pruebas, mitigaciones y otros procedimientos recomendados entre los equipos de Microsoft.
  2. Apoyar una gobernanza eficaz en toda la cadena de suministro de IA. Construir, ganar y mantener la confianza en la IA es un esfuerzo colaborativo que requiere que los desarrolladores de modelos, los creadores de aplicaciones y los usuarios del sistema contribuyan al diseño, el desarrollo y las operaciones confiables. La normativa sobre IA, incluida la Ley de IA de la UE, refleja esta necesidad de que la información fluya entre los actores de la cadena de suministro. Si bien adoptamos este concepto de responsabilidad compartida en Microsoft, también reconocemos que determinar cómo encajan las responsabilidades es complejo, en especial en un ecosistema de IA que cambia con rapidez. Para ayudar a avanzar en la comprensión compartida de cómo esto puede funcionar en la práctica, profundizamos nuestro trabajo interno y externo para aclarar las funciones y las expectativas.
  3. Promover un ecosistema vibrante a través de normas compartidas y herramientas efectivas, en particular para la medición y evaluación de riesgos de IA. La ciencia de la medición y evaluación de riesgos de la IA es un campo en crecimiento pero aún incipiente. Nos comprometemos a apoyar la maduración de este campo mediante la continuación de las inversiones dentro de Microsoft, incluso en investigación que amplíe las fronteras de la medición y evaluación de riesgos de IA y las herramientas para ponerla en práctica a escala. Seguimos comprometidos a compartir nuestros últimos avances en herramientas y mejores prácticas con el ecosistema más amplio para respaldar el avance de normas y estándares compartidos para la medición y evaluación de riesgos de IA.

Esperamos escuchar sus comentarios sobre el progreso que hemos logrado y las oportunidades para colaborar en todo lo que aún queda por hacer. Juntos, podemos avanzar en la gobernanza de la IA de manera eficiente y eficaz, para fomentar la confianza en los sistemas de IA a un ritmo que coincida con las oportunidades que se avecinan. Exploren el Informe de Transparencia de IA Responsable 2025.

Tags: , , ,

Publicaciones Relacionadas