El marco de trabajo de Microsoft para construir sistemas de IA de manera responsable

Por: Natasha Crampton, directora de IA Responsable.

Hoy compartimos al público el Estándar de IA Responsable de Microsoft (Responsible AI Standard), un marco para guiar cómo construimos sistemas de IA. Es un paso importante en nuestro camino para desarrollar una IA mejor y más confiable. Lanzamos nuestro último Estándar de IA Responsable para compartir lo que hemos aprendido, invitar comentarios de otros y contribuir a la discusión sobre la creación de mejores normas y prácticas en torno a la IA.

Guiar el desarrollo de productos hacia resultados más responsables

Los sistemas de IA son el producto de muchas decisiones diferentes tomadas por quienes los desarrollan e implementan. Desde el propósito del sistema hasta cómo las personas interactúan con los sistemas de IA, debemos guiar de manera proactiva estas decisiones hacia resultados más beneficiosos y equitativos. Eso significa mantener a las personas y sus objetivos en el centro de las decisiones de diseño del sistema y respetar valores duraderos como la equidad, la confiabilidad y la seguridad, la privacidad y la seguridad, la inclusión, la transparencia y la responsabilidad.

El Estándar de IA Responsable establece nuestras mejores ideas sobre cómo construiremos sistemas de IA para defender estos valores y ganarnos la confianza de la sociedad. Brinda una guía práctica y específica para nuestros equipos que va más allá de los principios de alto nivel que han dominado el panorama de la IA hasta la fecha.

El Estándar detalla objetivos o resultados concretos que los equipos que desarrollan sistemas de IA deben esforzarse por alcanzar. Estos objetivos ayudan a desglosar un principio amplio como la «rendición de cuentas» en sus facilitadores clave, como las evaluaciones de impacto, la gobernanza de datos y la supervisión humana. Luego, cada objetivo se compone de un conjunto de requisitos, que son pasos que los equipos deben seguir para garantizar que los sistemas de IA cumplan los objetivos a lo largo del ciclo de vida del sistema. Por último, el estándar asigna herramientas y prácticas disponibles a requisitos específicos para que los equipos de Microsoft que lo implementen tengan recursos para ayudarlos a tener éxito.

Componentes principales del gráfico del Estándar de Inteligencia Artificial Responsable de Microsoft
Los componentes principales del Estándar de IA Responsable de Microsoft

La necesidad de este tipo de orientación práctica es cada vez mayor. La IA se convierte cada vez más en una parte de nuestras vidas y, sin embargo, nuestras leyes se han comenzado a quedar atrás. No se han puesto al día con los riesgos únicos de AI o las necesidades de la sociedad. Si bien vemos señales de que la acción del gobierno sobre la IA se ha comenzado a expandir, también reconocemos nuestra responsabilidad de actuar. Creemos que debemos trabajar para garantizar que los sistemas de IA sean responsables por diseño.

Refinar nuestra política y aprender de nuestras experiencias con los productos

En el transcurso de un año, un grupo multidisciplinario de investigadores, ingenieros y expertos en políticas elaboró la segunda versión de nuestro Estándar de IA Responsable. Se basa en nuestros esfuerzos anteriores de IA responsable, incluida la primera versión del Estándar que se lanzó de manera interna en el otoño de 2019, así como en las últimas investigaciones y algunas lecciones importantes aprendidas de nuestras propias experiencias con los productos.

Equidad en la tecnología de voz a texto

El potencial de los sistemas de IA para exacerbar los sesgos y las desigualdades sociales es uno de los daños más reconocidos asociados con estos sistemas. En marzo de 2020, un estudio académico reveló que la tecnología de voz a texto en todo el sector tecnológico producía tasas de error para los miembros de algunas comunidades negras y afroamericanas que casi duplicaban las de los usuarios blancos. Dimos un paso atrás, consideramos los hallazgos del estudio y descubrimos que nuestras pruebas previas al lanzamiento no habían tenido en cuenta de manera satisfactoria la rica diversidad de habla entre personas con diferentes antecedentes y de diferentes regiones. Después de que se publicó el estudio, contratamos a un sociolingüista experto para que nos ayudara a comprender mejor esta diversidad y buscamos expandir nuestros esfuerzos de recopilación de datos para reducir la brecha de rendimiento en nuestra tecnología de voz a texto. En el proceso, descubrimos que necesitábamos lidiar con preguntas desafiantes sobre la mejor manera de recopilar datos de las comunidades de una manera que los involucre de manera adecuada y respetuosa. También aprendimos el valor de traer expertos al proceso desde el principio, incluso para comprender mejor los factores que podrían explicar las variaciones en el rendimiento del sistema.

El Estándar de IA Responsable registra el patrón que seguimos para mejorar nuestra tecnología de voz a texto. A medida que continuamos con la implementación del Estándar en toda la empresa, esperamos que los Objetivos y Requisitos de Equidad identificados en él nos ayuden a adelantarnos a posibles daños a la equidad.

Controles de uso apropiados para el reconocimiento facial y de voz neuronal personalizado

Custom Neural Voice de Azure AI es otra innovadora tecnología de voz de Microsoft que permite la creación de una voz sintética que suena casi idéntica a la fuente original. AT&T ha dado vida a esta tecnología con una experiencia galardonada de Bugs Bunny en tienda, y Progressive ha llevado la voz de Flo a las interacciones en línea con los clientes, entre los usos de muchos otros clientes. Esta tecnología tiene un potencial emocionante en la educación, la accesibilidad y el entretenimiento y, sin embargo, también es fácil imaginar cómo podría usarse para hacerse pasar por oradores de manera inapropiada y engañar a los oyentes.

Nuestra revisión de esta tecnología a través de nuestro programa de inteligencia artificial responsable, incluido el proceso de revisión de usos confidenciales requerido por el estándar de inteligencia artificial responsable, nos llevó a adoptar un marco de control por capas: restringimos el acceso de los clientes al servicio, nos aseguramos de que los casos de uso aceptables se definieran y comunicaran de manera proactiva. a través de una Nota de Transparencia y Código de Conducta, y estableció barandillas técnicas para ayudar a asegurar la participación activa del locutor en la creación de una voz sintética. A través de estos y otros controles, ayudamos a proteger contra el mal uso, mientras mantenemos los usos beneficiosos de la tecnología.

Sobre la base de lo que aprendimos de Custom Neural Voice, aplicaremos controles similares a nuestros servicios de reconocimiento facial. Después de un período de transición para los clientes existentes, limitamos el acceso a estos servicios a los clientes y socios administrados, para reducir los casos de uso a los aceptables predefinidos y aprovechar los controles técnicos integrados en los servicios.

Fit for Purpose y capacidades de Azure Face

Por último, reconocemos que para que los sistemas de IA sean confiables, deben ser soluciones adecuadas a los problemas para los que fueron diseñados. Como parte de nuestro trabajo para alinear nuestro servicio Azure Face con los requisitos del Estándar de IA Responsable, también retiramos las capacidades que infieren estados emocionales y atributos de identidad como el género, la edad, la sonrisa, el vello facial, el cabello y el maquillaje.

Al tomar los estados emocionales como ejemplo, hemos decidido que no proporcionaremos acceso API abierto a la tecnología que puede escanear los rostros de las personas y pretender inferir sus estados emocionales en función de sus expresiones faciales o movimientos. Los expertos dentro y fuera de la empresa han destacado la falta de consenso científico sobre la definición de «emociones», los desafíos en cómo las inferencias se generalizan entre casos de uso, regiones y demografía, y las mayores preocupaciones de privacidad en torno a este tipo de capacidad. También decidimos que necesitamos analizar de manera cuidadosa todos los sistemas de IA que pretenden inferir los estados emocionales de las personas, ya sea que los sistemas usen análisis facial o cualquier otra tecnología de IA. El objetivo y los requisitos de Fit for Purpose en el estándar de IA responsable ahora nos ayudan a realizar evaluaciones de validez específicas del sistema por adelantado, y nuestro proceso de Usos Sensibles nos ayuda a proporcionar una guía matizada para casos de uso de alto impacto, con base en la ciencia.

Estos desafíos del mundo real informaron el desarrollo del Estándar de IA Responsable de Microsoft y demuestran su impacto en la forma en que diseñamos, desarrollamos e implementamos sistemas de IA.

Para aquellos que deseen profundizar más en nuestro enfoque, también hemos puesto a disposición algunos recursos clave que respaldan el Estándar de IA Responsable: nuestra plantilla y guía de Evaluación de Impacto, y una colección de Notas de Transparencia. Las Evaluaciones de Impacto han demostrado ser valiosas en Microsoft para garantizar que los equipos exploren el impacto de su sistema de IA, incluidas las partes interesadas, los beneficios previstos y los daños potenciales, a profundidad en las primeras etapas de diseño. Las Notas de Transparencia son una nueva forma de documentación en la que revelamos a nuestros clientes las capacidades y limitaciones de nuestras tecnologías de bloques de construcción centrales, para que tengan el conocimiento necesario para tomar decisiones de implementación responsables.

Gráfico de principios básicos
El Estándar de IA Responsable se basa en nuestros principios fundamentales

Un camino multidisciplinario e iterativo

Nuestro Estándar de IA Responsable actualizado refleja cientos de aportes en tecnologías, profesiones y geografías de Microsoft. Es un importante paso adelante para nuestra práctica de IA responsable porque es mucho más práctico y concreto: establece enfoques prácticos para identificar, medir y mitigar los daños con anticipación, y requiere que los equipos adopten controles para asegurar usos beneficiosos y protegerlos contra el mal uso.

Si bien nuestro Estándar es un paso importante en el camino de la IA responsable de Microsoft, es tan solo un paso. A medida que avanzamos en la implementación, esperamos encontrar desafíos que requieran que nos detengamos, reflexionemos y nos adaptemos. Nuestro Estándar seguirá como un documento vivo, en evolución, para abordar nuevas investigaciones, tecnologías, leyes y aprendizajes dentro y fuera de la empresa.

Existe un diálogo global rico y activo sobre cómo crear normas basadas en principios y prácticas para garantizar que las organizaciones desarrollen e implementen la IA de manera responsable. Nos hemos beneficiado de esta discusión y vamos a contribuir a ella. Creemos que la industria, la academia, la sociedad civil y el gobierno deben colaborar para avanzar en el estado del arte y aprender unos de otros. Juntos, debemos responder preguntas abiertas de investigación, cerrar brechas de medición y diseñar nuevas prácticas, patrones, recursos y herramientas.

Futuros mejores y más equitativos requerirán nuevas barandillas para la IA. El Estándar de IA Responsable de Microsoft es una contribución hacia este objetivo, y participamos en el trabajo de implementación arduo y necesario en toda la empresa. Estamos comprometidos a ser abiertos, honestos y transparentes en nuestros esfuerzos por lograr un progreso significativo.

Tags: , , ,

Publicaciones Relacionadas