Los componentes básicos del programa de IA responsable de Microsoft

Manos apilan bloques de madera

Por: Natasha Crampton, directora de IA responsable.

El ritmo al que avanza la inteligencia artificial (IA) es notable. Al observar los próximos años en este campo, una cosa está clara: La IA será celebrada por sus beneficios, pero también analizada y, hasta cierto punto, temida. Mantenemos la creencia de que, para que la IA beneficie a todos, debe ser desarrollada y utilizada de manera que garantice la confianza de las personas. El enfoque de Microsoft, que está basado en nuestros principios de IA, se centra en establecer barreras de manera proactiva para los sistemas de IA, para que podamos asegurarnos de que sus riesgos se anticipen y mitiguen, y sus beneficios se maximicen.

En los últimos años, han proliferado los principios en torno al desarrollo responsable de la IA y, en su mayor parte, existe un acuerdo abrumador sobre la necesidad de priorizar problemas como la transparencia, equidad, responsabilidad, privacidad y seguridad. Además, aunque los principios son necesarios, tenerlos por sí solos no es suficiente. El trabajo duro y esencial comienza cuando uno se esfuerza por convertir esos principios en prácticas.

En esta ocasión, comparto algunos detalles sobre los componentes básicos que son las bases de nuestro programa de IA responsable en Microsoft: una estructura de gobierno para permitir el progreso y la responsabilidad; reglas para estandarizar nuestros requisitos de una IA responsable; entrenamiento y prácticas para ayudar a nuestros empleados a actuar de acuerdo con nuestros principios y pensar a profundidad sobre los impactos sociotécnicos de nuestros sistemas de IA; y herramientas y procesos para la implementación.

Hay mucho más por discutir alrededor de problemas críticos como el reconocimiento facial, modelos de lenguaje a gran escala y otras aplicaciones sensibles de la IA que afectan nuestras vidas. Estamos comprometidos con esos problemas y planeamos continuar haciéndolo en las discusiones que se dan en toda la comunidad, y escuchar a y aprender de los demás. Es importante tener estas conversaciones en toda la sociedad, porque estas elecciones colectivas que hacemos, darán forma a la manera en que construimos y utilizamos IA, y al futuro que ayudará a generar.

Este texto no aborda esos problemas de manera directa. Está enfocado en específico en una pregunta esencial que nos hacen los clientes y toda la comunidad, sobre cómo tomamos los principios y los convertimos en práctica. Este texto se trata de los procesos, herramientas, entrenamientos y otros recursos que utilizamos para garantizar que las soluciones de IA que desarrollamos en verdad reflejan los principios que adoptamos.

El gobierno como una base para el cumplimiento de normas

Aunque hay mucho que es nuevo e inexplorado en el dominio de la IA responsable, también hay mucho que se puede aprender de los dominios adyacentes. Nuestro enfoque de gobernanza de IA responsable toma prestado el modelo tradicional (hub-and-spoke) que ha funcionado con éxito para integrar privacidad, seguridad y accesibilidad en nuestros productos y servicios.

Nuestro “centro” incluye: el Comité Aether, cuyos grupos de trabajo aprovechan los mejores talentos científicos y de ingeniería, para brindar experiencia en la materia sobre las tendencias emergentes y de vanguardia con respecto a la promulgación de los principios de la IA responsable de Microsoft; la Oficina de IA Responsable, que establece nuestras políticas y procesos de gobernanza; y nuestro grupo Estrategia de IA Responsable en Ingeniería (RAISE, por sus siglas en inglés), que permite a nuestros grupos de ingeniería implementar nuestros procesos de IA responsable a través de sistemas y herramientas. Los tres grupos trabajan juntos para establecer un estándar consistente para una IA responsable en toda la empresa, e impulsan a nuestros “portavoces” para generar iniciativas y ser responsables por ellas.

Los portavoces de nuestra gobernanza incluyen a nuestra comunidad de Responsible AI Champs. Estos campeones son nombrados por el equipo de liderazgo de la compañía y se encuentran en equipos de ingeniería y ventas en toda la empresa. Ellos elevan la conciencia sobre el enfoque de Microsoft para la IA responsable y las herramientas y procesos disponibles, detectan problemas y ayudan a los equipos a evaluar consideraciones éticas y sociales, y cultivan una cultura de innovación responsable en sus equipos.

Desarrollar reglas para implementar nuestros principios

En el otoño de 2019, publicamos a nivel interno la primera versión de nuestro Estándar de IA Responsable, un conjunto de reglas sobre cómo promulgamos nuestros principios de IA responsable, sustentados en la política corporativa de Microsoft. Publicamos la primera versión del Estándar con miras al aprendizaje, y con un humilde reconocimiento de que estábamos en el comienzo de nuestro esfuerzo por pasar de principios a prácticas de manera sistemática. A través de un piloto por fases en 10 grupos de ingeniería y dos equipos de cara al cliente, aprendimos qué funcionó y qué no. Nuestros equipos piloto apreciaron los ejemplos de cómo pueden surgir preocupaciones sobre la IA responsable. A veces también lucharon con la amplitud de las consideraciones establecidas en el Estándar y expresaron el deseo de requisitos y criterios más concretos. Había una sed por más herramientas, plantillas y sistemas, y por una integración más estrecha con las prácticas de desarrollo existentes.

Poco más de un año después, presentamos un vista previa de la versión dos del Estándar de IA Responsable con nuestros empleados. La revisión refuerza un enfoque centrado en el ser humano, basado en sólidas bases de investigación e ingeniería. Exigirá que los equipos que construyen sistemas de IA cumplan con los requisitos que se acumulan en objetivos específicos de los principios. Estas metas ayudan a involucrar los instintos de resolución de problemas de nuestros equipos de ingeniería y brindan un contexto para los requerimientos.

Por cada requisito en el Estándar de IA Responsable, construiremos un conjunto de métodos de implementación que los equipos pueden aprovechar, incluidas herramientas, patrones y prácticas de colaboración colectiva desde dentro y fuera de la empresa, y refinados a través de un proceso de maduración. Esperamos que este sea un esfuerzo de varios años en toda la empresa, y uno de los elementos más importantes para hacer operativa la IA responsable en toda la compañía. Vamos a continuar con la recopilación e integración de comentarios a medida que avanzamos hacia la finalización de la versión dos del Estándar y su implementación global.

Dibujar líneas rojas y trabajar en las áreas grises

En la rápida y matizada práctica de la IA responsable, es imposible reducir todas las complejas consideraciones sociotécnicas en un conjunto exhaustivo de reglas predefinidas. Esto nos llevó a crear un proceso para una revisión y supervisión continuas de casos de alto impacto y problemas y preguntas emergentes.

Nuestro proceso de usos sensibles requiere que los casos de uso que cumplan con nuestros criterios de revisión, se informen a nuestra Oficina de IA Responsable para su clasificación y revisión, lo que incluye una deliberación cuando no existe un precedente sobre el cual basarse. Desde julio de 2019, hemos procesado más de doscientas revisiones de casos de uso, incluido un aumento en revisiones desde marzo de 2020, a medida que más equipos y clientes de Microsoft buscan usar tecnologías de IA en medio de aplicaciones y oportunidades con el aprovechamiento de datos y métodos de IA para mitigar los desafíos con COVID-19.

Este proceso de revisión de usos sensibles nos ha ayudado a navegar por las áreas grises que se encuentran de manera inevitable y, en algunos casos, llevan a nuevas líneas rojas. Los resultados del proceso incluyen nuestras oportunidades en declive para construir e implementar aplicaciones de IA específicas, porque no estábamos seguros de poder hacerlo de una manera que mantuviera nuestros principios. Por ejemplo, Brad Smith, presidente de Microsoft, habló de manera pública sobre cómo, a través de nuestro proceso de revisión de usos sensibles, determinamos que el uso en tiempo real, de un departamento de policía local de California, del reconocimiento facial en cámaras corporales y cámaras de tablero en escenarios de patrulla, era prematuro, y compartió el hecho de que rechazamos el acuerdo. Además de navegar por los desafíos técnicos presentados por el reconocimiento facial que opera en un entorno no controlado, nuestro proceso de revisión de usos sensibles nos ayudó a formar la opinión de que era necesaria una conversación social alrededor del uso del reconocimiento facial, y que se debían establecer leyes. Por lo tanto, se trazó una línea roja para este caso de uso ya en 2018.

Al trabajar con las complejidades de otros varios casos, también llegamos a apreciar la importancia de tres aprendizajes clave. Primero, al profundizar en los detalles de casos de uso, hemos podido entender y articular los diferentes perfiles de riesgo, como el impacto en las fallas y el mal uso en las partes interesadas, y la preparación de la tecnología para el caso de uso particular. Segundo, aprendimos las importantes funciones que desempeñan la evaluación comparativa y las pruebas operativas, lo que ayuda a garantizar que los sistemas de IA sirvan bien a sus partes interesadas y cumplan los estándares de calidad no sólo en los laboratorios, sino también en el mundo real. Y, en tercer lugar, hemos aprendido cómo debemos comunicarnos con nuestros clientes para que puedan implementar sus sistemas de manera responsable.

Estos aprendizajes ayudaron a informar nuevas prácticas en Microsoft. Por ejemplo, desarrollamos Notas de Transparencia para ayudar a los equipos a comunicar los propósitos, capacidades y limitaciones de un sistema de IA, para que nuestros clientes puedan entender cuándo y cómo desplegar nuestras tecnologías de plataforma. Las Notas de Transparencia llenan la brecha entre la documentación técnica y de mercadotecnia, para comunicar de manera proactiva la información que nuestros clientes necesitan saber para desplegar la IA de manera responsable. Nuestra Nota de Transparencia de Face API fue nuestro primer intento en esta nueva práctica, y ahora tenemos un creciente número de Notas de Transparencia en preparación en nuestras ofertas de plataforma. Vemos sinergias entre nuestras Notas de Transparencia y otros esfuerzos de la industria, como las Tarjetas de Modelo, Hojas de Datos para Conjuntos de Datos, y las Hojas Informativas de IA, y nos complace desempeñar un papel activo en la iniciativa ABOUT ML de Partnership on IA, para evolucionar los artefactos y procesos para la documentación de la IA responsable.

Evolucionar nuestra mentalidad y hacer preguntas difíciles

Hoy en día, entendemos que es de vital importancia para nuestros empleados pensar de manera holística respecto a los sistemas de IA que elegimos construir. Como parte de esto, todos necesitamos pensar a fondo y dar cuenta de los impactos sociotécnicos. Es por eso que hemos desarrollado entrenamientos y prácticas para ayudar a nuestros equipos a desarrollar el músculo de hacer preguntas desde cero, como, “¿Por qué construimos este sistema de IA?”, y, “¿Esta tecnología de IA al centro de este sistema está lista para esa aplicación?”

En 2020, nuestro entrenamiento obligatorio Introducción a la IA Responsable, ayudó a más de 145 mil empleados a aprender el proceso de uso sensible, el Estándar de IA Responsable, y las bases para nuestros principios de IA.

Adicional a esto, introdujimos Envision IA, un taller aplicado y una práctica para completar evaluaciones de impacto. Desarrollado por nuestro equipo Project Tokyo y la Oficina de IA Responsable, Envision AI lleva a los participantes por escenarios reales que surgieron mientras nuestro equipo Project Tokyo estaba inmerso en el diseño de un enfoque para la tecnología de agentes personales inteligentes. A través de ejercicios interactivos, los participantes aprenden sobre la IA centrada en el ser humano y la mentalidad que requiere, y experimentan el uso de los tipos de herramientas disponibles para pensar de manera sistemática sobre los impactos de una tecnología en un amplio conjunto de personas. Los individuos y equipos aplican esto de manera directa a la tarea de realizar una evaluación de impacto, que se requiere dentro de nuestro Estándar de IA Responsable. Como es la norma para nuestro trabajo de IA responsable, construimos el taller con un enfoque iterativo de prueba y aprendizaje, dirigido por la investigación, y nos hemos sentido alentados por los comentarios que hemos recibido. Estamos en el proceso de escalar Envision AI a más equipos en Microsoft y a grupos fuera de la compañía.

El tipo de cambio de mentalidad que guiamos involucra un proceso continuo de diálogo, integración y refuerzo. A veces, nuestros equipos en Microsoft han experimentado momentos estimulantes que aceleraron el progreso, como clasificar el informe del cliente de un sistema de IA que se comporta de una manera inaceptable. Al mismo tiempo, también hemos visto a los equipos preguntarse si ser “responsable” será limitante, sólo para darse cuenta más tarde que un enfoque centrado en el ser humano, da como resultado no solo un producto responsable, sino un mejor producto en general.

Pioneros en nuevas prácticas de ingeniería

La privacidad, y la experiencia de GDPR en particular, nos enseñó la importancia de los sistemas y herramientas de ingeniería para implementar una nueva iniciativa a escala y garantizar que las consideraciones clave estén integradas por diseño.

A medida que implementamos nuestro programa de IA responsable en toda la empresa, la existencia de sistemas y herramientas de ingeniería para ayudar a cumplir con nuestros compromisos de IA responsable, han sido una prioridad para nuestros equipos. Aunque las herramientas, en particular en su sentido más técnico, no son capaces de realizar el trabajo de pensamiento profundo y centrado en el ser humano, que se debe realizar al concebir sistemas de IA, creemos que es importante desarrollar herramientas, patrones y prácticas repetibles siempre que sea posible, para que el pensamiento creativo de nuestros equipos de ingeniería pueda ser dirigido hacia los desafíos más novedosos y únicos, sin reinventar la rueda. Los sistemas y herramientas integrados también ayudan a impulsar la coherencia y garantizan que la IA responsable sea parte de la forma en que trabajan nuestros equipos de ingeniería.

En reconocimiento a esta necesidad, nos embarcamos en una iniciativa para construir el “camino pavimentado” para la IA responsable en Microsoft: el conjunto de herramientas, patrones y prácticas que ayudan a los equipos a integrar de manera sencilla los requisitos de la IA responsable en sus prácticas diarias de desarrollo. AzureML sirve como la base para este camino pavimentado, que aprovecha las primeras integraciones de nuestras herramientas de código abierto, Fairlearn e InterpretML, para que nuestros clientes también se beneficien de nuestro desarrollo de sistemas y herramientas de ingeniería.

Escalar nuestros esfuerzos para desarrollar IA de manera responsable

Al mirar hacia el futuro, nos enfocaremos en tres cosas: primero, promulgar nuestros principios de manera consistente y sistemática, a través del despliegue continuo de nuestro Estándar de IA Responsable; segundo, avanzar en el estado del arte de la IA responsable a través de incubaciones de la investigación a la práctica y de nuevos sistemas y herramientas de ingeniería; tercero, continuar con la construcción de una cultura de IA responsable en toda la empresa.

Somos muy conscientes de que, a medida que se acelera la adopción de tecnologías IA, surgirán nuevos y complejos desafíos éticos. Si bien reconocemos que no contamos con todas las respuestas, los componentes básicos de nuestro enfoque para la IA responsable en Microsoft están diseñados para ayudarnos a estar por delante de estos desafíos y adoptar un enfoque deliberado y basado en principios. Continuaremos con la labor de compartir lo que aprendemos y agradecemos las oportunidades de aprender con otros.

Tags: , ,

Publicaciones Relacionadas