Reflexiones sobre nuestro programa de IA responsable: tres elementos críticos para el progreso

Un grupo de personas en una reunión sobre IA Responsable

Por: Natasha Crampton, directora de IA Responsable.

Un grupo de personas en una reunión

La semana pasada, en Liderazgo de IA responsable: Cumbre mundial sobre IA generativa, organizada en conjunto por el Foro Económico Mundial y AI Commons, tuve la oportunidad de interactuar con colegas de todo el mundo que piensan a profundidad y toman medidas sobre ella. Ganamos mucho cuando nos unimos, discutimos nuestros valores y objetivos compartidos y colaboramos para encontrar los mejores caminos a seguir.

Un valioso recordatorio para mí de estas conversaciones similares recientes es la importancia de aprender de los demás y compartir lo que hemos aprendido. Dos de las preguntas más frecuentes que recibí fueron: «¿Cómo se hace una IA responsable en Microsoft?» y «¿Qué tan bien posicionados están para enfrentar este momento?» A continuación, responderé a ambas.

En Microsoft, la IA responsable es el conjunto de pasos que tomamos en toda la empresa para garantizar que los sistemas de IA respeten nuestros principios de IA. Es tanto una práctica como una cultura. La práctica es la forma en que la implementamos de manera formal en toda la empresa, a través de procesos de gobierno, requisitos de políticas y herramientas y capacitación para respaldar la implementación. La cultura es la forma en que capacitamos a nuestros empleados para que no solo la adopten, sino que sean campeones activos de ella.

Cuando se trata de seguir el camino de la IA responsable, hay tres áreas clave que considero esenciales:

1. El liderazgo debe estar comprometido e involucrado: No es un cliché decir que para que la IA responsable sea significativa, comienza desde arriba. En Microsoft, nuestro presidente y director ejecutivo, Satya Nadella, apoyó la creación de un Consejo de IA Responsable para supervisar nuestros esfuerzos en toda la empresa. El consejo está presidido por el vicepresidente y presidente de Microsoft, Brad Smith, a quien reporto, y nuestro director de tecnología, Kevin Scott, quien establece la visión tecnológica de la empresa y supervisa nuestra división de investigación de Microsoft. Este liderazgo conjunto es fundamental para nuestros esfuerzos y envía una señal clara de que Microsoft está comprometido no solo con el liderazgo en IA, sino también con el liderazgo en IA responsable.

El Consejo de IA Responsable se reúne con regularidad y reúne a representantes de nuestros equipos principales de investigación, políticas e ingeniería dedicados a la IA responsable, incluidos el Comité Aether y la Oficina de IA Responsable, así como socios comerciales senior que son responsables de la implementación. Las reuniones son desafiantes y refrescantes. Desafiantes porque trabajamos en un conjunto difícil de problemas y el progreso no siempre es lineal. Sin embargo, sabemos que debemos enfrentar preguntas difíciles e impulsar la rendición de cuentas. Las reuniones son refrescantes porque hay energía y sabiduría colectiva entre los miembros del Consejo de IA Responsable, y a menudo nos vamos con nuevas ideas que nos ayudan a avanzar en el estado del arte.

2. Construir modelos de gobierno inclusivos y lineamientos prácticos: Una responsabilidad principal de mi equipo en la Oficina de IA Responsable es construir y coordinar la estructura de gobierno de la empresa. Microsoft comenzó a trabajar en IA responsable hace casi siete años, y mi oficina existe desde 2019. En ese momento, aprendimos que necesitábamos crear un modelo de gobierno que fuera inclusivo y alentara a los ingenieros, investigadores y profesionales de políticas a trabajar codo con codo para defender nuestros principios de IA. Un solo equipo o una sola disciplina encargada de una IA responsable o ética no iba a cumplir nuestros objetivos.

Tomamos una página de nuestros manuales de privacidad, seguridad y accesibilidad, y construimos un modelo de gobierno que incorporó una IA responsable en toda la empresa. Tenemos líderes sénior encargados de encabezar la IA responsable dentro de cada grupo comercial central y de manera continua capacitamos y hacemos crecer una gran red de «campeones» sobre este tema, con una variedad de habilidades y roles para un compromiso directo más regular. El año pasado, lanzamos a nivel público la segunda versión de nuestro Estándar de IA Responsable, que es nuestro libro de jugadas interno sobre cómo construir sistemas de IA de manera responsable. Animo a la gente a echarle un vistazo y, con suerte, sacar algo de inspiración para su propia organización. También agradezco sus comentarios al respecto.

3. Invertir y empoderar a su gente: hemos invertido de manera significativa en IA responsable a lo largo de los años, con nuevos sistemas de ingeniería, incubaciones dirigidas por la investigación y, por supuesto, personas. Ahora tenemos casi 350 personas que trabajan en IA responsable, con poco más de un tercio de ellos (129 para ser precisos) dedicados a tiempo completo; el resto tiene responsabilidades en esta área como parte central de sus trabajos. Los miembros de nuestra comunidad tienen puestos en política, ingeniería, investigación, ventas y otras funciones centrales, que afectan todos los aspectos de nuestro negocio. Este número ha aumentado desde que comenzamos nuestros esfuerzos de IA responsable en 2017 y en línea con nuestro creciente enfoque en la IA.

En el futuro, sabemos que debemos invertir aún más en nuestro ecosistema de IA responsable mediante la contratación de nuevos y diversos talentos, la asignación de talento adicional para centrarse en esta área a tiempo completo y la capacitación de más personas en toda la empresa. Tenemos compromisos de liderazgo para hacer justo eso y compartiremos más sobre nuestro progreso en los próximos meses.

Las estructuras organizativas son importantes para nuestra capacidad de cumplir nuestros ambiciosos objetivos, y hemos realizado cambios a lo largo del tiempo a medida que evolucionaban nuestras necesidades. Un cambio que llamó mucho la atención, de manera reciente, involucró a nuestro antiguo equipo de Ética y Sociedad, cuyo trabajo inicial fue importante para permitirnos llegar a donde estamos hoy. El año pasado, hicimos dos cambios clave en nuestro ecosistema de IA responsable: primero, hicimos nuevas inversiones críticas en el equipo responsable de nuestro servicio Azure OpenAI, que incluye tecnología de punta como GPT-4; y en segundo lugar, infundimos a algunos de nuestros equipos de investigación y diseño de usuarios con experiencia especializada al trasladar a los ex miembros del equipo de Ética y Sociedad a esos equipos. Luego de esos cambios, tomamos la difícil decisión de liquidar al resto del equipo de Ética y Sociedad, lo que afectó a siete personas. Ninguna decisión que afecte a nuestros colegas es fácil, pero fue una decisión guiada por nuestra experiencia de las estructuras organizacionales más efectivas para garantizar que nuestras prácticas responsables de IA se adopten en toda la empresa.

Un tema central de nuestro programa de IA responsable y su evolución a lo largo del tiempo es la necesidad de permanecer humildes y aprender de manera constante. Se trata de un recorrido en el que se encuentra toda la empresa. Y reuniones como la Cumbre de Liderazgo de IA Responsable de la semana pasada me recuerdan que nuestro trabajo colectivo en este tema es más fuerte cuando aprendemos e innovamos juntos. Seguiremos con nuestro papel para compartir lo que hemos aprendido mediante la publicación de documentos como nuestro Estándar de IA Responsable y nuestra Plantilla de evaluación de impacto, así como los documentos de transparencia que hemos desarrollado para los clientes que usan nuestro servicio Azure OpenAI y los consumidores que usan productos como el nuevo Bing. La oportunidad de IA que se avecina es tremenda. Se necesitará una colaboración continua e intercambios abiertos entre los gobiernos, la academia, la sociedad civil y la industria para fundamentar nuestro progreso hacia el objetivo compartido de la IA que está al servicio de las personas y la sociedad.

Tags: , , , ,

Publicaciones Relacionadas