Siete cosas que deben saber sobre la IA Responsable

Natasha Crampton habla sobre IA Responsable

Por: Natasha Crampton, directora de IA Responsable de Microsoft

La inteligencia artificial transforma de manera rápida nuestro mundo. Ya sea ChatGPT o el nuevo Bing, nuestra experiencia de búsqueda impulsada por IA recién anunciada, ha habido mucho entusiasmo acerca de los beneficios potenciales.

Pero con todo el entusiasmo, es natural que hay preguntas, inquietudes y curiosidad sobre este último desarrollo tecnológico, en particular cuando se trata de garantizar que la IA se use de manera responsable y ética. La directora de IA Responsable de Microsoft, Natasha Crampton, estuvo en el Reino Unido para reunirse con legisladores, miembros de la sociedad civil y la comunidad tecnológica para escuchar perspectivas sobre lo que les importa en lo que respecta a la IA y compartir más sobre el enfoque de Microsoft.

Hablamos con Natasha para comprender cómo trabaja su equipo para garantizar que un enfoque responsable para el desarrollo y la implementación de IA esté en el centro de este cambio radical en la forma en que usamos la tecnología. Aquí hay siete ideas clave que Natasha compartió con nosotros.

1. Microsoft tiene una oficina dedicada de IA Responsable

“Hemos trabajado de manera ardua en estos temas desde 2017, cuando establecimos nuestro comité Aether dirigido por la investigación (Aether es un acrónimo de AI, Ética y Efectos en Ingeniería e Investigación). Fue aquí donde en verdad comenzamos a profundizar en lo que estos problemas significan para el mundo. A partir de esto, adoptamos un conjunto de principios en 2018 para guiar nuestro trabajo.

La Oficina de IA Responsable se estableció en 2019 para garantizar que tuviéramos un enfoque integral de la IA responsable, al igual que lo hacemos con la privacidad, la accesibilidad y la seguridad. Desde entonces, hemos perfeccionado nuestra práctica, dedicamos mucho tiempo a descubrir qué significa en verdad en la práctica un principio como el de responsabilidad.

Luego, podemos brindar a los equipos de ingeniería una guía concreta sobre cómo cumplir con esos principios, y compartimos lo que hemos aprendido con nuestros clientes, así como con la sociedad en general”.

2. La responsabilidad es una parte clave del diseño de IA, no una ocurrencia tardía

“En el verano de 2022, recibimos un nuevo y emocionante modelo de OpenAI. De inmediato reunimos a un grupo de evaluadores e hicimos que la gente probara el modelo en bruto para comprender cuáles eran sus capacidades y sus limitaciones.

Los conocimientos generados a partir de esta investigación ayudaron a Microsoft a pensar cuáles serán las mitigaciones correctas cuando combinemos este modelo con el poder de la búsqueda web. También ayudó a OpenAI, que desarrolla de manera constante su modelo, a tratar de incorporarles más seguridad.

Creamos nuevos canales de prueba en los que pensamos en los daños potenciales del modelo en un contexto de búsqueda web. Luego, desarrollamos enfoques sistemáticos para la medición para poder comprender mejor cuáles son algunos de los principales desafíos que podríamos tener con este tipo de tecnología; un ejemplo es lo que se conoce como «alucinación», donde el modelo puede inventar hechos que en realidad no son ciertos.

Para noviembre, descubrimos cómo podemos medirlos y luego mitigarlos mejor con el tiempo. Diseñamos este producto con controles de IA responsable en su núcleo, por lo que son una parte inherente del producto. Estoy orgulloso de la forma en que todo el ecosistema de IA responsable se unió para trabajar en ello”.

3. Microsoft trabaja para fundamentar las respuestas en los resultados de búsqueda

“Las alucinaciones son un problema bien conocido con modelos de lenguaje grandes en general. La forma principal en que Microsoft puede abordarlos en el producto Bing es garantizar que la salida del modelo se base en los resultados de búsqueda.

Esto significa que la respuesta proporcionada a la consulta de un usuario se centra en contenido de alto rango de la web, y proporcionamos enlaces a sitios web para que los usuarios puedan obtener más información.

Bing clasifica el contenido de las búsquedas web a través de ponderar en gran medida características como la relevancia, la calidad, la credibilidad y la actualidad. Consideramos que las respuestas fundamentadas son respuestas del nuevo Bing, en las que las afirmaciones están respaldadas por información contenida en fuentes de entrada, como resultados de búsqueda web de la consulta, la base de conocimiento de Bing de información verificada y, para la experiencia de chat, reciente historial de conversaciones de un chat dado. Las respuestas no fundamentadas son aquellas en las que una afirmación no está fundamentada en esas fuentes de entrada.

Sabíamos que surgirían nuevos desafíos cuando invitamos a un pequeño grupo de usuarios a probar el nuevo Bing, por lo que diseñamos la estrategia de lanzamiento para que fuera incremental y pudiéramos aprender de los primeros usuarios. Estamos agradecidos por esos aprendizajes, ya que nos ayudan a fortalecer el producto. A través de este proceso, hemos implementado nuevas mitigaciones y continuamos con la evolución de nuestro enfoque”.

4. El Estándar de IA Responsable de Microsoft está destinado para que todos lo utilicen

“En junio de 2022, decidimos publicar el estándar de IA Responsable. Por lo general no publicamos nuestros estándares internos al público en general, pero creemos que es importante compartir lo que hemos aprendido en este contexto y ayudar a nuestros clientes y socios a navegar a través de lo que a veces puede ser un terreno nuevo para ellos, tanto como lo es para nosotros.

Cuando creamos herramientas dentro de Microsoft para ayudarnos a identificar, medir y mitigar los desafíos de la IA responsable, integramos esas herramientas en nuestra plataforma de desarrollo de aprendizaje automático (Machine Learning – ML, por sus siglas en inglés) de Azure para que nuestros clientes también puedan usarlas para su propio beneficio.

Para algunos de nuestros nuevos productos basados en OpenAI, hemos desarrollado un sistema de seguridad para que nuestros clientes puedan aprovechar nuestra innovación y nuestros aprendizajes en lugar de tener que construir toda esta tecnología por sí mismos desde cero. Queremos asegurarnos de que nuestros clientes y socios estén capacitados para tomar decisiones de implementación responsables”.

5. Los equipos y puntos de vista diversos son clave para garantizar una IA responsable

“Trabajar en IA Responsable es bastante multidisciplinario, y eso me encanta. Trabajo con investigadores, como el equipo del Laboratorio de Investigación de Microsoft UK en Cambridge, ingenieros y legisladores. Es crucial que tengamos diversas perspectivas aplicadas a nuestro trabajo para que podamos avanzar de manera responsable.

Al trabajar con una gran variedad de personas en Microsoft, aprovechamos toda la fuerza de nuestro ecosistema de IA Responsable para crear estos productos. Ha sido un placer lograr que nuestros equipos multifuncionales lleguen a un punto en el que en verdad entendamos el lenguaje de los demás. Tomó tiempo llegar allí, pero ahora podemos esforzarnos por avanzar juntos en nuestras metas compartidas.

Pero no puede ser solo la gente de Microsoft quien tome todas las decisiones en la construcción de esta tecnología. Queremos escuchar perspectivas externas sobre lo que hacemos y cómo podríamos hacer las cosas de manera diferente. Ya sea a través de la investigación de usuarios o de diálogos continuos con grupos de la sociedad civil, es esencial que incorporemos las experiencias cotidianas de diferentes personas a nuestro trabajo. Es algo con lo que siempre debemos estar comprometidos porque no podemos construir tecnología que sirva al mundo a menos que tengamos un diálogo abierto con las personas que la usan y sienten los impactos en sus vidas”.

6. La IA es tecnología construida por humanos, para humanos

“En Microsoft, nuestra misión es capacitar a cada persona y cada organización del planeta para lograr más. Eso significa que nos aseguramos de que construimos tecnología por humanos, para humanos. En verdad deberíamos considerar esta tecnología como una herramienta para ampliar el potencial humano, no como un sustituto.

A nivel personal, la IA me ayuda a lidiar con grandes cantidades de información. Uno de mis trabajos es realizar un seguimiento de todos los desarrollos regulatorios de IA y ayudar a Microsoft a desarrollar posiciones. Ser capaz de usar la tecnología para ayudarme a resumir una gran cantidad de documentos de políticas de manera rápida me permite hacer preguntas de seguimiento a las personas adecuadas”.

7. En la actualidad estamos en las fronteras, pero la IA Responsable es un trabajo para siempre

“Una de las cosas emocionantes de esta tecnología de punta es que en realidad estamos en las fronteras. Claro que hay una variedad de problemas en desarrollo con los que nos enfrentamos por primera vez, pero construimos sobre seis años de trabajo responsable de IA.

Todavía hay muchas preguntas de investigación en las que sabemos cuáles son las preguntas correctas, pero no tenemos las respuestas correctas en todos los casos. Tendremos que mirar de manera continua alrededor de esos rincones, hacer las preguntas difíciles y, con el tiempo, podremos construir patrones y respuestas.

Lo que hace que nuestro ecosistema de IA Responsable en Microsoft sea tan sólido es que combinamos lo mejor de la investigación, las políticas y la ingeniería. Es este enfoque triple el que nos ayuda a mirar alrededor de las esquinas y anticipar lo que viene a continuación. Es un momento emocionante en tecnología y estoy muy orgullosa del trabajo que hace mi equipo para llevar esta próxima generación de herramientas y servicios de IA al mundo de una manera responsable”.

Integración ética de IA: 3 consejos para comenzar

Han visto la tecnología, están ansiosos por probarla, pero ¿cómo se aseguran de que la IA responsable sea parte de su estrategia? Estos son los tres mejores consejos de Natasha:

  1. Piensen a profundidad en su caso de uso. Pregúntense, ¿cuáles son los beneficios que tratan de obtener? ¿Cuáles son los daños potenciales que tratan de evitar? Una evaluación de impacto puede ser un paso muy útil en el desarrollo del diseño inicial de su producto.
  2. Reúnan un equipo diverso para ayudar a probar su producto antes del lanzamiento y de forma continua. Las técnicas como la formación de equipos rojos pueden ayudar a ampliar los límites de sus sistemas y ver qué tan efectivas son sus protecciones.
  3. Estar comprometidos con el aprendizaje y la mejora continua. Una estrategia de lanzamiento incremental los ayuda a aprender y adaptarse con rapidez. Asegúrense de tener canales de retroalimentación sólidos y recursos para la mejora continua. Aprovechen los recursos que reflejan las mejores prácticas siempre que sea posible.

Obtengan más información: hay una gran cantidad de recursos, incluidas herramientas, guías y plantillas de evaluación, en el centro de principios de IA Responsable de Microsoft para ayudarlos a navegar la integración de IA de manera ética.

Tags: , ,

Publicaciones Relacionadas