AI Frontiers Lab: Colaborar para desarrollar tecnología de manera responsable

Imagen de una mujer con un fondo de figuras geométricas coloridas y traslúcidas

Por: Microsoft On the Issues.

Microsoft Research es el brazo de investigación de Microsoft, que ha ampliado la frontera de la informática y campos relacionados durante los últimos 33 años. Nuestro equipo de investigación, junto con nuestros equipos de políticas e ingeniería, informa nuestro enfoque de IA Responsable. Una de nuestras investigadoras principales es Ece Kamar, que dirige el laboratorio AI Frontiers dentro de Microsoft Research. Ece ha trabajado en diferentes laboratorios dentro del ecosistema de Microsoft Research durante los últimos 14 años y ha estado trabajando en IA Responsable desde 2015.

¿Qué es el laboratorio de investigación de Microsoft y qué papel desempeña dentro de Microsoft?

Microsoft Research es una organización de investigación dentro de Microsoft en la que podemos pensar con libertad sobre los próximos desafíos y tecnologías. Evaluamos cómo las tendencias en tecnología, en especial en informática, se relacionan con las apuestas que ha hecho la empresa. Como puedes imaginar, nunca ha habido un momento en el que esta responsabilidad haya sido tan grande como lo es hoy, donde la IA ha comenzado a cambiar todo lo que hacemos como empresa y el panorama tecnológico cambia muy rápido.

Como empresa, queremos crear las últimas tecnologías de IA que ayuden a las personas y a las empresas a hacer lo que hacen. En el laboratorio AI Frontiers, invertimos en las tecnologías centrales que amplían la frontera de lo que podemos hacer con los sistemas de IA, en términos de cuán capaces son, qué tan confiables son y qué tan eficientes podemos ser con respecto a la computación. No solo estamos interesados en qué tan bien funcionan, también queremos asegurarnos de que siempre comprendemos los riesgos y construimos soluciones sociotécnicas que pueden hacer que estos sistemas funcionen de manera responsable.

Mi equipo siempre piensa en desarrollar el próximo conjunto de tecnologías que permitan sistemas mejores y más capaces, asegurándose de que tengamos los controles adecuados sobre estos sistemas e invertir en la forma en que estos sistemas interactúan con las personas.

¿Cómo te interesaste por primera vez por la IA responsable?

Justo después de terminar mi doctorado, en mis primeros días en Microsoft Research, ayudaba a los astrónomos a recopilar datos limpios y escalables sobre las imágenes capturadas por el Telescopio Espacial Hubble. En verdad podía ver muy lejos en el cosmos y estas imágenes eran geniales, pero aún necesitábamos gente que les diera sentido. En ese momento, había una plataforma colectiva llamada Galaxy Zoo, donde voluntarios de todo el mundo, a veces personas sin experiencia en astronomía, podían mirar estas imágenes y etiquetarlas.

Utilizamos la IA para hacer el filtrado inicial de las imágenes, para asegurarnos de que solo se enviaran imágenes interesantes a los voluntarios. Construía modelos de aprendizaje automático que pudieran tomar decisiones sobre las clasificaciones de estas galaxias. Había ciertas características de las imágenes, como los corrimientos al rojo, por ejemplo, que engañaban a la gente de maneras interesantes, y veíamos que las máquinas replicaban los mismos patrones de error.

Al principio estábamos en verdad desconcertados por esto. ¿Por qué las máquinas que miraban una parte del universo en lugar de otra tenían diferentes patrones de error? Y luego nos dimos cuenta de que esto sucedía porque las máquinas aprendían de los datos humanos. Los humanos tenían estos sesgos de percepción que eran muy específicos del ser humano, y el mismo sesgo se veía reflejado por las máquinas. Sabíamos entonces que esto se iba a convertir en un problema central y que tendríamos que actuar en consecuencia.

¿Cómo colaboran AI Frontiers y la Oficina de IA Responsable?

La frontera de la IA cambia de manera rápida, con la aparición de nuevos modelos y la construcción de nuevas tecnologías sobre estos modelos. Siempre tratamos de entender cómo estos cambios cambian la forma en que pensamos sobre los riesgos y la forma en que construimos estos sistemas. Una vez que identificamos un nuevo riesgo, ese es un buen lugar para que colaboremos. Por ejemplo, cuando vemos alucinaciones, nos damos cuenta de que un sistema que se utiliza en tareas de recuperación de información no devuelve la información correcta fundamentada. Luego nos preguntamos, ¿por qué sucede esto y qué herramientas tenemos en nuestro arsenal para abordar esto?

Es muy importante para nosotros cuantificar y medir tanto cómo cambian las capacidades como cómo cambia la superficie de riesgo. Por lo tanto, invertimos mucho en la evaluación y la comprensión de los modelos, así como en la creación de puntos de referencia nuevos y dinámicos que puedan evaluar mejor cómo cambian las capacidades básicas de los modelos de IA con el tiempo. Siempre aportamos nuestros aprendizajes del trabajo que hacemos con la Oficina de IA Responsable en la creación de requisitos para modelos y otros componentes de la pila tecnológica de IA.

¿Qué implicaciones potenciales de la IA crees que el público en general pasa por alto?

Cuando el público habla de los riesgos de la IA, la gente se centra en un inicio en descartar los riesgos por completo, o en el polo contrario, centrándose sólo en los escenarios catastróficos. Creo que necesitamos conversaciones intermedias, basadas en los hechos de hoy. La razón por la que soy investigadora de IA es porque creo con firmeza en la posibilidad de que estas tecnologías resuelvan muchos de los grandes problemas de hoy en día. Es por eso que invertimos en la creación de estas aplicaciones.

Pero a medida que avanzamos hacia ese futuro, siempre debemos tener en cuenta de manera equilibrada tanto la oportunidad como la responsabilidad, y apoyarnos en ambas por igual. También tenemos que asegurarnos de que no solo pensamos en estos riesgos y en las oportunidades que se presentan en un futuro lejano. Tenemos que empezar a progresar hoy mismo y tomar en serio esta responsabilidad.

Este no es un problema futuro. Es real hoy, y lo que hagamos ahora va a importar mucho.

Para mantenerse al día con las últimas novedades de Microsoft Research, síganlos en LinkedIn