Por: Brad Smith, presidente.
A principios del verano pasado, un pequeño grupo de líderes sénior y expertos en IA responsable de Microsoft comenzaron a usar tecnología de OpenAI similar a lo que el mundo ahora conoce como ChatGPT. Incluso para aquellos que habían trabajado de cerca con los desarrolladores de esta tecnología en OpenAI desde 2019, el progreso más reciente parecía notable. Los desarrollos de IA que esperábamos alrededor de 2033 llegarían en 2023.
Al mirar hacia atrás en la historia de nuestra industria, se destacan ciertos años decisivos. Por ejemplo, el uso de Internet se disparó con la popularidad del navegador en 1995 y el crecimiento de los teléfonos inteligentes se aceleró en 2007 con el lanzamiento del iPhone. Ahora es probable que 2023 marque un punto de inflexión crítico para la inteligencia artificial. Las oportunidades para las personas son enormes. Y las responsabilidades de quienes desarrollamos esta tecnología son aún mayores. Necesitamos usar este año decisivo no solo para lanzar nuevos avances de IA, sino para abordar de manera responsable y efectiva tanto las promesas como los peligros que se avecinan.
Las apuestas son altas. La IA bien puede representar el avance tecnológico más importante de nuestra vida. Y si bien eso es decir mucho, hay una buena razón para decirlo. La IA de vanguardia de hoy en día es una herramienta poderosa para promover el pensamiento crítico y estimular la expresión creativa. Hace posible no sólo buscar información sino buscar respuestas a preguntas. Puede ayudar a las personas a descubrir información en medio de datos y procesos complejos. Acelera nuestra capacidad de expresar lo que aprendemos más rápido. Quizás lo más importante es que hará todas estas cosas cada vez mejor en los próximos meses y años.
He tenido la oportunidad durante muchos meses de usar no solo ChatGPT, sino también los servicios internos de IA que se desarrollan dentro de Microsoft. Todos los días, aprendo nuevas formas de aprovechar al máximo la tecnología y, lo que es más importante, pienso en las dimensiones más amplias que surgirán de esta nueva era de IA. Las preguntas abundan.
Por ejemplo, ¿qué cambiará esto?
Con el tiempo, la respuesta corta es: casi todo. Porque, como ninguna tecnología anterior, estos avances de IA aumentan la capacidad de la humanidad para pensar, razonar, aprender y expresarse. En efecto, la revolución industrial llega ahora al trabajo del conocimiento. Y el trabajo del conocimiento es fundamental para todo.
Esto trae grandes oportunidades para mejorar el mundo. La IA mejorará la productividad y estimulará el crecimiento económico. Reducirá la monotonía en muchos trabajos y, cuando se usa de manera efectiva, ayudará a las personas a ser más creativas en su trabajo e impactantes en sus vidas. La capacidad de descubrir nuevos conocimientos en grandes conjuntos de datos impulsará nuevos avances en la medicina, nuevas fronteras en la ciencia, nuevas mejoras en los negocios y defensas nuevas y más sólidas para la ciberseguridad y la seguridad nacional.
¿Serán buenos todos los cambios?
Si bien desearía que la respuesta fuera sí, por supuesto que ese no es el caso. Como todas las tecnologías anteriores, algunas personas, comunidades y países convertirán este avance tanto en una herramienta como en un arma. Por desgracia, algunos usarán esta tecnología para explotar los defectos de la naturaleza humana, atacarán de manera deliberada a las personas con información falsa, socavarán la democracia y explorarán nuevas formas de avanzar en la persecución del mal. Desafortunadamente, las nuevas tecnologías suelen sacar lo mejor y lo peor de las personas.
Quizás más que nada, esto crea un profundo sentido de responsabilidad. En un nivel, para todos nosotros; y, en un nivel aún más alto, para aquellos de nosotros involucrados en el desarrollo y despliegue de la tecnología misma.
Hay días en los que soy optimista y momentos en los que soy pesimista sobre cómo la humanidad utilizará la IA. Más que nada, todos necesitamos ser determinados. Debemos entrar en esta nueva era con entusiasmo por la promesa y, sin embargo, con los ojos bien abiertos y decididos a abordar los escollos inevitables que también nos esperan.
La buena noticia es que no empezamos desde cero.
En Microsoft, hemos trabajado para construir una infraestructura de IA responsable desde 2017. Esto se ha movido junto con un trabajo similar en los espacios de ciberseguridad, privacidad y seguridad digital. Está conectado a un marco de gestión de riesgos empresariales más amplio que nos ha ayudado a crear los principios, las políticas, los procesos, las herramientas y los sistemas de gobierno para una IA responsable. En el camino, hemos trabajado y aprendido junto con los expertos en IA responsable comprometidos por igual en OpenAI.
Ahora debemos volver a comprometernos con esta responsabilidad y hacer un llamado a los últimos seis años de trabajo para hacer aún más y avanzar aún más rápido. Tanto en Microsoft como en OpenAI, reconocemos que la tecnología seguirá su evolución y ambos estamos comprometidos con el involucramiento y la mejora continuos.
La base para una IA responsable
Durante seis años, Microsoft ha invertido en un programa entre empresas para garantizar que nuestros sistemas de IA sean responsables por diseño. En 2017, lanzamos el Comité Aether con investigadores, ingenieros y expertos en políticas para centrarnos en cuestiones de IA responsable y ayudar a elaborar los Principios de IA que adoptamos en 2018. En 2019, creamos la Oficina de IA responsable para coordinar la gobernanza de IA responsable y lanzamos la primera versión de nuestro Estándar de IA responsable, un marco para traducir nuestros principios de alto nivel en una guía práctica para nuestros equipos de ingeniería. En 2021, describimos los componentes clave para hacer operativo este programa, incluida una estructura de gobierno ampliada, capacitación para equipar a nuestros empleados con nuevas habilidades y procesos y herramientas para respaldar la implementación. Y, en 2022, fortalecimos nuestro Estándar de IA Responsable y lo llevamos a su segunda versión. Esto establece cómo construiremos sistemas de IA a través de la utilización de enfoques prácticos para identificar, medir y mitigar los daños con anticipación, y garantizar que los controles estén diseñados en nuestros sistemas desde el principio.
Nuestro aprendizaje del diseño y la implementación de nuestro programa de IA responsable ha sido constante y fundamental. Una de las primeras cosas que hicimos en el verano de 2022 fue contratar a un equipo multidisciplinario para trabajar con OpenAI, aprovechar su investigación existente y evaluar cómo funcionaría la tecnología más reciente sin que se le aplicaran medidas de seguridad adicionales. Al igual que con todos los sistemas de IA, es importante abordar los esfuerzos de creación de productos con una línea de base inicial que proporcione una comprensión profunda no solo de las capacidades de una tecnología, sino también de sus limitaciones. Juntos, identificamos algunos riesgos bien conocidos, como la capacidad de un modelo para generar contenido que perpetuó los estereotipos, así como la capacidad de la tecnología para fabricar respuestas convincentes, pero objetivamente incorrectas. Como en cualquier faceta de la vida, la primera clave para resolver un problema es entenderlo.
Con el beneficio de estos primeros conocimientos, los expertos en nuestro ecosistema de IA responsable tomaron medidas adicionales. Nuestros investigadores, expertos en políticas y equipos de ingeniería unieron fuerzas para estudiar los daños potenciales de la tecnología, crear canales de medición personalizados e iterar sobre estrategias de mitigación efectivas. Gran parte de este trabajo no tenía precedentes y parte de él desafió nuestro pensamiento existente. Tanto en Microsoft como en OpenAI, la gente consiguió un rápido progreso. Me reforzó la profundidad y amplitud de la experiencia necesaria para avanzar en el estado del arte de la IA responsable, así como la creciente necesidad de nuevas normas, estándares y leyes.
Construir sobre esta base
Al mirar hacia el futuro, haremos aún más. A medida que los modelos de IA continúan su avance, sabemos que tendremos que abordar preguntas de investigación nuevas y abiertas, cerrar las brechas de medición y diseñar nuevas prácticas, patrones y herramientas. Afrontaremos el camino que tenemos por delante con humildad y compromiso de escuchar, aprender y mejorar cada día.
Pero nuestros propios esfuerzos y los de otras organizaciones afines no serán suficientes. Este momento transformador para la IA exige una perspectiva más amplia sobre los impactos de la tecnología, tanto positivos como negativos, y un diálogo mucho más amplio entre las partes interesadas. Necesitamos tener conversaciones amplias y profundas y comprometernos con la acción conjunta para definir las barandillas para el futuro.
Creemos que debemos centrarnos en tres objetivos clave.
Primero, debemos asegurarnos de que la IA se construya y utilice de manera responsable y ética. La historia nos enseña que las tecnologías transformadoras como la IA requieren nuevas reglas del camino. Los esfuerzos proactivos y de autorregulación de las empresas responsables ayudarán a allanar el camino para estas nuevas leyes, pero sabemos que no todas las organizaciones adoptarán prácticas responsables de forma voluntaria. Los países y las comunidades deberán utilizar procesos legislativos democráticos para participar en conversaciones de toda la sociedad sobre dónde se deben trazar los límites para garantizar que las personas tengan protección bajo la ley. En nuestra opinión, las regulaciones efectivas de IA deben centrarse en las aplicaciones de mayor riesgo y ser duraderas y centradas en los resultados frente a las tecnologías que avanzan con rapidez y las cambiantes expectativas sociales. Para difundir los beneficios de la IA de la manera más amplia posible, los enfoques regulatorios en todo el mundo deberán ser interoperables y adaptables, al igual que la propia IA.
En segundo lugar, debemos asegurarnos de que la IA promueva la competitividad internacional y la seguridad nacional. Si bien deseamos que no sea así, debemos reconocer que vivimos en un mundo fragmentado donde la superioridad tecnológica es fundamental para la competitividad internacional y la seguridad nacional. La IA es la próxima frontera de esa competencia. Con la combinación de OpenAI y Microsoft, y DeepMind dentro de Google, Estados Unidos está bien posicionado para mantener el liderazgo tecnológico. Otros ya han comenzado a invertir, y deberíamos buscar expandir esa posición entre otras naciones comprometidas con los valores democráticos. Pero también es importante reconocer que el tercer actor principal en esta próxima ola de IA es la Academia de Inteligencia Artificial de Beijing. Y, apenas la semana pasada, Baidu de China se comprometió a desempeñar un papel de liderazgo en IA. Los Estados Unidos y las sociedades democráticas en general necesitarán líderes tecnológicos múltiples y fuertes para ayudar a promover la IA, con un liderazgo de política pública más amplio en temas que incluyen datos, infraestructura de supercomputación de IA y talento.
En tercer lugar, debemos asegurarnos de que la IA sirva a la sociedad de manera amplia, no limitada. La historia también ha demostrado que los avances tecnológicos significativos pueden superar la capacidad de adaptación de las personas y las instituciones. Necesitamos nuevas iniciativas para mantener el ritmo, de modo que la IA pueda empoderar a los trabajadores, los estudiantes puedan lograr mejores resultados educativos y las personas y organizaciones puedan disfrutar de un crecimiento económico justo e inclusivo. Nuestros grupos más vulnerables, incluidos los niños, necesitarán más apoyo que nunca para prosperar en un mundo impulsado por la IA, y debemos asegurarnos de que esta próxima ola de innovación tecnológica mejore la salud mental y el bienestar de las personas, en lugar de erosionarlos gradualmente. Finalmente, la IA debe servir a las personas y al planeta. La IA puede desempeñar un papel fundamental para ayudar a abordar la crisis climática, incluso mediante el análisis de los resultados ambientales y el avance en el desarrollo de tecnología de energía limpia, al mismo tiempo que acelera la transición hacia la electricidad limpia.
Para enfrentar este momento, ampliaremos nuestros esfuerzos de política pública para apoyar estos objetivos. Estamos comprometidos a formar alianzas nuevas y más profundas con la sociedad civil, la academia, los gobiernos y la industria. Al trabajar juntos, todos debemos obtener una comprensión más completa de las preocupaciones que deben abordarse y las soluciones que con probabilidad sean las más prometedoras. Ahora es el momento de asociarse en las reglas del camino para la IA.
Por último, conforme he reflexionado en estos temas en los últimos meses, una y otra vez mi mente ha regresado a algunos pensamientos de conexión.
En primer lugar, estos problemas son demasiado importantes para dejarlos solo en manos de los tecnólogos. Y, por igual, no hay forma de anticipar, y mucho menos abordar, estos avances sin involucrar a las empresas tecnológicas en el proceso. Más que nunca, este trabajo requerirá de una gran carpa.
En segundo lugar, el futuro de la inteligencia artificial requiere un enfoque multidisciplinario. El sector tecnológico fue construido por ingenieros. Sin embargo, si la IA en verdad va a servir a la humanidad, el futuro requiere que reunamos a los científicos informáticos y de datos con personas de todos los ámbitos de la vida y todas las formas de pensar. Más que nunca, la tecnología necesita personas formadas en humanidades, ciencias sociales y con más de una dosis promedio de sentido común.
Para terminar, y quizás lo más importante, la humildad nos servirá mejor que la confianza en uno mismo. No faltarán personas con opiniones y predicciones. Muchos valdrán la pena considerar. Pero a menudo, pienso en mi cita favorita de Walt Whitman, o Ted Lasso, según su preferencia.
«Sé curioso no prejuicioso.»
Hemos entrado a una nueva era. Necesitamos aprender juntos.