Ampliar nuestros compromisos para contrarrestar el extremismo violento en línea

Banderas del mundo

Por: Brad Smith, presidente de Microsoft.

En Microsoft ampliamos nuestros compromisos y contribuciones a Christchurch Call, una iniciativa crítica de múltiples partes interesadas para eliminar el contenido terrorista y extremista violento en línea.

Estos nuevos compromisos son parte de nuestro trabajo más amplio para promover el uso responsable de la IA y se centran en empoderar a los investigadores, aumentar la transparencia y la explicabilidad en torno a los sistemas de recomendación y promover salvaguardas responsables de la IA. Apoyamos estos compromisos con una nueva promesa de $500 mil dólares a la Christchurch Call Initiative on Algorithmic Outcomes para financiar la investigación sobre tecnologías que mejoran la privacidad y el impacto social de los motores de recomendación impulsados por IA.

Progreso significativo después de la tragedia de Christchurch

Hace tres años, después del horrible ataque en dos mezquitas en Christchurch, Nueva Zelanda, la Primera Ministra Jacinda Ardern pidió a los líderes del gobierno, la industria y la sociedad civil que se unieran para encontrar soluciones significativas para abordar la creciente amenaza del contenido terrorista y extremista en línea. Dos meses después de la tragedia, el primer ministro Ardern y el presidente francés Emmanuel Macron establecieron el Llamado a la acción de Christchurch, donde se creó una comunidad que ha crecido hasta incluir 120 gobiernos, proveedores de servicios en línea y organizaciones de la sociedad civil para llevar adelante este importante y difícil trabajo.

Se ha logrado un progreso importante, pero como lo dejan claro eventos como el tiroteo de este año en Buffalo, Nueva York, hay más trabajo por hacer. Por eso es fundamental que los líderes de la industria se unan hoy a la Cumbre de líderes de Christchurch Call 2022 en Nueva York.

Como patrocinador fundador de Christchurch Call, Microsoft se ha comprometido con los nueve pasos de la industria para abordar el contenido terrorista y extremista violento. En los tres años desde que se formó el Llamado, hemos trabajado con la industria, la sociedad civil y los gobiernos para avanzar en estos compromisos, incluso a través del Foro Global de Internet para Contrarrestar el Terrorismo (GIFCT, por sus siglas en inglés). Durante nuestro trabajo juntos, hemos logrado avances para abordar estos daños en línea y demostrar el poder de los modelos de múltiples partes interesadas para abordar problemas sociales complejos. La reunión más reciente brinda una oportunidad para que la comunidad se reúna, haga un balance de nuestro progreso y, lo que es más importante, mire hacia el futuro.

Un área importante que requiere más atención es comprender cómo la tecnología puede contribuir a la difusión de contenido dañino, en particular a través de sistemas de inteligencia artificial que recomiendan contenido. Estos sistemas crean beneficios significativos, al ayudar a las personas a procesar volúmenes cada vez mayores de información de manera que los ayude a ser más creativos y productivos. Los ejemplos incluyen ayudar a las personas a reducir el consumo de energía, los estudiantes identifican recursos de aprendizaje y los agricultores anticipan las condiciones climáticas para mejorar la producción de cultivos. Sin embargo, esta misma tecnología puede desempeñar un papel en la difusión de contenido dañino.

En los últimos meses, el primer ministro Ardern destacó estos desafíos y habló de manera elocuente sobre la necesidad de una acción más fuerte. Como ha indicado, no es fácil delimitar los riesgos de esta tecnología. Pero, dado lo que está en juego, debemos abordar estos riesgos de frente. Los daños potenciales son amplios y difusos, y la tecnología en evolución interactúa con los desafíos sociales de impacto de formas aún más complejas. El camino por seguir debe incluir la investigación a través de colaboraciones significativas de múltiples partes interesadas en la industria y la academia, construidas en parte sobre una mayor transparencia de la industria sobre cómo funcionan estos sistemas.

Para avanzar en estos objetivos, Microsoft se compromete a seguir los siguientes pasos:

Impulsar a los investigadores

Necesitamos alianzas efectivas para permitir que la industria y la comunidad investigadora profundicen en cuestiones clave. Para ayudar con este esfuerzo crítico, nos comprometemos a proporcionar:

  • Apoyo a la Christchurch Call Initiative on Algorithmic Outcomes: nos unimos a una nueva asociación con Twitter, OpenMined y los gobiernos de Nueva Zelanda y Estados Unidos para investigar el impacto de los sistemas de IA que recomiendan contenido. La asociación explorará cómo las tecnologías de mejora de la privacidad (PET, por sus siglas en inglés) pueden impulsar una mayor responsabilidad y comprensión de los resultados algorítmicos, comenzando con un proyecto piloto como una «prueba de funcionamiento».

Avanzar en la transparencia

También tomamos medidas para aumentar la transparencia y el control del usuario para los sistemas de recomendación desarrollados en Microsoft. En concreto, vamos a:

  • Lanzar nuevas funciones de transparencia para Azure Personalizer. Para ayudar a avanzar en la comprensión de los sistemas de recomendación, lanzamos nuevas características de transparencia para Azure Personalizer, un servicio que ofrece a los clientes empresariales una funcionalidad de recomendación y toma de decisiones de aplicación general que pueden incorporar en sus propios productos. Esta nueva funcionalidad informará a los clientes sobre los atributos más importantes que han influido en una recomendación y los pesos relevantes de cada atributo. Nuestros clientes pueden pasar esta funcionalidad a sus usuarios finales, para ayudar al usuario a comprender por qué, por ejemplo, se les ha mostrado un artículo o producto y ayudar a las personas a comprender mejor para qué se utilizan estos sistemas.
  • Avanzar en la transparencia en LinkedIn: LinkedIn continúa dando pasos importantes para fomentar la transparencia y la explicabilidad con el uso de sistemas de recomendación de IA. Esto incluye la publicación de una serie continua de contenido educativo sobre su feed, como qué contenido aparece, cómo funcionan sus algoritmos y cómo los miembros pueden adaptar y personalizar su experiencia de contenido. LinkedIn también ha compartido perspectivas e información en su blog de ingeniería sobre su enfoque de la IA Responsable, cómo integran la justicia en sus productos de IA y cómo construyen sistemas de IA transparentes y explicables.

Continuar con el desarrollo de salvaguardas para una IA responsable

La discusión actual sobre los sistemas de recomendación destaca la importancia de pensar a profundidad en el diseño y desarrollo del sistema de IA. Hay muchas elecciones que hacen los seres humanos sobre los casos de uso a los que se someten los sistemas de IA y los objetivos que cumplirán los sistemas de IA. Por ejemplo, con un sistema de IA como Azure Personalizer, que recomienda contenido o acciones, el propietario del sistema decide qué acciones observar y recompensar, y cómo integrar este sistema en un producto o proceso operativo, lo que en última instancia da forma a los beneficios y riesgos potenciales de un sistema.

En Microsoft, continuamos con el desarrollo de nuestro programa de IA responsable para ayudar a garantizar que todos los sistemas de IA se utilicen de manera responsable. De manera reciente publicamos nuestro Estándar de IA Responsable y nuestra plantilla y guía de Evaluación de Impacto para compartir lo que aprendemos de este proceso y ayudar a informar la discusión más amplia sobre la IA responsable. En el caso de Personalizer, hemos publicado una Nota de transparencia para ayudar a nuestros clientes a comprender mejor cómo funciona la tecnología, las consideraciones relevantes para elegir un caso de uso y las características y limitaciones importantes del sistema. Esperamos continuar con este importante trabajo para que los beneficios de la IA puedan materializarse de manera responsable.

Mirar hacia el futuro

Sabemos que tenemos más trabajo por hacer para ayudar a crear un ecosistema en línea seguro y saludable y garantizar el uso responsable de la IA y otras tecnologías. La cumbre Christchurch Call Leaders ha sido un paso importante en este recorrido y un recordatorio oportuno de que ninguna empresa, gobierno o grupo puede hacer esto solo. Como me ha recordado el debate de hoy, también necesitamos escuchar a los jóvenes. Los 15 hombres y mujeres jóvenes de nuestro Council for Digital Good Europe nos dicen que, si bien los jóvenes pueden estar en riesgo por el odio en línea y los ecosistemas en línea tóxicos, también tienen la pasión, el idealismo y la determinación para ayudar a formar comunidades en línea más saludables. En un mundo donde el impacto de la tecnología está cada vez más vinculado a la salud fundamental de la democracia, debemos a los jóvenes nuestros mejores esfuerzos para ayudarlos a construir un futuro más seguro.

Tags: , , , , , , ,

Publicaciones Relacionadas