Construir una IA conversacional responsable y confiable
Desde asesores robóticos financieros a asistentes virtuales de atención médica, las empresas de todas las industrias aprovechan a los asistentes virtuales para crear increíbles experiencias para el cliente y para ayudar a los empleados a maximizar su tiempo. Conforme avanza la tecnología de la inteligencia artificial, los asistentes virtuales manejarán más y más tareas mundanas y repetitivas, para liberar a la gente y que dediquen más tiempo y energía a labores más productivas y creativas.
Pero como cualquier tecnología, la IA conversacional puede presentar un riesgo significativo cuando es desarrollada y desplegada de manera inapropiada o irresponsable, en especial cuando es utilizada para ayudar a la gente a navegar por información relacionada con empleo, finanzas, salud física, y bienestar mental. Para que las empresas y la sociedad puedan aprovechar todo el potencial de la IA conversacional, creemos que los bots necesitan ser diseñados para que actúen de manera responsable y se ganen la confianza del usuario.
En 2018, para ayudar a los negocios a hacer frente a este reto, compartimos 10 recomendaciones para construir una IA conversacional responsable. Hoy, quisiéramos ilustrar cómo hemos aplicado estos consejos en nuestra propia organización y compartir nuevos recursos que pueden ayudar a hacer lo mismo a desarrolladores de cualquier industria.
Recomendaciones para bots responsables
En noviembre de 2018, Lili Cheng, vicepresidenta corporativa de IA e investigación en Microsoft, anunció recomendaciones diseñadas para ayudar a las organizaciones a desarrollar bots que construyan confianza en sus servicios y en sus marcas. Creamos estas recomendaciones para bots con base en nuestras propias experiencias, nuestra investigación en IA responsable y a través de escuchar a nuestros clientes y socios. Las recomendaciones son justo eso, recomendaciones. Representan las cosas que encontramos útiles a considerar desde el inicio del proceso de diseño. Estas invitan a las compañías y organizaciones a pensar sobre cómo su bot va a interactuar con la gente y cómo mitigar riesgos potenciales. En última instancia, las recomendaciones son todas sobre confianza, porque si la gente no confía en la tecnología, no la van a utilizar.
Diseñar bots con estas recomendaciones en mente
Las recomendaciones para bots ya han comenzado a jugar un papel central en nuestros propios procesos internos de desarrollo. Por ejemplo, nuestro equipo de mercadotecnia aprovechó las recomendaciones mientras creaba un asistente de calificación de prospectos de venta basado en IA que envía emails a clientes potenciales para determinar su interés en los productos y soluciones de Microsoft. El asistente utiliza procesamiento natural de lenguaje para interactuar con clientes, garantizar que reciben la información que necesitan o para ser direccionados a un empleado de Microsoft que los puede ayudar de mejor manera. Para brindar un ejemplo útil, hemos destacado a continuación las maneras en las que nuestro equipo de mercadotecnia ha abordado tres de estas recomendaciones.
- Articular el propósito de su bot y tener especial cuidado si su bot soporta casos de uso consecuentes.
Dado que el asistente estará frente al cliente, el equipo de mercadotecnia reconoció la importancia de pensar por completo a través de cada aspecto de cómo trabajaría el bot. Antes de construir al asistente de calificación de ventas potenciales, ellos crearon un documento de visión y alcance que destacaba las tareas que se esperaba que realizara el bot, las consideraciones técnicas, los beneficios esperados y las metas finales en términos de desempeño de negocios. Al destacar estos detalles a inicios del proceso de diseño, el equipo pudo enfocarse en desarrollar y refinar sólo las capacidades necesarias y desplegar más pronto al bot. Crear este documento también les ayudó a identificar y diseñar para los casos de entorno que pudiera encontrar el bot y a establecer un conjunto de métricas efectivas de confiabilidad.
- Garantizar una entrega continua a una persona cuando el intercambio persona-robot lleve a interacciones que superen la competencia del robot.
Mientras consideraban estos casos de uso de entorno, el equipo de mercadotecnia identificó algunos escenarios en los cuales se podría requerir la entrega a una persona. Primero, si el asistente no puede determinar la intención del cliente (por ejemplo, cuando la respuesta es muy compleja o larga), entonces el asistente marcará la conversación para una persona. La persona entonces puede dirigir al asistente hacia el mejor curso de acción o responder de manera directa al cliente. La persona también puede utilizar frases clave de la conversación para entrenar al asistente para que en el futuro responda a situaciones similares.
Segundo, el cliente podría preguntar algo que el asistente no tenga programado de manera previa. Por ejemplo, tal vez un estudiante solicite información sobre nuestros productos y soluciones pero no está interesado en comprar algo. El asistente podría marcar la conversación en lugar de enviarla hacia ventas. Entonces una persona podría responder a través del asistente para ayudar al estudiante a que conozca más.
- Asegurar que su bot es confiable
Para ayudar a garantizar que el bot se desempeña de la manera en que fue diseñado, el equipo de mercadotecnia revisa un conjunto de métricas de confiabilidad (como la precisión para determinar intención o tasa de errores en conversación) a través de un tablero que se actualiza de manera regular. Conforme el equipo actualiza y mejora al bot, este puede analizar de cerca el impacto de cada cambio en la confiabilidad del bot y realizar ajustes de ser necesario.
Ayudar a los desarrolladores a poner en práctica las recomendaciones
Hemos tomado lecciones aprendidas a partir de experiencias como esta y el importante trabajo para nuestros investigadores líderes en la industria para crear recursos de aprendizaje accionables e integrales para los desarrolladores.
Como parte de nuestra AI School gratuita y en línea, nuestra ruta de aprendizaje Conversational AI permite a los desarrolladores comenzar a construir agentes sofisticados de IA conversacional a través de servicios como entendimiento de lenguaje natural o traducción de discurso. De manera reciente agregamos otro módulo, Responsible Conversational AI, a esta ruta de aprendizaje. Esto cubre cómo los desarrolladores pueden diseñar bots con una profunda inteligencia y también garantizar que son construidos de manera responsable y confiable. En esta ruta de aprendizaje, los desarrolladores pueden explorar tópicos como confiabilidad, accesibilidad, seguridad y casos de uso consecuente del bot y aprender cómo mitigar preocupaciones por lo general surgen con la IA conversacional. También hemos creado un laboratorio de Conversational AI en el cual un bot de muestra guía a los desarrolladores a través de la experiencia de IA conversacional responsable y explica su comportamiento en cada punto de la experiencia.
Conozcan más
Los invitamos a compartir AI Lab y el módulo de aprendizaje Responsible Conversational AI con tomadores técnicos de decisión en su organización.
También pueden visitar nuestra nueva AI Business School para conocer más sobre cómo Microsoft ha integrado IA a través de nuestros negocios y cómo su organización puede hacer lo mismo.
Contenido relacionado