Robots con inteligencia social: una realidad en Microsoft Research



Por: Federico Rodríguez

Elevadores que abren sus puertas cuando te acercas; un robot humanoide que hace contacto visual contigo y te da indicaciones para llegar con la persona que vas a visitar; y una asistente virtual que te indica si puedes pasar o debes esperar. No es una película de ciencia ficción, es la vida diaria en el piso 3 del cuartel general de Microsoft Research en Redmond.


Todo este ambiente ‘robotizado’ es parte del proyecto Situated Interaction, un esfuerzo co-liderado por Eric Horvitz, un distinguido científico y director de Microsoft Research, y su colega Dan Bohus. Ellos crearon un código base – arquitectura – que posibilita muchas formas de interacción complejas y en capas, entre máquinas y humanos.

¿Qué significa Situated Interaction? Se trata de ‘situar’ la interacción de la máquina para que tenga conciencia situacional, es decir, que pueda tener una óptica física del espacio, notar cuando la gente va y viene, gestos y expresiones fáciles, y tener conversaciones con múltiples individuos.


Para hacer esto posible, el proyecto utiliza una integración intensiva de múltiples competencias computacionales y métodos como visión de máquina, procesamiento de lenguaje natural, aprendizaje de máquinas, planeación automatizada, reconocimiento de habla, análisis acústico, y sociolingüística. Además, se ha ingresado a una nueva área de investigación: ¿Cómo automatizar procesos y sistemas que entiendan la interacción multipartita?

Imaginen todas las aplicaciones que podría tener este proyecto, no sólo en áreas como la tecnología, imagino también que en salud, manufactura, y en general en empresas. Yo mi parte no vería nada mal tener a mi propia asistente digital. ¿Ustedes cómo lo ven?

Si les interesa saber más sobre este proyecto, visiten: http://research.microsoft.com/en-us/news/features/situatedinteraction-040814.aspx

Tags:

Publicaciones Relacionadas