Los robots ya pueden detectar cuándo los humanos necesitan ayuda

Investigadores de Franklin & Marshall College en los Estados Unidos han desarrollado una nueva técnica de aprendizaje automático que permite a los robots detectar cuándo los humanos necesitan ayuda. Detectan señales de comportamiento y ofrecen ayuda de forma autónoma cuando lo consideran necesario.

El sistema fue diseñado para ayudar sin interferir con la autonomía del usuario, respetando los límites y necesidades de cada persona. La idea es que el robot funcione como una ayuda para las tareas diarias y no como un sustituto que toma el control en determinadas situaciones.

«Una forma de robot Apoyar la autosuficiencia significa asegurarse de lograr un equilibrio entre demasiada y poca ayuda. Entrenamos nuestros algoritmos para ajustar y estimar la cantidad de ayuda que necesita el usuario, asegurándonos de que la ayuda coincida con las necesidades de cada persona ”, dice el profesor de robótica Jason R. Wilson, autor principal del estudio.

¿Quiere mantenerse al día con las últimas noticias tecnológicas del día? Accede y suscríbete a nuestro nuevo canal de youtube, Canaltech News. ¡Todos los días un resumen de las principales novedades del mundo tecnológico para ti!

analizar el comportamiento

Cuando los humanos necesitan ayuda, a menudo piden ayuda explícitamente o transmiten esa necesidad a través de comportamientos específicos como expresiones faciales o lenguaje corporal. Algunas personas también usan la mirada fija para decir que quieren ayuda.

“Una persona puede mirar la tarea en la que está trabajando y luego buscar a alguien que pueda ayudarla. Este patrón, conocido como mirada confirmadora, se usa para pedirle a la otra persona que observe lo que está sucediendo y ofrezca ayuda instintivamente, sin tener que decir nada ”, dice Wilson.

Gracias al método desarrollado por los investigadores, los robots son capaces de identificar estas características de comportamiento en tiempo real. Además de procesar patrones de la mirada del usuario, los bots también pueden analizar el habla de las personas, detectando diferentes tipos de pistas implícitas en la conversación.

“La arquitectura que estamos desarrollando reconoce automáticamente el discurso del usuario y lo analiza para determinar si la persona expresa que necesita ayuda. Al mismo tiempo, el sistema también detecta patrones de mirada, asociando esta actitud con la necesidad de ayuda ”, añade Isabelle Boucher, estudiante de ingeniería, coautora del estudio.

vivir en sociedad

En lugar de considerar información sobre la tarea específica que está realizando el usuario, la nueva técnica busca mejorar las interacciones sociales entre personas y robots. Esto permite que este enfoque se aplique en muchos contextos diferentes en el mundo real, con robots entrenados para realizar cualquier tipo de actividad en entornos compartidos con humanos.

Si bien el sistema mejora la experiencia de interactuar con robots, los investigadores desean explorar otras formas de comunicación no verbal para mejorar la capacidad de comprensión de las máquinas, mejorando así la identificación de acciones implícitas en las actitudes conductuales.

“Queremos explorar qué señales sociales permiten que un robot determine cuándo un usuario necesita ayuda y cuánta ayuda necesita. Una forma de comunicación no verbal que todavía no usamos es la expresión emocional. Específicamente, analizamos las expresiones faciales para ver cuándo un usuario se siente frustrado, aburrido, comprometido o desafiado ”, concluye Wilson.

La fuente: Franklin y Marshall College

Written By
More from Celio Aragon
Google apunta a duplicar las ventas de teléfonos Pixel en 2023
LA Google estableció metas ambiciosas para la división de teléfonos inteligentes de...
Read More
Leave a comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *