Al pensar en el futuro, muchos se imaginan coches voladores y otros tantos piensan en androides conviviendo con los seres humanos. Cada vez son más los desarrolladores que trabajan en este tipo de tecnología y, en la Universidad de Columbia (Nueva York, Estados Unidos) no se quedan atrás.
Un grupo de investigadores de ingeniería de la universidad han diseñado Eva, un humanoide capaz de copiar las expresiones faciales de una persona.
Esta máquina es únicamente una cabeza robótica y, con ella, se pretende explorar cómo se desenvolverían las interacciones entre humanos y robots. Este invento permitirá eliminar las expresiones estáticas que caracterizan a la gran mayoría de máquinas inteligentes y, por lo tanto, proporcionará una experiencia más cercana a las personas.
El lenguaje no verbal es igual de importante que la comunicación verbal a la hora de interactuar con una persona. Las expresiones faciales aportan información que las palabras no siempre hacen y permiten generar vínculos entre los interlocutores.
Los expertos en robótica han trabajado durante años en crear robots parecidos a los humanos, no obstante, hasta la fecha no lo han logrado. ¿El principal motivo? No habían conseguido que las máquinas fuesen capaces de identificar y copiar las expresiones faciales, y manifestar emociones propias.
Pero EVA ha venido a cambiar el panorama robótico. Este cráneo humano sintético, del tamaño de la cabeza de un adulto, está impreso en 3D y tiene en la parte delantera una cara de goma blanda azul.
Sin embargo, lo realmente importante del robot se encuentra en su interior. Allí, cuenta con una serie de motores que tiran y sueltan los cables conectados a diferentes zonas de la cara de manera selectiva. De este modo, los ingenieros han conseguido que el robot simule emociones a través de expresiones faciales.
Las emociones que el robot es capaz de expresar son las básicas, como ira, miedo, asco, alegría, tristeza y sorpresa. Los creadores, además, afirman que EVA es capaz de aprender «una serie de emociones más matizadas».
¿Cómo han llegado a este punto? Aunque ahora EVA sea capaz de expresar emociones, al principio los científicos de la Universidad de Columbia solo conseguían que moviese su cara al azar.
Posteriormente, un ordenador que controla el robot analizó unas grabaciones que le hicieron y, utilizando una red neuronal integrada, lograron que EVA reconociese qué expresiones faciales correspondían a cada combinación de movimientos.
Para progresar en su investigación, los ingenieros conectaron al robot una cámara que grababa el rostro de una persona que interactuaba con la máquina. Más tarde, emplearon una segunda red neuronal que identificaba la expresión del ser humano y permitían que EVA la recrease. De esta forma, el robot identifica y copia la expresión moviendo sus músculos faciales.
De momento, el equipo de la universidad estadounidense continúa trabajando en mejorar su tecnología.
«Existe un límite en cuanto a lo mucho que los humanos podemos involucrarnos emocionalmente con los chatbots basados en la nube o con los altavoces inteligentes para el hogar, que no tienen cuerpo -señala el profesor Hod Lipson, líder del proyecto-. Sin embargo, el cerebro parece responder bien a los robots que tienen algún tipo de presencia física reconocible».
Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.