Suscríbete al boletín semanal

Recibe cada semana los contenidos más relevantes de la actualidad científica.

Si estás registrado

No podrás conectarte si excedes diez intentos fallidos.

Si todavía no estás registrado

La Agencia SINC ofrece servicios diferentes dependiendo de tu perfil.

Selecciona el tuyo:

Periodistas Instituciones
Si estás registrado

No podrás conectarte si excedes diez intentos fallidos.

Si todavía no estás registrado

La Agencia SINC ofrece servicios diferentes dependiendo de tu perfil.

Selecciona el tuyo:

Periodistas Instituciones

Los avatares como comunicadores de emociones

Los actuales sistemas interactivos permiten a los usuarios comunicarse con el ordenador de múltiples formas, pero sin tener en cuenta la comunicación emocional. Una tesis doctoral presentada en la Universidad del País Vasco (UPV/EHU) propone la utilización de avatares o personajes virtuales como una forma eficiente de comunicación no verbal, centrándose principalmente en los aspectos emocionales.

Amalia Ortiz

Los científicos trabajan desde hace décadas para que la interacción entre personas y ordenadores sea cada vez más natural e intuitiva. De hecho, gran parte del éxito o del fracaso de una aplicación informática depende de su interfaz de usuario. La forma de comunicarnos con el sistema operativo, por ejemplo, ha evolucionado mucho desde los tiempos en que era necesario escribir complicadas líneas de comandos en una pantalla negra hasta los sistemas de ventanas, mucho más intuitivos. En la actualidad, se han desarrollado los llamados sistemas de interacción multimodal, que combinan gráficos en tres dimensiones, visión artificial y tecnologías del habla. Entre ellos, los más extendidos son los sintetizadores y reconocedores de voz, que permiten al usuario comunicarse con la máquina a través del lenguaje verbal.

Aún así, teniendo en cuenta que la interacción cotidiana entre las personas se basa también en la comunicación no verbal, es decir, en las expresiones faciales y en los gestos del cuerpo, también estos sistemas están limitados. Y es que nuestra aceptación de un mensaje transmitido cara a cara depende en un 7% de las palabras usadas, en un 38% de la forma de usar la voz (tono y volumen) y en un 55% de la gesticulación o conformación facial. Por esta razón, Amalia Ortiz Nicolás considera fundamental incluir en las interfaces multimodales módulos que permitan interpretar y generar comunicación no verbal, específicamente emocional. En su tesis doctoral, titulada Avatares para la interacción emocional, propone la utilización de avatares (personajes virtuales) como una de las mejores formas de que los sistemas informáticos emitan información no verbal. Amalia Ortiz es doctora en informática y actualmente trabaja como directora del área de Interacción para Educación, Ocio y eInclusión en el centro tecnológico VICOMTech-IK4. Su investigación ha sido dirigida por los doctores Néstor Garay-Vitoria y Maria Teresa Linaza del departamento de Ciencias Computacionales e Inteligencia Artificial de la Facultad de Informática de la UPV/EHU.

Herramientas para crear emociones

Dentro de la comunicación no verbal, la tesis de Amalia Ortiz se centra en los aspectos emocionales o afectivos. Su objetivo fundamental es comprobar si lo avatares son capaces de comunicar emociones. Tal y como define la doctora Ortiz en su tesis, un avatar es un personaje virtual que permite dotar a un sistema de una apariencia (cara, ojos, cuerpo, voz...) y de un comportamiento que emula la interacción entre personas.

Tras estudiar las estructuras o arquitecturas informáticas existentes y comprobar que todas ellas se centran en casos concretos de interacción, la Dra. Ortiz ha diseñado una arquitectura genérica capaz de soportar cualquier tipo de interacción emocional a través de avatares. También ha diseñado las herramientas necesarias para que tanto el usuario como al creador del sistema interactivo puedan generar y expresar emociones de una manera fácil e intuitiva: una herramienta que permite generar avatares sin ningún tipo de conocimiento, un sistema basado en modelos cognitivos emocionales, y un módulo intérprete que traduce las órdenes a expresiones faciales. Una vez generadas las distintas emociones, la Dra. Ortiz ha implementado un módulo de animación que permite al avatar mostrar cada emoción junto a su intensidad.

La interacción emocional, a prueba

Con el objetivo de aplicar su estudio a casos reales, Ortiz ha validado la arquitectura genérica mediante la creación de distintas aplicaciones, que contienen todas las herramientas de generación y expresión desarrolladas. Así han nacido los programas IGARTUBEITI, AVACHAT, SASTEC y ELEIN, desarrollados en VICOMTech-IK4.

El sistema IGARTUBEITI consiste en un paseo virtual que ofrece la vivencia de la historia a través de narraciones digitales. Así, la historia se vive de forma emocional, mediante su reconstrucción en gráficos tridimensionales y explicación de las circunstancias históricas por parte de un guía virtual. AVACHAT es un sistema de chat en el que los usuarios pueden comunicarse no sólo mediante texto, sino también mediante un avatar tridimensional a través del cual pueden comunicar tanto lenguaje verbal como no verbal. Por su parte, el sistema SASTEC persigue ofrecer un conjunto de ayudas a los usuarios con discapacidad cognitiva. Para ello, se han construido una serie de ejercicios para ejercitar la memoria de dichos usuarios, de tal manera que permitan fomentar y aumentar su autonomía. El sistema cuenta con interfaces de usuario formadas por avatares emocionales. Finalmente, ELEIN, dirigido a entornos de e-Learning, busca ofrecer una nueva forma de comunicar contenidos educativos a través de Internet. Presenta un agente pedagógico tridimensional con capacidad de hablar en tiempo real e integrado plenamente en los contenidos de los cursos.

Tras someter estas aplicaciones a la evaluación de los usuarios, la Dra. Ortiz asegura que éstos prefieren interactuar a través de un avatar porque lo consideran más agradable, fácil y entretenido. Además, ha comprobado que los usuarios son capaces de reconocer la mayor parte de las emociones faciales del avatar y creen que la información queda mejor explicada si un avatar emocional es quien la proporciona. De acuerdo con los datos recogidos, los usuarios del curso online ELEIN respondieron correctamente a un 13% más de preguntas cuando los conceptos habían sido previamente explicados por un avatar, y las respuestas correctas aumentaron otro 10% cuando los conceptos habían sido explicados a través de un avatar emocional.

La Dra. Ortiz considera que sería interesante implementar un módulo con síntesis de voz emocional, ya que cree que la evaluación por parte de los usuarios sería más positiva si el tono de voz del avatar fuera acorde con su expresión facial. Así, esta tesis doctoral presentada en la UPV/EHU abre la puerta a nuevas investigaciones sobre sintetizadores de voz capaces de simular emociones y módulos de animación corporal que expresen emociones a través de posturas.

Fuente: UPV/EHU
Derechos: Copyright

Solo para medios:

Si eres periodista y quieres el contacto con los investigadores, regístrate en SINC como periodista.

Artículos relacionados
Inteligencia artificial para ver mutaciones causantes de distintos tipos de cáncer

Científicos del centro IRB Barcelona han desarrollado un método computacional que, mediante algoritmos de aprendizaje automático, identifica mutaciones que causan cáncer según la clase de tumor. La herramienta se llama BoostDM, y actualmente trabaja con perfiles mutacionales de 28.000 genomas de 66 cánceres diferentes.

Cómo recolocar una orquesta para reducir el riesgo de covid-19

Trasladando el piano, el arpa y los instrumentos de percusión hacia el centro del escenario y llevando los clarinetes, trompetas y flautas a las orillas, más cerca de las rejillas por donde se renueva el aire, se puede reducir la concentración de aerosoles en los conciertos, junto a la siempre necesaria buena ventilación. Investigadores de la Universidad de Utah (EE UU) lo han comprobado con modelos computacionales.