Suscríbete al boletín semanal

Suscríbete para recibir cada semana el boletín SINC con los contenidos más relevantes y no te pierdas nada de la actualidad científica.

Suscríbete al boletín semanal
Si estás registrado

No podrás conectarte si excedes diez intentos fallidos.

Si todavía no estás registrado

La Agencia SINC ofrece servicios diferentes dependiendo de tu perfil.

Selecciona el tuyo:

Periodistas Instituciones
Si estás registrado

No podrás conectarte si excedes diez intentos fallidos.

Si todavía no estás registrado

La Agencia SINC ofrece servicios diferentes dependiendo de tu perfil.

Selecciona el tuyo:

Periodistas Instituciones
Las regiones auditivas son sensibles a la información visual

Cómo ‘escuchamos’ sin sonido al leer los labios

Un estudio realizado por el centro de investigación vasco BCBL concluye que, cuando miramos a una persona hablar, nuestra actividad cerebral se sincroniza con la voz del hablante a través de la lectura de los labios, y que esto ocurre incluso cuando no percibimos las ondas sonoras.

El cerebro se sincroniza con las ondas sonoras del habla a través de la lectura de los labios. / Adobe Stock

¿Qué provoca en nuestra actividad cerebral la lectura de los labios? Estudios científicos de finales de los años 90 afirman que leer labios en silencio activa las cortezas auditivas. Sin embargo, los científicos desconocían hasta ahora qué suponía tal activación.

Nuestras cortezas auditivas se sincronizan con los movimientos de los labios sin escuchar el sonido que emite el hablante

Una investigación del Basque Center on Cognition, Brain and Language (BCBL) de San Sebastián ha dado un paso más allá y muestra cómo el cerebro no solo se activa, sino que se sincroniza con las ondas sonoras del habla a través de la lectura de los labios, incluso sin sonido audible.

Este pequeño matiz entre activación y sincronización supone para los neurocientíficos un cambio enorme en el marco teórico. Así, la activación cerebral no necesariamente refleja que la persona que escucha pudiera reconstruir lo que el hablante dice.

“Nuestras cortezas auditivas se sincronizan con los movimientos de los labios sin escuchar el sonido que emite el hablante, lo que supone que aunque las regiones auditivas no estén escuchando nada son sensibles a la información visual que reciben”, afirma Nicola Molinaro, investigador del BCBL.

En este estudio, publicado en The Journal of Neuroscience, 25 personas voluntarias realizaron una prueba de aproximadamente una hora de duración, exponiéndose a audios sin imagen y a vídeos sin sonido.

A partir de ahí se ha descubierto cómo las cortezas auditivas de los participantes mostraron un suficiente nivel de sincronización con las ondas de sonido producidas por el vídeo que no estaban escuchando.

De hecho, la sincronización se parecía a la de aquellos que escucharon la historia, lo que indica que el cerebro puede obtener información auditiva de la información visual disponible para ellos a través de la lectura de labios.

La importancia de la información visual

Este trabajo ha sido realizado gracias a la magnetoencefalografía, una técnica que ha permitido obtener datos más detallados que los que aporta la resonancia magnética, técnica utilizada en estudios anteriores.

La información verbal no solo va por el canal auditivo; es sensible a la información visual

Este descubrimiento abre paso a otras muchas incógnitas que el equipo pretende investigar en los próximos años. Para empezar, este estudio confirma cómo las regiones auditivas son sensibles a mucha más información, pero se desconoce en qué medida afectan los diferentes parámetros a la actividad cerebral.

“La información verbal no solo va por el canal auditivo; es también sensible a la información visual. La comunicación verbal es, en definitiva, una comunicación multimodal mucho más rica”, señala Molinaro.

“En este caso se ha analizado solo el movimiento de las bocas pero para los autores hay mucha más información visual, como pueden ser los gestos, los movimientos de las manos, los parpadeos, el movimiento de la cabeza, etc.”, concluye el experto.

Referencia bibliográfica:

Mathieu Bourguignon, Martijn Baart, Efthymia C. Kapnoula and Nicola Molinaro. ‘Lip-reading enables the brain to synthesize auditory features of unknown silent speech’. Journal of Neuroscience 30 December 2019, 1101-19; DOI: https://doi.org/10.1523/JNEUROSCI.1101-19.2019

Fuente:
BCBL
Derechos: Creative Commons.
Artículos relacionados
Identifican una nueva diana diagnóstica y terapéutica para la enfermedad cardiovascular

Un estudio publicado en Nature muestra a la proteína mitocondrial ALDH4A1 como un nuevo autoantígeno implicado en los procesos de aterosclerosis o endurecimiento de las arterias. Debido a que esta enfermedad puede permanecer asintomática durante largos periodos, resulta necesario el desarrollo de nuevas herramientas para su diagnóstico y tratamiento.

Mejoras en los trasplantes retinianos abren nuevas vías para tratar la pérdida de visión

Un nuevo estudio realizado en ratones y humanos describe nuevas vías de tratamiento para la recuperación de la visión como el trasplante de células madre modificadas que sean capaces de reaccionar frente a la señal de rescate emitida por las células retinianas moribundas.