Suscríbete al boletín semanal

Suscríbete para recibir cada semana el boletín SINC con los contenidos más relevantes y no te pierdas nada de la actualidad científica.

Suscríbete al boletín semanal
Si estás registrado

No podrás conectarte si excedes diez intentos fallidos.

Si todavía no estás registrado

La Agencia SINC ofrece servicios diferentes dependiendo de tu perfil.

Selecciona el tuyo:

Periodistas Instituciones
Si estás registrado

No podrás conectarte si excedes diez intentos fallidos.

Si todavía no estás registrado

La Agencia SINC ofrece servicios diferentes dependiendo de tu perfil.

Selecciona el tuyo:

Periodistas Instituciones

Así distingue el cerebro entre la música y el habla

Un nuevo estudio describe cómo logramos diferenciar la melodía y el lenguaje hablado. Los resultados podrían mejorar el funcionamiento de los implantes cocleares para la música.

La percepción del habla y de la melodía dependen de dos aspectos distintos de la acústica. / Pixabay

El neurólogo argentino Robert Zatorre afirmó en una entrevista que la música es, junto al lenguaje, “una seña de identidad de todo ser humano”. Ambos son usos del sonido muy importantes y, según varios estudios de la última década, el cerebro procesa cada uno en un hemisferio.

Ahora, una investigación internacional liderada por el Instituto Neurológico de Montreal de la Universidad McGill (Canadá), donde ha participado Zatorre, revela por qué existe esta especialización. Los resultados se publican en la revista Science Advances.

La percepción del habla y de la melodía dependen de dos aspectos distintos de la acústica

“Hemos demostrado que la percepción del habla y de la melodía dependen de dos aspectos distintos de la acústica”, afirma a SINC el científico argentino.

Los investigadores crearon 100 grabaciones a capella con diferentes melodías y frases. Luego distorsionaron las grabaciones según dos dimensiones auditivas fundamentales: la dinámica espectral y la temporal, e hicieron que 49 participantes distinguieran en un experimento las palabras o las melodías de cada canción. 

Los resultados mostraron que cuando la información temporal estaba distorsionada, las personas tenían problemas para distinguir el contenido del discurso, pero no la melodía. Por el contrario, cuando la dimensión espectral estaba deformada, tenían problemas para distinguir la melodía, pero no el habla.

“Nuestro estudio señala que las fluctuaciones temporales son muy importantes para comprender el habla, pero no la música, mientras que las fluctuaciones espectrales son imprescindibles para percibir las melodías, pero no el habla”, subraya Zatorre.

La canción original (abajo a la izquierda) y su espectrograma (arriba, en azul). La corteza auditiva de los lados derecho e izquierdo del cerebro decodifica la melodía y el habla, respectivamente, porque la melodía depende más de las modulaciones espectrales y el habla depende más de las modulaciones temporales. / Robert Zatorre

Implantes cocleares

Para comprobar cómo responde el cerebro a estas diferentes características sonoras, se obtuvieron imágenes de resonancia magnética funcional (fMRI) de los participantes mientras distinguían los sonidos. Los investigadores descubrieron que el procesamiento del habla ocurría en la corteza auditiva izquierda, mientras que el procesamiento melódico ocurría en la corteza auditiva derecha.

Los implantes cocleares funcionan bien para el habla, pero no la música. Ahora podría mejorarse su funcionamiento

“Precisamente, al tener dos zonas distintas, una en cada hemisferio, podemos procesar los dos tipos de índices acústicos de manera paralela y simultánea”, añade el neurólogo.

En estudios anteriores en animales se había probado que las neuronas de la corteza auditiva responden a combinaciones particulares de energía espectral y temporal, según los sonidos que son relevantes para el individuo en su entorno natural, como los sonidos de la comunicación. Para los humanos, tanto el habla como la música son medios de comunicación importantes.

"Estos resultados tienen aplicaciones interesantes, por ejemplo, en el área de los implantes cocleares. Por ahora, esos implantes funcionan bien para el habla, pero no la música. Nuestro trabajo ayuda a explicar por qué ocurre y quizás pueda mejorar su funcionamiento para la música”, concluye.

Referencia:

P. Albouy; L. Benjamin; R.J. Zatorre. “Distinct sensitivity to spectrotemporal modulation supports brain asymmetry for speech and melody”. Science Advances (27 de febrero de 2020). http://dx.doi.org/10.1126/science.aaz3468.

Fuente: SINC
Derechos: Creative Commons.
Artículos relacionados
La ventaja de jugar en casa existe aunque las gradas estén vacías

El llamado ‘factor campo’, atribuido a la fuerza que transmiten los aficionados al equipo local, permanece en los estadios de fútbol a pesar de que no acojan espectadores debido a la pandemia. Así lo refleja un estudio estadístico con datos de ligas profesionales europeas.

Demuestran la relación entre la ausencia de placer por la música y la anhedonia social

Las personas que experimentan anhedonia social tienen dificultades para sentir el placer y la recompensa interpersonal derivados de las relaciones sociales. Un grupo de investigación liderado por la Universidad Complutense de Madrid ha demostrado por primera vez la relación entre esta situación y la ausencia de placer por la música, convirtiéndose esta en potencial herramienta para detectar este tipo de anhedonia.