Suscríbete al boletín semanal

Recibe cada semana los contenidos más relevantes de la actualidad científica.

Si estás registrado

No podrás conectarte si excedes diez intentos fallidos.

Si todavía no estás registrado

La Agencia SINC ofrece servicios diferentes dependiendo de tu perfil.

Selecciona el tuyo:

Periodistas Instituciones
Si estás registrado

No podrás conectarte si excedes diez intentos fallidos.

Si todavía no estás registrado

La Agencia SINC ofrece servicios diferentes dependiendo de tu perfil.

Selecciona el tuyo:

Periodistas Instituciones

Neurocientíficos alcanzan un consenso sobre la forma en la que el cerebro procesa el habla

Los neurocientíficos tienen la impresión de que están mucho más cerca de una teoría aceptada y unificada sobre la forma en que el cerebro procesa el habla y el lenguaje, según el científico del Centro Médico de la Universidad de Georgetown, primer académico en exponer las ideas hace una década y que ahora ha publicado un artículo de revisión confirmando la teoría.

Lóbulos del cerebro: en azul, lóbulo occipital; en morado, lóbulo parietal; en verde, lóbulo temporal; y en rosa, lóbulo frontal. Imagen: Wikipedia.

En el número de junio de Nature Neuroscience, el investigador, el doctor Josef Rauschecker, y la coautora, la doctora Sophie Scott, una neurocientífica del University College de Londres, afirman que tanto los estudios en humanos como los realizados en primates no humanos han confirmado que el habla, un importante aspecto del lenguaje, se procesa en dos vías paralelas del cerebro, cada una de las cuales va de regiones neuronales funcionales inferiores a otras superiores.

Estas vías se denominan rutas del “qué” y del “dónde”, y son, a grandes rasgos, análogas a las que usa el cerebro para procesar la visión, aunque están situadas en regiones diferentes, según dice Rauschecker, catedrático del Departamento de Fisiología y Biofísica, y miembro del Instituto de Ciencias Cognitivas y Computacionales de Georgetown.

Ambas vías empiezan con el procesamiento de señales en la corteza auditiva, situada en el interior de una gran fisura que hay a los lados del cerebro por debajo de las sienes, el llamado "lóbulo temporal". La información procesada por la vía del “qué” prosigue entonces su camino a lo largo de la zona exterior del lóbulo temporal, y su función es la de reconocer señales auditivas complejas, entre las que están los sonidos de la comunicación y su significado (la semántica). La vía del “dónde” se sitúa principalmente en el lóbulo parietal, encima del lóbulo temporal, y procesa los aspectos espaciales del sonido (su ubicación y su movimiento en el espacio), aunque también está implicada en proporcionar reacciones durante el acto de hablar.

La percepción auditiva (el procesamiento e interpretación de la información sonora) está relacionada con las estructuras anatómicas; las señales van de regiones cerebrales inferiores a regiones superiores, según afirma Rauschecker. “El sonido, de forma conjunta, entra en el canal auditivo y, en primer lugar, es dividido en frecuencias de un solo tono; luego, las neuronas superiores responden únicamente a los sonidos más complejos, incluidos los que se usan para reconocer el habla, a medida que la representación neuronal del sonido se mueve a través de las distintas regiones cerebrales", explica.

En esta revisión se analizaron estudios realizados tanto en humanos como en primates no humanos. En humanos, los investigadores emplearon la resonancia magnética funcional (RMf) para “observar” los movimientos de actividad entre unas regiones cerebrales y otras, en experimentos que ponen a prueba el “(re)conocimiento” del habla, según afirma Rauschecker. En los primates no humanos, los investigadores emplean una técnica conocida como registro de célula única, que mide los cambios que se producen dentro de una única neurona. Para ello, a los animales anestesiados se les aplican microelectrodos capaces de recoger la actividad de zonas determinadas del cerebro, una técnica que solo raramente puede usarse en pacientes humanos, pero que proporciona una resolución mucho mayor.

Estructuras similares en humanos y primates

"En ambas especies usamos como estímulos sonidos específicos de la comunicación, como el habla en humanos y las llamadas específicas del rhesus en los macacos rhesus", relata Rauschecker. “Encontramos que la estructura de estos sonidos de comunicación es similar en las distintas especies”.

Lo que a Rauschecker le parece más interesante es que, aunque el habla y el lenguaje se consideran capacidades exclusivamente humanas, la imagen que está surgiendo del procesamiento cerebral del lenguaje indica que "durante la evolución, el lenguaje debe de haber surgido a partir de mecanismos neurológicos que, al menos en parte, están presentes en los animales", dice.

“El habla, o el proceso inicial del lenguaje, está bien modelado en los sistemas de comunicación animal, y ahora estos estudios demuestran que la corteza auditiva de los primates, en las distintas especies, muestra los mismos patrones de estructura jerárquica, mapas topográficos y vías de procesamiento funcional”, afirma Rauschecker. “Parece existir una conservación de ciertas vías de procesamiento a lo largo de la evolución en humanos y primates no humanos".

Señala que, aunque ésta es una investigación científica básica que trata de responder a preguntas fundamentales sobre el cerebro, puede terminar proporcionando algunas ideas claras sobre las patologías relacionadas con problemas en la comprensión de las señales auditivas, como el autismo y la esquizofrenia.

“Comprender el habla es uno de los principales problemas que se abordan en el autismo, y una persona con esquizofrenia oye sonidos que solo son alucinaciones", dice Rauschecker. Y añade: “En última instancia, este campo de la investigación nos servirá para tratar mejor estos problemas.

Pero, sobre todo, nos fascina el hecho de que los humanos puedan tener un sentido tan exquisito de las sutiles variaciones en las ondas sonoras que llegan a nuestros oídos, y tan solo recientemente hemos sido capaces de encontrar un modelo que explique cómo el cerebro confiere un significado a esos sonidos en términos de comunicación".

Fuente: SINC
Derechos: Creative Commons

Solo para medios:

Si eres periodista y quieres el contacto con los investigadores, regístrate en SINC como periodista.

Artículos relacionados
Hallan un nuevo grupo de genes virales que protegen a algunos insectos frente a parásitos

Un equipo de científicos ha descubierto una nueva familia de genes presentes en la mayoría de virus de ADN que infectan a insectos, que se ha integrado múltiples veces en los genomas de su huésped y les ha conferido protección frente a determinados grupos de avispas parasitoides. 

ANÁLISIS
La suma de matemáticas y bioinformática desentraña las piezas básicas de los seres humanos
Núria Campillo y Carmen Fernández

La sinergia de disciplinas ha sido clave para el hito científico logrado por el sistema informático AlphaFold al predecir la estructura de las proteínas. La inteligencia artificial ha llegado por la puerta grande a este campo para ayudar a resolver la predicción de la estructura 3D de una manera más rápida.