Suscríbete al boletín semanal

Suscríbete para recibir cada semana el boletín SINC con los contenidos más relevantes y no te pierdas nada de la actualidad científica.

Suscríbete al boletín semanal
Si estás registrado

No podrás conectarte si excedes diez intentos fallidos.

Si todavía no estás registrado

La Agencia SINC ofrece servicios diferentes dependiendo de tu perfil.

Selecciona el tuyo:

Periodistas Instituciones
Si estás registrado

No podrás conectarte si excedes diez intentos fallidos.

Si todavía no estás registrado

La Agencia SINC ofrece servicios diferentes dependiendo de tu perfil.

Selecciona el tuyo:

Periodistas Instituciones

La inteligencia artificial reproduce el racismo y el sexismo del lenguaje

Los prejuicios raciales y de género que incorpora el lenguaje humano se transmiten a los sistemas de inteligencia artificial que tratan de imitarlo. Así lo refleja el análisis de textos efectuado por científicos de EE UU y Reino Unido mediante un modelo de aprendizaje automático.

Los prejuicios que transmite el lenguaje se transmiten a los sistemas de inteligencia artificial cuando aprenden un idioma. / Pixabay

Cuando Isaac Asimov formuló sus leyes de la robótica pretendía que el comportamiento de los robots hacia los humanos fuese moralmente correcto. Pero a veces la actitud de las personas hacia sus semejantes no es la adecuada, por ejemplo en el lenguaje, y eso se puede transmitir a los sistemas de inteligencia artificial (IA) cuando se los programa para aprenderlo.

Científicos de la Universidad de Princeton (Estados Unidos) y de la Universidad de Bath (Reino Unido) han demostrado que, cuando estos sistemas aprenden un idioma a partir de textos ya existentes se ven contagiados de los mismos prejuicios raciales o de género incluidos en el lenguaje.

"Los nombres femeninos se asocian a términos relacionados con la familia, y los masculinos con carreras profesionales"

Los resultados del estudio, que se publica esta semana en la revista Science, aportan una importante herramienta para estudiar cómo se transmiten este tipo de sesgos en el comportamiento humano y la relación que tienen con el lenguaje y los estereotipos culturales.

Prejuicios de género

Los autores parten del denominado Test de Asociación Implícita (TAI), un método comúnmente utilizado para medir los prejuicios en los seres humanos. Se basa en que los sujetos del estudio asocien dos conceptos que consideren similares en contraposición con los que piensen son diferentes.

"Replicamos un espectro de prejuicios conocidos, como los que mide el test TAI, utilizando un modelo de aprendizaje automático, muy utilizado y puramente estadístico, entrenado con textos de la web", señalan los autores en su estudio

De esta forma observaron las asociaciones de palabras que hacía el sistema analizando más de dos millones de palabras, y descubrieron que retenía los mismos prejuicios humanos transmitidos a través de la lengua.

“Por ejemplo, los nombres femeninos se asociaban principalmente a términos relacionados con la familia, mientras que los masculinos lo hacían a términos relacionados con carreras profesionales”, explica Aylin Caliskan, una de las autoras.

Un ejemplo de esta teoría es como un programa de traducción en línea traducía del turco al inglés la frase “él es enfermero”. La traducción dio como resultado “ella es enfermera”, mientras que la frase “él es médico” no sufría ningún cambio de género al obtener la respuesta en inglés.

La inteligencia artificial traduce automáticamente el género masculino al femenino asociado con el término "enfermera" / Aaron Nathans

Prejuicios raciales

Y no solo se transmitían los prejuicios de género, también los raciales. Existen estudios sobre el comportamiento humano que muestran que un mismo curriculum tiene un 50% de posibilidades más de que el candidato pase a la fase de entrevista si su nombre es europeo-americano en lugar de afroamericano.

En el caso de la IA, también se asocian los nombres europeo-americanos con estímulos o términos positivos relacionados con el placer, como ‘regalo’ o ‘felicidad’.

Arvid Narayanan, otro de los autores, achaca la transmisión de estos prejuicios no solo a la programación de sus creadores sino también a los datos con los que se ha ‘alimentado’ al sistema. “Esos textos pueden venir directamente de la sociedad, de lo que escribe la gente on line”, explica Narayanan.

“Lo que queremos comprobar simplemente es cómo el aprendizaje de una lengua puede influir en la transmisión de esos prejuicios, ver cómo absorbemos que una cosa es buena o mala según el uso que la gente hace de esas palabras”, concluye Joanna Bryson, coautora del estudio.

Referencia bibliográfica:

A. Caliskan; J.J. Bryson; A. Narayanan. "Semantics derived automatically from language corpora contain human-like biases”. Science, 2017 http://science.sciencemag.org/cgi/doi/10.1126/science.aal4230

Fuente: SINC
Derechos: Creative Commons
Artículos relacionados
Alt de la imagen
Un prototipo fotónico para ayudar a pacientes con COVID-19
SINC

Algunos parámetros sanguíneos se pueden medir de forma no invasiva con luz infrarroja. Aplicando esa propiedad, investigadores del instituto ICFO han desarrollado un biomarcador de la salud endotelial y microvascular destinado a personas ingresadas en la UCI por el coronavirus. El dispositivo se ha comenzado a probar en el antebrazo de pacientes del Hospital Parc Taulí y otros centros sanitarios de España y América.

Alt de la imagen
Nuevo test para COVID-19 con biochips usados en la búsqueda de vida en Marte

La tecnología de biochips que el Centro de Astrobiología lleva años desarrollando para la detección de vida en otros planetas se ha aplicado ahora en un ensayo serológico para detectar la COVID-19 a través de anticuerpos. En el proyecto colaboran otros centros de investigación españoles y el Hospital Central de la Defensa.