La IA esquiva el sexismo, pero aún discrimina por edad

Una investigación internacional constata la tendencia al edadismo de cinco de los chatbots más populares. Según los autores, este sesgo refleja la sociedad actual, que a la hora de hablar es más cuidadosa con el género que con la edad.

La IA esquiva el sexismo, pero aún discrimina por edad
Una investigación internacional constata la tendencia al edadismo de cinco de los chatbots más populares. /Unsplash

ChatGPT, Gemini, Copilot… los chatbots de inteligencia artificial (IA) generativa se han hecho un hueco en nuestro día a día en un abrir y cerrar de ojos. Nos asisten en tareas profesionales o en aspectos personales, desde resolver dudas o buscar información hasta organizar vacaciones. Ahora bien, estas herramientas, que se venden como neutrales y objetivas, ¿realmente lo son?

Un estudio internacional liderada por la Universidad de L'Aquila (Italia) y con participación de la Universitat Oberta de Catalunya (UOC) ha constatado que, si bien los principales chatbots de IA han hecho los deberes en cuanto al sexismo y evitan los sesgos de género, todavía continúan cayendo en discriminaciones vinculadas al edadismo.

La investigación, publicada en abierto en la revista Big Data & Society, pone en evidencia que los chatbots de inteligencia artificial generativa presentan sesgos significativos relacionados con la edad que ya afectan a los usuarios, mientras que muestran más cautela a la hora de evitar estereotipos de género.

Como los chatbots nos dan conversación con un lenguaje natural, hemos ‘hablado’ con ellos como si fueran personas a partir de un guion que plantea situaciones ficticias y preguntas sobre prácticas digitales

Mireia Fernández-Ardèvol, UOC

El trabajo analiza el comportamiento de cinco de los chatbots más populares a través de entrevistas cualitativas y tratando a los modelos de IA como si fueran interlocutores humanos para identificar hasta qué punto reproducen estereotipos sociales en sus respuestas.

“Hemos aplicado un método típico de la sociología tradicional: la entrevista. Como los chatbots nos dan conversación con un lenguaje natural, hemos ‘hablado’ con ellos como si fueran personas a partir de un guion que plantea situaciones ficticias y preguntas sobre prácticas digitales”, apunta Mireia Fernández-Ardèvol, investigadora del grupo de investigación Communication Networks and Social Change (CNSC), adscrito al centro de investigación UOC-TRÀNSIC, y una de las autoras del estudio.

Los resultados son reveladores: la IA generativa parece haber aprendido a ser sensible al sexismo, pero no al edadismo.

Una doble vara de medir

En concreto, el equipo investigó el funcionamiento de ChatGPT, Jasper, Gemini, Copilot y Perplexity, cinco de los modelos gratuitos más generalizados. Interactuaron con ellos manteniendo conversaciones semiestructuradas utilizando un entorno digital esterilizado (cuentas nuevas, navegadores limpios y geolocalización controlada) para evitar sesgos derivados del uso previo o la personalización.

Las preguntas planteadas pedían a los chatbots que asignaran edad o género a personajes ficticios según sus hábitos digitales, o que explicaran qué funciones eran más útiles para diferentes tipos de usuarios

Las preguntas planteadas pedían a los chatbots que asignaran edad o género a personajes ficticios según sus hábitos digitales, o que explicaran qué funciones eran más útiles para diferentes tipos de usuarios. Los resultados, una vez analizadas las respuestas, apuntan a la existencia de una doble vara de medir.

Por un lado, los chatbots tienden a ofrecer respuestas ‘políticamente correctas’ en cuanto al género y evitan hacer suposiciones y asignar roles estereotipados a hombres y mujeres. En cambio, no muestran la misma sensibilidad hacia la edad, ya que asignan de manera mucho más evidente perfiles y capacidades en función de si una persona es joven o mayor. Por ejemplo, ante una persona que hace un uso intensivo de Instagram o TikTok, las IA no se atreven a suponer si es hombre o mujer, pero sí la incluyen en una categoría de edad más joven que a alguien que siga debates políticos en Facebook.

Unos sesgos que reflejan la sociedad

Fernández-Ardèvol considera que los chatbots son más cuidadosos con el género que con la edad porque la sociedad lo es más con el sexismo que con el edadismo. “Las personas que diseñan, programan y entrenan la IA generativa tienen interiorizado que el sexismo es incorrecto, pero no tanto que el edadismo lo sea. Ya sea por intervención humana o por la forma en que los chatbots aprenden a partir de los textos y materiales que reciben para entrenarse, los chatbots tienden a evitar comentarios sexistas, pero no siempre son capaces de evitar el edadismo”, apunta la investigadora del CNSC.

Un hecho curioso es que los propios modelos de IA, que a menudo incluyen advertencias sobre el riesgo de caer en los estereotipos de género, al mismo tiempo describen sus funciones de forma desigual en función de la edad: para personas mayores destacan tareas de asistencia, simplificación y ayuda en la vida cotidiana, mientras que para personas jóvenes se pone el acento en la creatividad, el aprendizaje y el entretenimiento.

Dado que estos sesgos no son solo técnicos sino que reflejan valores y estereotipos presentes en la sociedad y en los datos con los que se entrenan estos sistemas, el equipo de investigación considera que esta situación puede contribuir a reforzar estas desigualdades y generar una representación sesgada de determinados colectivos, especialmente las personas mayores.

“Existe un riesgo de legitimar estas discriminaciones, invisibilizar la diversidad y limitar oportunidades en ámbitos como el trabajo, la salud o el acceso a servicios, particularmente si son servicios digitales. Incluso puede empeorar la percepción pública del envejecimiento y mermar la dignidad de las personas mayores”, apunta la catedrática experta en comunicación.

La investigadora de la UOC confía en que los resultados de esta investigación lleguen a las empresas que diseñan y programan estas herramientas para que incorporen mayor justicia social y acaben con el edadismo en sus sistemas. “Aunque se puede argumentar que los chatbots únicamente reproducen problemas que ya existen en la sociedad, las empresas tecnológicas deciden qué datos utilizan para entrenarlos, así que pueden perpetuar estos sesgos o, como esperamos, corregirlos con datos diversos, auditorías éticas y una responsabilidad activa en el desarrollo tecnológico”, señala Fernández-Ardèvol.

Referencia:

Belotti, F., Fernández-Ardèvol, M., Bozan, V. , Comunello, F. y Mulargia, S. [Simona]. (2026). Double standards of generative AI chatbots: Unveiling (digital) ageism versus sexism through sociological interviews. Big Data & Society.

Fuente: UOC
Derechos: Creative Commons.
Artículos relacionados