Idoia Salazar, experta en regulación tecnológica

“La IA no respeta ni discrimina; es el ser humano quien debe evitar los sesgos contra el colectivo LGTBI+”

Colabora en el diseño de políticas públicas sobre IA desde una perspectiva ética y social. Idoia Salazar participa en proyectos europeos y nacionales centrados en regular esta tecnología y reducir sus sesgos, también hacia el colectivo LGTBI+. 

Idoia Salazar, especialista en ética y regulación de la inteligencia artificial
Idoia Salazar, se ha especializado en ética y regulación de la inteligencia artificial. / Foto cedida por la entrevistada

Actualmente, Idoia Salazar es profesora en la Universidad CEU San Pablo y dirige la Cátedra Pública Internacional ENIA sobre IA Generativa: retos y riesgos. Está especializada en ética y regulación de la inteligencia artificial.

Participa en el diseño del Sello Nacional en Inteligencia Artificial, en la creación de la Agencia Española de Supervisión de Algoritmos (AESIA) y en el desarrollo del proyecto piloto Sandbox, cuyo objetivo es implementar una IA responsable con un enfoque centrado en las personas. 

También forma parte del equipo de expertos en modelos de aprendizaje automático del Observatorio de Inteligencia Artificial del Parlamento Europeo, centrado en regulación y gobernanza. Es miembro del World Economic Forum (WEF) y participa en la iniciativa Women4Ethical AI (W4EAI) de la UNESCO.

Ha publicado varios libros sobre el impacto social de la IA, en los que advierte del riesgo de que esta tecnología perpetúe estereotipos si se entrena con datos sesgados

Salazar también preside el Observatorio del Impacto Social y Ético de la Inteligencia Artificial (OdiseIA) y es cofundadora de Raight.ai, una empresa dedicada al desarrollo de proyectos de IA responsable con proyección internacional.

Paralelamente a su labor institucional y académica, ha publicado cuatro libros sobre el impacto social de la IA y otras tecnologías emergentes. En ellos también aborda uno de los principales riesgos de estos sistemas: que, al entrenarse con datos sesgados, perpetúen estereotipos o sesgos estructurales.

¿Cree que la inteligencia artificial puede reforzar estereotipos LGTBI?

Hace unos años no se tenía cuidado al limpiar los datos con los que se entrenaban los algoritmos, y eso generaba muchos problemas. No solo en relación con el colectivo LGTBI, sino también con mujeres u otros grupos minoritarios que podían quedar invisibilizados o mal representados.

Hoy en día, sin embargo, se conocen mejor las variables que deben extraerse para evitar esos sesgos. Es fundamental eliminar aquellas que puedan introducir discriminación —como el sexo o el género— siempre que no afecten negativamente al resultado. Por ejemplo, en ciertos contextos sanitarios puede ser importante conservar variables relacionadas con el género.

Hace años no se cuidaba la limpieza de datos y eso invisibilizaba o distorsionaba a grupos minoritarios

Actualmente también se tiene en cuenta el contexto y se revisan las respuestas del sistema para prevenir sesgos o discriminaciones. Lo clave es que, durante la limpieza de datos, se evalúe el posible impacto en los derechos fundamentales. Con las técnicas actuales, es mucho menos probable que la IA amplifique la discriminación hacia personas LGTBI.

Además, señalar que siempre debe haber supervisión humana al final del proceso para contextualizar las decisiones del algoritmo y corregir posibles errores derivados de los datos de entrenamiento.

Términos como ‘gay’ o ‘trans’ se han utilizado históricamente de manera despectiva. ¿Crees que la censura automática de este tipo de palabras contribuye a la discriminación del colectivo?

No lo creo. La intención al eliminar términos como ‘gay’ o ‘trans’ en ciertos contextos es precisamente evitar discriminaciones. Al igual que se eliminan variables que podrían revelar el sexo o género de una persona, estas palabras se filtran para reducir riesgos de sesgo en el tratamiento automático de la información.

¿Qué medidas son necesarias para que los sistemas de IA respeten mejor la diversidad sexual y de género?

Quienes deben respetar son las personas, no la IA. La inteligencia artificial es solo una herramienta. Es el ser humano quien debe utilizarla de forma ética y responsable. La IA no respeta ni discrimina por sí sola, actúa según el diseño y entrenamiento que ha recibido por parte de los desarrolladores.

Entonces, ¿qué responsabilidad tienen empresas y desarrolladores frente a los sesgos LGTBI en los datos de entrenamiento?

Tienen toda la responsabilidad. Quienes desarrollan o utilizan sistemas de inteligencia artificial deben asegurarse de que han sido entrenados con datos de calidad y libres de sesgos. Esa supervisión y control ético recae directamente sobre las empresas y los profesionales implicados.

Las empresas y desarrolladores tienen la responsabilidad frente a los sesgos LGTBI en los datos de entrenamiento

¿Conoces algún proyecto que promueva los derechos LGTBI desde la IA?

No conozco ningún proyecto concreto centrado en promover los derechos LGTBI desde la IA, pero sí creo que ha mejorado en el respeto a la diversidad sexual y de género. Hoy, gracias a las mejoras técnicas, es más fácil identificar y eliminar variables que puedan generar discriminación.

Además, los datos nos permiten ver reflejadas nuestras propias acciones. Muchas veces, sin darnos cuenta, tomamos decisiones que pueden perjudicar a ciertos colectivos. La IA nos ayuda a visibilizar esas dinámicas y a corregirlas. En ese sentido, puede ser una herramienta para hacer el mundo más justo, al menos en lo que respecta a la discriminación inconsciente.

Fuente:
SINC
Derechos: Creative Commons
Artículos relacionados