Cuando los algoritmos perpetúan el sesgo: género y ética en la aplicación de la IA en Recursos Humanos
octubre 15, 2025
La inteligencia artificial está transformando la manera en que trabajamos, seleccionamos talento y tomamos decisiones. Pero conviene recordarlo desde el principio: la IA no es neutral.
Detrás de cada algoritmo hay datos, y detrás de esos datos estamos nosotros —personas con valores, intuiciones, prejuicios y sesgos-. En el fondo, la IA no hace más que amplificar lo que somos.
Por eso, cuando hablamos de aplicar IA en recursos humanos, la pregunta no es solo tecnológica: ¿estamos creando herramientas que corrigen desigualdades o que las consolidan?
Los sesgos no son un error técnico: son un reflejo social
En la mesa redonda “Sesgos de género en la aplicación de la IA”, celebrada en el Congreso de Inteligencia Artificial y RRHH, cuatro mujeres abordaron un debate tan necesario como incómodo: cómo los algoritmos, si no se diseñan con mirada crítica, pueden perpetuar las mismas brechas que decimos querer eliminar.
“La IA somos nosotros alimentándola. Si los datos tienen sesgos, la IA también los tendrá.”
Y ahí está el corazón del problema.
Los modelos de IA aprenden de datos históricos, y si durante años el 80 % de los directivos han sido hombres, el sistema tenderá a recomendar… a más hombres.
No porque “quiera” discriminar, sino porque cree que eso es lo normal.
Los sesgos de género en IA no aparecen de la nada.
Se alimentan de una brecha tecnológica (menos mujeres en posiciones técnicas), de datos incompletos o mal representados, y de estereotipos culturales que siguen colándose en nuestras decisiones diarias.
Pero hay esperanza. Porque, así como la IA puede amplificar el sesgo, también puede ayudarnos a detectarlo y corregirlo, si la usamos con conciencia.
Cómo mitigar los sesgos: del dato a la cultura
Corregir los sesgos no es sencillo, hay algunas estrategias que, aplicadas de forma coherente, pueden transformar la manera en que la IA se integra en los procesos de personas.
- Cuidar los datos: Si entrenamos un modelo con información desigual, el resultado será desigual. Necesitamos “curar” los datos, eliminar estereotipos, incluir ejemplos diversos y representativos. No se trata de manipular la realidad, sino de equilibrarla.
- Auditar los algoritmos: Igual que auditamos las cuentas, debemos auditar la inteligencia artificial. Medir si las decisiones que toma afectan de forma diferente a hombres y mujeres, y corregir cuando sea necesario.
- Monitorear de forma continua: No basta con revisar una vez. La IA aprende, evoluciona, y también puede volver a desviarse. Empresas pioneras ya miden periódicamente la tasa de selección y promoción por género, ajustando criterios cuando aparecen desequilibrios.
- Transparencia y explicabilidad: Las “cajas negras” no generan confianza. Los equipos de RRHH deben saber por qué un algoritmo recomienda o descarta a una persona. Entender la lógica detrás del sistema es la única forma de detectar sesgos ocultos y actuar con justicia.
- Diversidad en los equipos de diseño: La mejor vacuna contra los sesgos algorítmicos es la diversidad humana.
Cuando quienes diseñan la IA provienen de distintos géneros, culturas y disciplinas, los puntos ciegos se reducen. La tecnología se vuelve más rica, más consciente, más real. - Formación y ética aplicada: Las personas que trabajan con IA necesitan entender cómo funciona, pero también cómo puede fallar. Formar en ética, sesgos y pensamiento crítico es una inversión en confianza., “no se trata de aprender a usar IA, sino de aprender a usarla con criterio humano”.
Un cambio más profundo: la cultura
La implantación de la IA en los recursos humanos no es solo un salto tecnológico: es un cambio cultural y humano profundo. Porque hablamos de cómo decidimos sobre personas: a quién contratamos, a quién promocionamos, a quién escuchamos.
Este cambio cultural implica varios movimientos clave:
- De la confianza ciega a la confianza crítica.
La IA no es objetiva si los datos no lo son. Necesitamos profesionales capaces de cuestionar los resultados, de mirar más allá de la pantalla. - De la eficiencia a la equidad.
No basta con usar IA para filtrar CVs más rápido.
El reto es usarla para detectar brechas, visibilizar talento femenino, impulsar planes de igualdad. Pasar de la productividad como métrica al valor de la justicia. - De la opacidad a la transparencia.
Las personas tienen derecho a saber cómo se usan sus datos, y a confiar en que la tecnología no decide por ellos, sino con ellos. - De lo técnico a lo humano.
La empatía, el juicio ético y la experiencia profesional no se pueden automatizar.
La IA puede ayudarnos a decidir, pero no debe sustituir nuestra capacidad de discernir.
Sin cultura, la IA es una caja negra; con cultura, se convierte en una herramienta de confianza.
Construir una IA con alma
“La IA no transformará sola los recursos humanos. Necesita que la cultura la acompañe.”
Y es que la tecnología por sí sola no garantiza nada.
Podemos tener algoritmos sofisticados, dashboards brillantes y procesos automáticos… pero si detrás no hay valores, propósito y responsabilidad compartida, la IA se convertirá en un espejo de nuestras desigualdades.
La transformación que necesitamos es más profunda: poner a las personas en el centro del cambio tecnológico. Desarrollar capacidades, cultura y estructuras que hagan de la IA una aliada del talento, no un filtro más.
Humanizando la IA: la propuesta de ReskillIA
En Humannova lo tenemos claro: la adopción de la inteligencia artificial no es solo una cuestión técnica, sino una evolución cultural.
Por eso necesitamos una metodología de transformación cultural. Aquí tenemos el ejemplo de ReskillIA, una metodología que acompaña a las organizaciones en este proceso.

- Liderazgo y Oficinas de Cambio IA
Es imprescindible diseñar espacios estratégicos para guiar el cambio cultural que implica la adopción de IA y la gobernanza, integrando ética, propósito y aprendizaje continuo. - Reskilling & Upskilling
No habrá cambio sin la formación de los equipos para que desarrollen nuevas habilidades y combinen lo mejor del talento humano con el potencial tecnológico. - Trabajo en red: las comunidades de práctica
La evolución viene acompañada de la inteligencia colectiva, de la creación de redes internas de conocimiento y colaboración que impulsan la innovación colectiva en torno a la IA y trabajan en las buenas prácticas y usos de la IA.
De todo ello y muchas más cosas se reflexionó en el congreso de “IA y RRHH, PERSPECTIVAS, POTENCIAL Y FUNCIONALIDADES” de Anexpal en Vigo. Especialmente es la Mesa redonda: “Los sesgos en la IA: la perspectiva de género en su aplicación. Selección, onboarding y gestión integral del talento humano” con María Teresa Fernández Murciego, Jefa de Recursos Humanos del Ayuntamiento de Pinto (Madrid), Saioa Leguinagoicoa, Jefa del Servicio de Estrategia Digital en la Diputación Foral de Bizkaia (Euskadi) y miembro de la Asociación de Mujeres en el Sector Público, Marisa Sama, Jefa del Servicio de Modernización de Procesos del Área de Economía, Innovación y Hacienda del Ayuntamiento de Madrid y Alicia Pomares, Socia Directora en Humannova.
Aquí te dejamos el video completo