Los algoritmos aprenden de patrones de consumo globales. Y esos patrones están profundamente marcados por estereotipos de género. El resultado es una orientación silenciosa que empieza mucho antes de que exista una decisión consciente.

Datos objetivos que evidencian esta orientación desigual
Recomendaciones y consumo digital
- En España, las adolescentes dedican el doble de tiempo que los chicos a contenidos de estética, lifestyle y redes visuales (INE, Encuesta TIC en Hogares 2023).
- Los adolescentes varones consumen un 70% más de contenido tecnológico, gaming y tutoriales técnicos que las chicas (Fundación FAD Juventud, 2023).
- A escala global, YouTube recomienda a perfiles configurados como niñas un 65% más de contenido estético y de entretenimiento, mientras que a los perfiles masculinos les muestra un 70% más de tecnología y tutoriales técnicos (University of Washington, estudio sobre sesgo algorítmico de género).
- En TikTok, tanto en España como fuera, los perfiles femeninos son redirigidos hacia contenido estético en menos de 40 minutos, incluso con un uso inicial neutro (WSJ )
Influencia algorítmica en intereses
- En España, el 78% de las adolescentes reconoce que “lo que ve en redes influye en lo que le interesa”, frente al 54% de los chicos (Barómetro Juventud y Género, Injuve, 2023).
- Las chicas españolas reciben un 40% más de recomendaciones de contenido estético en TikTok e Instagram que los chicos, incluso con patrones de uso similares. UOC
Sesgo en IA generativa
- En España, los modelos de IA en español asocian profesiones STEM a hombres en el 80% de los casos, incluso con prompts neutros (UPM, 2024).
- En pruebas vocacionales con IA, los perfiles femeninos reciben un 60% más de recomendaciones de profesiones sociales o creativas, mientras que los masculinos reciben un 55% más de profesiones tecnológicas (UPM).
Influencia algorítmica en intereses
- En España, el 78% de las adolescentes reconoce que “lo que ve en redes influye en lo que le interesa”, frente al 54% de los chicos (Barómetro Juventud y Género, Injuve, 2023).
- Las chicas españolas reciben un 40% más de recomendaciones de contenido estético en TikTok e Instagram que los chicos, incluso con patrones de uso similares (Universidad de Deusto, 2023).
- A nivel global, en búsquedas como “cómo funciona un dron”, los perfiles femeninos reciben un 38% más de vídeos recreativos, mientras que los masculinos reciben un 52% más de contenido técnico (AlgorithmWatch, informe sobre sesgos de recomendación).
Brecha en vocaciones STEM
- En España, solo 1 de cada 4 estudiantes de carreras STEM es mujer (Ministerio de Universidades, 2024).
- En ingeniería informática, ellas representan apenas el 13% del alumnado.
- En FP tecnológica, la presencia femenina cae al 11% (Ministerio de Educación, 2024).
- Globalmente, las mujeres ocupan solo el 28% de los empleos STEM (UNESCO).
Qué significa esto para las vocaciones STEM
Los datos muestran un patrón claro:
- A los niños se les expone a tecnología, ciencia, tutoriales, experimentación y lógica.
- A las niñas se les expone a estética, lifestyle, entretenimiento y contenido emocional.
No es que ellas no quieran ciencia. Es que la ciencia no llega a ellas.
Cuando una posibilidad no aparece, no se imagina. Cuando no se imagina, no se elige.
Cómo incorporar perspectiva de género en algoritmos e IA (explicado desde la observación con perspectiva de género, no desde lo técnico)
Los algoritmos no “piensan”, pero aprenden de lo que ven. Si lo que ven está lleno de estereotipos, los reproducen. Y aunque la parte técnica corresponde a quienes diseñan y programan estos sistemas, también desde fuera —desde la educación, la orientación y la igualdad— podemos observar qué está ocurriendo y evidenciarlo. Esta mirada permite ver cómo estereotipos que solemos minimizar, e incluso dar por superados en pleno siglo XXI, siguen actuando como barreras que alimentan la segregación y los roles de género en la ciencia y la tecnología.
La perspectiva de género aquí no nace del código, sino de la capacidad de mirar críticamente lo que aparece en las pantallas, detectar patrones que se repiten y preguntarnos qué consecuencias tienen para niñas y niños.
Revisar qué datos se utilizan
Los algoritmos aprenden de ejemplos. Si los ejemplos muestran a hombres en tecnología y a mujeres en estética, repetirán ese patrón. Introducir perspectiva de género significa equilibrar referentes, profesiones y modelos en los datos que alimentan estos sistemas.
Comprobar qué recomendaciones hace
No hace falta ser experta en IA para detectar sesgos. Basta con observar si la IA recomienda cosas distintas a niñas y niños cuando preguntan por estudios, profesiones o intereses tecnológicos. Si hay diferencias, hay sesgo.
Equilibrar la exposición
La IA recomienda lo que cree que interesa, pero el interés también se construye. Quien orienta, profesorado, familias, puede:
- mostrar contenido STEM a niñas de forma activa
- seguir y compartir cuentas de mujeres científicas y tecnólogas
- introducir experimentos, retos y referentes femeninos en clase
- enseñar a buscar más allá de lo que aparece en el feed
Enseñar cómo funciona un algoritmo
Tres ideas sencillas que cualquier menor, e incluso yo sin formación técnica 😉 puede entender, :
- “El algoritmo te enseña lo que cree que te gusta, no todo lo que existe.”
- “Si solo ves un tipo de contenido, es porque no te está enseñando lo demás.”
- “Puedes cambiar lo que ves buscando cosas nuevas.”
Introducir pensamiento crítico
Nombrar el sesgo es el primer paso para desactivarlo. Ayudar a niñas y niños a preguntarse:
- “¿Por qué veo esto y no otra cosa?”
- “¿Quién decide lo que aparece en mi pantalla?”
- “¿Qué no estoy viendo?”
El pensamiento crítico es una herramienta de protección frente a cualquier algoritmo, pero también frente a algo más profundo: la manipulación, la desinformación y los relatos que moldean lo que creemos. Es la capacidad que permite a niñas, niños —y a cualquiera de nosotras— detenerse un segundo y preguntarse: “¿Esto es así? ¿Quién lo dice? ¿Qué falta aquí?”.
Crear espacios donde la tecnología sea accesible
Talleres, clubs, retos y proyectos donde niñas puedan experimentar sin presión estética ni juicio. La exposición directa rompe más sesgos que cualquier explicación.
La frase que lo resume
La perspectiva de género en algoritmos no empieza en el código. Empieza en quién acompaña a niñas y niños a mirar la pantalla y en qué les enseñamos a buscar, cuestionar y elegir. Ahí es donde se decide si un algoritmo se convierte en una brújula o en una barrera.
Llamada a la acción
Si queremos igualdad en ciencia y tecnología, no basta con hablar de referentes. Hay que intervenir en el sistema que decide qué ven las niñas:
- equilibrando los datos que alimentan los algoritmos
- revisando qué recomiendan las IA cuando una niña pregunta por su futuro
- enseñando a buscar más allá de lo que aparece en el feed
- introduciendo pensamiento crítico desde edades tempranas
- amplificando referentes femeninos cotidianos en STEM
- creando espacios donde la tecnología sea accesible, cercana y posible
La igualdad no empieza en la universidad ni en el mercado laboral. Empieza en lo que aparece —o no aparece— en sus pantallas.
