Redacción •  Universitat Politécnica de València •  Ciencia •  17/02/2018

¿Sueñan los androides con ovejas machistas?

La ingeniera informática Lorena Fernández, del proyecto Inspira STEAM para el fomento de la vocación tecnológica entre las niñas en Euskadi, expone la presencia del sesgo machista en la red durante una ponencia en el marco del congreso Comunica2 celebrado en la Universitat Politécnica de València.

¿Sueñan los androides con ovejas machistas?

Lorena Fernández, ingeniera informática y miembro de los proyectos Inspira STEAM (proyecto pionero en Euskadi para fomentar la vocación tecnológica entre las niñas) y 12 miradas (proyecto enfocado en lograr conseguir una igualdad entre hombres y mujeres) es la encargada de mostrar en su charla lo difícil que resulta combatir el machismo: “La peor batalla a la que se enfrenta el feminismo es que el enemigo está también en sus filas”. En su charla, Fernández cuenta cómo la tecnología impulsa este sesgo machista que se forma en parte debido a una inteligencia colectiva y pone unos cuantos ejemplos de cómo esto se puede encontrar en algunas herramientas o proyectos.

Los algoritmos deciden.

Durante la charla, Fernández menciona que este sesgo machista que tiene lugar con la tecnología viene dado por los algoritmos. Fernández afirma y demuestra que estos algoritmos se alimentan y aprenden de la inteligencia colectiva. Los algoritmos deciden a qué información accedemos, qué música escuchamos (poniendo como ejemplo plataformas que realizan recomendaciones y no hacen fácil el consumo de otros tipos de contenidos más allá de los recomendados), qué burbuja ideológica nos rodea, si nos conceden o no un préstamo o de qué nos tenemos que acordar.

Explica Fernández que este sesgo algorítmico supone que Google realice una planificación automática, algo que ella denomina ‘machines planning’, que supone que Google recomienda aquello que, según el algoritmo, es lo correcto. Fernández pone como ejemplo para respaldar este hecho un ejemplo con el traductor de Google. En este ejemplo, Fernández muestra como una frase sin una persona definida («Dijo que…») es traducida, en este caso a inglés, como si la persona involucrada fuera hombre («He said…»). Fernández explica que este hecho se debe a que la plataforma aprende de las traducciones de la gente y de otras plataformas.

Otro ejemplo que pone Fernández es el del estudio Men Also Like Shopping: Reducing Gender Bias Amplification using Corpus-level Constraints con el cual demuestra como la inteligencia artificial y los algoritmos se ven condicionados por las formas de pensar.

Sesgos en proyectos

Fernández menciona en su charla que un gran problema es el punto en el que está pensada la tecnología. Responde a esta cuestión diciendo que se piensa y se crea para hombres blancos heterosexuales. Fernández respalda sus afirmaciones usando ejemplos. Uno de ellos hace mención al desarrollo de la tecnología de reconocimiento de voz, la cual supuso el problema de que no reconocía voces de mujeres.

Otro ejemplo que muestra Fernández está relacionado con los dummies (referido a los muñecos antropomórficos empleados para ensayos de choque y colisiones). En este ejemplo, Fernández explica que no es hasta 1996 cuando aparece el primer dummie embarazo, frente al primer dummie en general, que apareció en 1949, según cuenta Fernández. Con ello, explica que hasta 1996 no habían pensado que fuese una mujer la que llevara un coche y menos aún una mujer embarazada.

Como mensaje de su charla, Fernández transmite que, a pesar de todos estos sesgos, hay posibilidades de cambiar esto, aún si es en base a hacer pequeños cambios.

El congreso Comunica2 se ha celebrado los días 15 y 16 de febrero en el campus de Gandía de la Universitat Politécnica de València y cuenta con muchas ponencias sobre diversos temas relacionados con la comunicación.


Internet /  investigación /  machismo /  tecnología /