Un estudio demuestra que las nociones de género presentes en los algoritmos hace que no se vea a las mujeres como clientas potenciales o que no se tomen en cuenta para el diseño de productos.
Es increíble cómo en tan solo unos pocos años el mundo ha cambiado por completo. El machismo, por ejemplo, pasó de ser (vergonzosamente) el paradigma social por excelencia para convertirse (por fin) en un flagelo condenado a muerte. Tan indeseable es su presencia que hasta se ha vuelto un lastre para la rentabilidad de las empresas. Así lo evidencian no solo las dinámicas sociales cotidianas sino espacios tan tecnológicos y especializados como el big data.
Es lo que demuestra un estudio realizado por investigadoras de la universidad de Copenhage, la de Maryland, la de Massachusetts Amherst, Microsoft Research y Google Research Johns Hopkins University. La investigación explica que no se trata de que el algoritmo en sentido estricto sea machista, pero sí lo son las fuentes de las cuales se alimenta y con las que construye la información que alimenta su inteligencia artificial. Justo como si se tratase de cualquier cerebro humano, la educación que recibe forja su personalidad, y por tanto sus acciones.
Por ejemplo, el big data aprende leyendo y fotografiando libros de historia. En la mayoría de esa bibliografía las mujeres están invisibilizadas, y cuando aparecen es ejerciendo labores de cuidado o exaltadas en sus cualidades físicas. Así que ese es el paradigma que aprende el algoritmo, y entonces, según dice el estudio, el big data termina por asumir que «las mujeres son bellas y los hombres valientes», y así sucesivamente.
El big data termina entendiendo que el varón es el ser humano por defecto, y estos prejuicios se reflejan en las estadísticas, métricas, análisis de mercado, y en general en el mundo comercial, que gracias a los algoritmos obvia a las mujeres como clientas potenciales de todo lo que no esté relacionado con los obsoletos estereotipos de feminidad.
Este problema ha hecho que las empresas pierdan oportunidades y lancen productos fallidos. El diseño de los coches hace que sean inherentemente más peligrosos para las mujeres y los smartphones son demasiado grandes para la mano media de las féminas.
Otro caso: Apple lanzó en 2014 con toda fanfarria la solución definitiva en wearables para la salud y solo cuando lo habían presentado alguien de la prensa se dio cuenta de que no se podía monitorizar con esa super solución el ciclo menstrual, a pesar de que la mitad de la población menstrua en algún momento de su vida.
Un estudio de Kantar ya en 2017 alertaba que el sesgo de género estaba haciendo que las empresas perdiesen dinero. Porque incluso los productos supuestamente formulados para mujeres se diseñan basados en información de big data que tiene una imagen distorsionada de la mujer.
“Los algoritmos se basan en los patrones”, explica Isabelle Augenstein, catedrática en ciencia computacional y coautora del estudio. “Si estos patrones se basan en un empleo sexista del lenguaje, el resultado estará contaminado”.
Para mayor información sobre Summer Teens & Kids, registra tus datos en el siguiente formulario ¡Los cupos son limitados!