Las voces de mujer predeterminadas en los asistentes virtuales se justifican señalando que son «agradables y fáciles de entender» o que «generan confianza». Sin embargo, análisis como el de la UNESCO indican que refuerzan estereotipos de género
Es la voz que usa tu smartphone para responder a una pregunta o que te avisa que ya ejecutó una tarea. Se llaman asistentes virtuales y se convirtieron en un elemento importante para interactuar con tecnología a través de la voz. Pero hay una particularidad que coincide en la mayoría de los programas: tienen nombre y voz de mujer. Se presume que no existe mera coincidencia, sino que la preferencia por figuras femeninas responde a investigaciones que delimitaron la predilección del usuario. ¿Es un problema?
Están en toda clase de dispositivos: tablets, televisores, auriculares de realidad virtual y mucho más. Alguno de los ejemplos más conocidos son Alexa de Amazon, Siri de Apple, Asistente de Google y Cortana de Mircrosoft. Solo en Estados Unidos, se proyectaba que durante todo el 2023, alrededor de 123,5 millones de adultos la usaría una vez al mes. Si bien muchos asistentes ya cuentan con opciones de voz masculinas, lo predeterminado suele ser lo femenino.

¿Por qué tantos asistentes virtuales tienen voz de mujer?
Es fenómeno ha sido cuestionado más de una vez. En una entrevista a Verne de El País, la doctora Nuria Oliver del Instituto Tecnológico de Massachusetts (MIT) decía que probablemente las compañías solo buscaban “una voz agradable y fácil de entender”. Algunos registros, por ejemplo, señalan que Microsoft justificó la elección debido a que esa voz era “generadora de confianza”. Amazon señaló que se testearon varias, pero que las voces femeninas fueron las preferidas.
No obstante, hay quienes llevan el análisis hacia el rol que cumplen en la sociedad. Es decir, en su impacto en los estereotipos. La analista Chandra Steele señalaba que Siri se interpreta como una secretaria eficiente y Alexa como el ama de casa que se encarga de las compras.

La voz de mujer de asistentes virtuales contribuye a perpetuar estereotipos de género
“Estamos condicionados para esperar a mujeres, y no hombres, en roles administrativos. Los fabricantes de asistentes digitales están influidos por estas expectativas”, escribió Adrienne Lafrance en The Atlantic. “Las voces masculinas a veces se interpretan como alguien dando órdenes, en lugar de ayudando”, explica la coordinadora del laboratorio de Inteligencia artificial de la Universidad de A Coruña.
Es probable que la justificación de las compañías de tecnología sobre el uso de voces femeninas responda, genuinamente, a una demanda del consumidor. ¿Por qué? En sociedades como Latinoamérica los roles de cuidado son cumplidos por mujeres.
Y no solo eso. Bixby, el asistente de Samsung que se ofrecía en 2017 tenía descripciones muy particulares sobre la configuración de voz. A la voz femenina la señalaba como “animada, clara y alegre”, mientras que a la masculina era adjetivada como “asertiva, confiada y clara”. La empresa se vio obligada a borrar tal descripción.
El análisis de UNESCO que revela una problemática importante
Por su parte, la UNESCO publicó una investigación al respecto. Bajo el título “Me sonrojaría si pudiera: cerrando las divisiones de género en habilidades digitales a través de la educación”, examinan que los asistentes perpetúan estereotipo. Esta interpretación deriva, entre otras razones, de las respuestas que dan frente a frases de acoso sexual.
El estudio se publicó en 2019 y a partir de él se realizaron cambios. Por ejemplo, Siri de Apple contestaba: “me ruborizaría si pudiera”, ante la expresión “eres una puta”. Luego se configuró para contestar: “¿Perdón?”. Además, la entidad relaciona los estereotipos a otros problemas de las mujeres en la tecnología. Por ejemplo, que tienen poca incidencia, poca formación en habilidades informáticas y la decisión empresarial de marcar por defecto una voz femenina en sus asistentes virtuales.