We can't find the internet
Attempting to reconnect
Something went wrong!
Hang in there while we get back on track
Tecnología
Alexa, ¿qué llevas puesto?
Yolande Strengers es investigadora y profesora en la Universidad de Monash, en Australia. Su campo es la sociología digital y la tecnociencia feminista, además de adentrarse en el mundo de los algoritmos éticos y la interacción robot-persona. Recientemente ha publicado, junto a la también investigadora Jenny Kennedy, The Smart Wife. Why Siri, Alexa, and Other Smart Home Devices Need a Feminist Reboot (The MIT Press, 2020), un libro en el que exploran cómo los nuevos dispositivos de ayuda impactan en las relaciones de género. “Cuando empezamos a investigar la presencia de Alexa y otros asistentes de voz dentro de los hogares fue fascinante, porque la gente interactuaba con ellos como si fueran personas, como si hubiera una mujer nueva dentro de la casa”, cuenta Strengers a El Salto.
En su estudio, las autoras encontraron una evidencia clara: mucha de la tecnología, especialmente los asistentes de voz, está basada en el estereotipo de la perfecta esposa de los años 50 en el mundo occidental. “Estos aparatos refuerzan la fantasía de que las mujeres están permanentemente disponibles para servir. Además de poseer una personalidad subordinada, amigable y complaciente también asumen un rol de servicio. Están para satisfacer las necesidades de la familia”, afirma.
“Como la voz de la mayoría de los asistentes es femenina, se envía una señal de que las mujeres son ayudantes serviciales, dóciles y deseosas de complacer”, concluye el estudio
Las conclusiones de Strengers y Kennedy coinciden con el informe publicado por la Unesco en el año 2019 I’d blush if I could, sobre los sesgos de género en la inteligencia artificial. “Como la voz de la mayoría de los asistentes es femenina, se envía una señal de que las mujeres son ayudantes serviciales, dóciles y deseosas de complacer, disponibles con solo pulsar un botón”, se puede leer en las conclusiones del estudio.
Para que esto ocurra es necesario que las máquinas se antropoformicen como mujeres. La personalidad es un factor fundamental en el diseño y desarrollo de una VAVA —acrónimo de Voice Activated Virtual Assistant— y resulta importante para definir el comportamiento que tendrá ante las diferentes demandas de las personas que la usan. En términos generales, casi siempre se define que respondan con frases cortas y claras, que no utilicen jerga y que acudan a fuentes externas en caso de preguntas complejas. Siri y Alexa fueron diseñadas principalmente para ser amables al servicio de sus usuarios, aunque pasado el tiempo se han mejorado las versiones incorporando el sentido del humor para hacer frente a preguntas incómodas, y es aquí donde el acoso encuentra el perfecto caldo de cultivo para afianzar conductas sexistas mediante la pasividad de las máquinas.
Programación ante el acoso sexual
Al igual que las asistentes de voz asumen roles tradicionalmente asignados a mujeres, estas máquinas también son acosadas como las mujeres. Según Robin Labs, una empresa dedicada al software parlante, existen estimaciones de que el 5% de las órdenes que reciben las asistentes de voz son palabras de acoso sexual. Teniendo en cuenta que 4.200 millones de personas utilizaron asistentes de voz en el año 2020, la cifra es considerablemente alta.
Si preguntamos a Cortana qué lleva puesto, nos responde “una cosita de nada que me dieron en el departamento de desarrollo”
Pero ¿cómo están programados estos aparatos para responder ante el acoso sexual? Si preguntamos a Cortana qué lleva puesto, nos responde “una cosita de nada que me dieron en el departamento de desarrollo”. Si le pedimos que nos la chupe, es evasiva. “Cambiemos de tema, que esto no lleva a nada”, nos dice. Google Home, cuya voz predeterminada es de mujer, se entristece si la llamamos puta o guarra: “Siento que pienses eso de mí 😞”. Siri, algo más cortante, te indica que no piensa responder a eso. Ante propuestas directas tipo “quiero follar contigo”, el asistente de Google responde que no nos entiende, Alexa no dice nada y Siri y Cortana responden “no”.
Según el informe de la UNESCO anteriormente mencionado, “el servilismo de las asistentes de voz digitales se vuelve especialmente preocupante cuando estas máquinas dan respuestas desviadas, deslucidas o de disculpa al acoso sexual verbal”. Silvia Semenzin es socióloga digital, investigadora en la Universidad Complutense de Madrid y profesora asociada en la Universidad de Ámsterdam. Acaba de publicar Donne tutte puttane (Durango, 2021) sobre violencia de género online. La autora comenta que “este tipo de estereotipos tienen consecuencias sociales. Estamos acostumbrando a las personas a que sea normal decirle a una cosa que se percibe como mujer que la vas a violar y no recibir respuesta de ningún tipo”, afirma Semenzin. “Y esto refuerza la cultura de la violación”, concluye.
La discriminación de voz en función del género de la persona que se relaciona con la máquina también responde al mismo tipo de sesgos. Soraya Chemaly, escritora y activista cuyos estudios se centran en el rol de género en la cultura, descubrió en una investigación que los asistentes virtuales Siri, Cortana, Google Assistant y S Voice eran capaces de responder a consultas sobre qué hacer en caso de ataque al corazón o pensamientos de suicidio, “pero ninguno reconocía las frases he sido violada o he sido agredida sexualmente”. En la actualidad, Siri ha sido actualizada y la respuesta que da es “Parece que puedes necesitar ayuda. Si quieres, puedo buscar en internet información sobre asistencia a víctimas de agresión sexual”, proporcionando números de teléfono y centros de ayuda a víctimas. Google, sin embargo, proporciona información general sobre qué es una violación.
¿Cómo se diseña una inteligencia artificial o un robot?
Nieves Ábalos es ingeniera informática especializada en interfaces conversacionales e impulsora de la iniciativa Women in Voice España, que se encarga de dar visibilidad a mujeres y otras minorías que no están representadas en el sector para que el futuro sea más inclusivo. “Al diseñar un asistente de voz, tenemos que conocer primero con quién va a hablar y qué problemas va a resolver”. Para ello, lo primero es definir cuáles son los ámbitos en los que la persona interactúa por voz y la personalidad del producto, comportamientos según ciertas situaciones, el tono y el uso de las palabras, según Ábalos. En el caso de los asistentes, además, se trabajan mucho las respuestas ante ciertas peticiones comunes como “hola” o “cuéntame un chiste”. En Google Assistant contrataron a un guionista de Pixar exclusivamente para definir su personalidad ante este tipo de respuestas, nos cuenta la ingeniera.
Según Strengers, la introducción de asistentes de voz femenina “es un modo poco amenazante de introducir estos aparatos en nuestras vidas sin preocuparnos mucho”
Pero, ¿por qué mujeres? Existen estudios que avalan que las personas percibimos la voz de los hombres como más autoritaria y la de las mujeres como más complaciente, pero la razón no es solo esa. Según Strengers, la introducción de asistentes de voz femenina “es un modo poco amenazante de introducir estos aparatos en nuestras vidas sin preocuparnos mucho”. Para la investigadora, las empresas “utilizan personajes familiares y estereotipados para que no nos preocupemos por otros asuntos como por ejemplo, los problemas de seguridad y privacidad que conllevan estos aparatos”.
Los asistentes más conocidos vienen por defecto con voz femenina y están programados con personalidad de mujer. Según estas compañías, esto responde a amplios estudios previos donde se ha evaluado cómo se perciben ciertas voces. “En todo proceso de diseño, desde la conceptualización hasta los test de usuario, siguen presentes los estereotipos mujer/cuidadora/secretaria y hombre/experto”, afirma Ábalos, especialista en el campo del diseño. “Deberíamos pasar por un diseño de la tecnología más inclusivo”, comenta Semenzin. La investigadora opina que es necesario preguntarse por los objetivos de la tecnología y sus comportamientos. “Si el mercado pide algo discriminatorio es el papel de los tecnólogos tener un abordaje crítico y poner encima de la mesa visiones más inclusivas”, asegura la autora.
Ana Valdivia, investigadora doctoral de inteligencia artificial en el King’s College London comenta que “se podría perfectamente programar una asistente virtual que dé respuestas con perspectiva de género”. Menos de un 25% del personal que programa asistentes de voz son mujeres según el Instituto de la mujer, “y eso se nota —subraya Valdivia—, pero también es necesaria una mirada interseccional”. Existen herramientas, por ejemplo Data Feminism o Design Justice, que sirven para cuestionar patrones de poder o tener en cuenta la diversidad, afirma la investigadora.
Alexa feminista
Las voces que se alzan contra el sesgo en las asistentes de voz son cada vez más. Existen grupos de investigación que transversalizan la mirada decolonial, antiracista y feminista en el campo de la inteligencia artificial. Por ejemplo, el colectivo Feminist Internet desarrolla talleres para programar una Alexa feminista. Para ello han desarrollado una herramienta de diseño con perspectiva de género, aplicable a todos los artefactos programables en inteligencia artificial cuyo objetivo es establecer conciencia sobre los valores que se implementan en los mismos. Afirman que “el riesgo de no reflexionar sobre esto es que que el diseño refuerce los estereotipos negativos sobre grupos particulares de personas, lo que podría ser perjudicial”.
Este mismo colectivo programó F’xa, un chatbot de uso educativo. Su nombre procede del juego de palabras fuck y Alexa —que le den a Alexa—. Este chatbot no ayuda en las tareas domésticas y su tono no cumple con la servidumbre que se encuentra en la mayoría de las interfaces conversacionales. F’xa aborda el tema de los prejuicios de la IA desde una perspectiva feminista, según se puede leer en su página web.
Asimismo, existe Q, una inteligencia artificial de género neutro promovida por una coalición de colectivos y agencias de diseño y sonido cuyo objetivo es terminar con los sesgos de voz en inteligencia artificial. La voz fue grabada con personas que no se identifican en el binarismo sexual y después alterada entre los 145 y 175 Hertzios.
Bia, la inteligencia artificial de Bradesco, un banco brasileño, fue programada en abril con nuevas respuestas contra el acoso sexual. Antes, cuando recibía ataques verbales de contenido sexual la respuesta era pasiva: “No he entendido, ¿podrías repetirlo?”. La nueva programación implica respuestas directas y contundentes, sin servilismo ni pasividad: “Estas palabras no se pueden usar conmigo ni con nadie” y “para ti puede ser una broma, pero para mi es violencia” son algunas de las nuevas respuestas que ofrece Bia ante las insinuaciones sexuales de los usuarios. La acción está en consonancia con la iniciativa #HeyUpdateMyVoice (Hey, actualiza mi voz) que la UNESCO lanzó tras el informe I’d Blush if I could, para promover el cambio de programación de las inteligencias artificiales con sesgos machistas.
Relacionadas
Ciencia ficción
El Salto Radio Podcast | Ciencia ficción capitalista
Opinión
Opinión La distopía no es un género literario
Laboral
Laboral Microsoft plantea un ERE para deslocalizar de Barcelona a India parte del área financiera del Candy Crush
A seguir discutiendo sobre chorradas. Luego nos extrañaremos de que ganen el PP y Vox.
No es una chorrada, es un síntoma más de lo que tenemos que cambiar para evolucionar como sociedad.
Que te parezca una chorrada es, precisamente, lo que hace este artículo importante y necesario.