RECURSOS

El fluido encanto de Siri

Antonio Merino

Consultor Internacional

Hace tiempo que las empresas tecnológicas empezaron a lanzar al mercado sus chatbots, asistentes virtuales y robots con nombres, voces y “cuerpos” de mujer. Del inconfundible “gire a la derecha en la primera rotonda”, hemos pasado a las primeras ginoides con estructura de silicona, nariz perfecta, tez blanca y pechos. Cuando Hanson Robotics creó a Sophia, se inspiraron en la figura y en el rostro de Audrey Hepburn. Su éxito fue enorme. En Arabia Saudí, como “defensores de la emancipación de la mujer”, según palabras de Ahmad Al Amoudi, presidente y fundador de AC Technology, crearon a Halima (cuyo significado es “mujer gentil y paciente”) por su descripción como “la perfecta cuidadora de niños y de ancianos”. Ai-Da es una artista de fama mundial que ya expone en la Bienal de Venecia. Erika está preparando su segunda película para el canal HBO. Samantha, convertida en ídolo del movimiento LGTBI, es la primera ginoide sexual. Hay otras más familiares dentro del contexto de lo cotidiano, como Siri (Apple), Alexa (Amazon), Cortana (Microsoft), Aura (Telefónica), Irene (Renfe), Sara (Correos), Silvia (HTC). Carecen de la anatomía propia de una ginoide, pero también interpretan y ejecutan las órdenes con voces de mujer. No me imagino a Marion Cotillard, Julia Roberts, Cate Blanchett, o a Mónica Bellucci poniendo su voz para recoger de la lavandería los calzoncillos del señorito, o hacer la lista de la compra del Carrefour.

Toda esta sucesión de nombres, incorporados a la realidad de lo cotidiano en relación con los roles de género, resulta torpe, pueril y fuera de cualquier sistema de valores. Celia Fernández (El País Semanal), se preguntaba si al aceptar su utilización “feminizando a una máquina para humanizarla, lo único que se consigue es cosificar aún más a la mujer”. Cuando los laboratorios que crean y gestionan estas herramientas intentan justificar la toma de decisiones mediante argumentos poco consistentes, lo único que consiguen es ignorar a la mitad del mundo. Aun así, algunos tecnólogos como Karl F. MacDorman, de la Universidad de Indianápolis, refieren que el uso y venta de sus productos bajo ese paraguas de sesgo femenino, no es sino la constatación de que” las mujeres han estado tradicionalmente en una posición de crianza y de cuidadoras, de responder a preguntas y peticiones, y los laboratorios no hacen sino reproducir esos sistemas de valores”. ¿Es este un buen argumento?

Nosotros pensamos que no. La realidad es que los puestos de trabajo en el ámbito del Big Data, y el diseño de algoritmos en inteligencia artificial, están copados, en su mayoría, por hombres. Eso sí, son blancos, formados en las élites de los College de Londres, Boston o Sídney, con familias que controlan buena parte del PIB de la economía de nuestro entorno. Solo el 26% de estos puestos están ocupados por mujeres, ninguna con responsabilidades directivas (datos del Foro Económico Mundial. 2020). ¿Nos estamos perdiendo algo?

Resulta evidente que existe una sobrerrepresentación de hombres, la mayoría jóvenes entre 25 y 35 años que codifican todo tipo de estereotipos, arraigados en una cultura misógina y sexista, heredada durante siglos de generación en generación. O, dicho de otra manera, como señala Eleonore Fournier-Tombs (investigadora de IA de Naciones Unidas), “en tecnología hay dos tipos de sesgos: los que se reproducen porque la inteligencia artificial bebe de textos que ya están estereotipados – y no se filtran -, y los que se codifican intencionadamente.” No inventamos nada si decimos que las personas aprenden sobre comportamientos y normas sociales a través de su interacción con el medio, ya sea familiar, social o laboral, y todo ello dependerá, en gran medida, de la cantidad de veces que se vean expuestas a ellos. Si un niño o una niña escucha o visualiza que, en su entorno, las órdenes domésticas o los cuidados siempre van dirigidos hacia una mujer, entonces los vínculos con ese sesgo echarán raíces en su desarrollo como persona y crecerá en ellos una ambigua relación de amor y de odio no siempre bien resuelta.

No es de extrañar que, ante la codificación intencionada de los algoritmos, que se asemeja a la prueba un delito, surjan nuevos usuarios que ven en esta falta de ética y de usura, un motivo más para desconfiar de un uso que cada día impone nuevas reglas y códigos. Ahora son estos usuarios, convertidos en “mercenarios de los algoritmos”, los que intentan desafiar a las empresas tecnológicas burlando el uso de términos o de vocablos por un neolenguaje adoptado por comunidades antisistema, grupos neofascistas, negacionistas, terraplanistas, antivacunas, grupos religiosos, antiabortistas o defensores de las armas, que en la práctica extienden sus memes por las RRSS favoreciendo la circulación de noticias falsas o publicaciones tóxicas que se consumen a diario frente a la desidia, la indiferencia y la cómoda ignorancia de una población cada vez más encerrada en una burbuja virtual que transmite por streaming la miseria de los campos de refugiados, donde se hacinan miles de seres en busca de una historia que ya no les pertenece, o las casas abandonadas por las bombas en algún barrio de Zaporiyia, donde aún cuelgan de las paredes las fotos de los abuelos.

A veces voy caminando por la calle, con las manos metidas en los bolsillos y la mirada puesta en los escaparates que me devuelven la imagen difuminada, casi evanescente, y me inunda una extraña sensación de que soy el holograma de un maldito boomer, y que hasta ahora nadie me había dicho nada.

Ahora entiendo por qué mi perro se esconde cada vez que intento ponerle la correa de paseo.

Categoría: Destacado
Temática:
Grupo de edad:
Persona de contacto:
Año:
Dirección:
Teléfono:
Web: