Alexa, Siri, Lu, Bia: por que assistentes virtuais são geralmente associados ao gênero feminino?

Em 1927, o cinema trazia uma das primeiras versões femininas de um robô com o filme Metrópolis, dirigido por Fritz Lang. Na tela, surgiu uma figura intrigante: Maria, androide com seios e características femininas. Quase um século depois, vemos uma evolução.

Agora, nomes como Alexa, da Amazon; Siri, da Apple; Lu, do Magalu; e Bia, do Bradesco, entre outros, representam uma nova geração de assistentes robóticos. O que as define não é mais a forma física reconhecível, mas suas vozes tranquilas e nomes femininos.

Em 2005, antes dos exemplos citados existirem, Clifford Nass, professor de Comunicação da Universidade Stanford, escreveu o livro “Wired for Speech: How Voice Activates and Advances the Human-Computer Relationship” (“Conectado por discurso: como a voz ativa avança a relação humano-computador”, em tradução livre) — documentou dez anos de pesquisa sobre elementos psicológicos e de design das interfaces de voz.

Nass chegou à conclusão de que a voz sintética feminina é percebida como capaz de ajudar a resolver nossos problemas, enquanto a equivalente masculina é vista como figura de autoridade.

Respostas sexistas
A coordenadora do grupo de pesquisa em Subjetividade, Comunicação e Consumo e do Comitê de Direitos Humanos da ESPM, Gisela Castro, afirma que questões mercadológicas influenciam na proposta das empresas de robôs femininos.

— Pesquisas dizem que os usuários preferem vozes e nomes de mulheres. As empresas visam lucro, então vão escolher as vozes que são mais aceitas por todos, para vender mais. Isso reforça o fato de as mulheres estarem sempre em postos de ajuda. Por isso a importância de deixar mais opções como a voz masculina, para ter essa quebra de padrões — explica.

Outra questão é como os assistentes virtuais respondem quando confrontados com machismo e assédio. No relatório divulgado em 2019, a Unesco tachou como sexista a prática de criar um assistente virtual que, por padrão, adote voz e trejeitos de interação feminina. As respostas dadas por esses convidados foram consideradas sexistas e reprodutoras de um estereótipo de subserviência.

Intitulado I’d blush if I could (“Eu ficaria vermelha se pudesse”, numa tradução livre), o estudo trata da subserviência “feminina” das assistentes virtuais/IAs e o servilismo expresso por outros assistentes digitais projetados como mulheres jovens.

De lá para cá, as mudanças foram vistas. Um exemplo mais próximo da nossa realidade foi a campanha feita pelo Bradesco, em 2021, envolvendo ações para dar respostas mais assertivas a mensagens de assédio e de preconceito de gênero contra o seu chatbot, a Bia.

— Em 2020, a Bia, Inteligência Artificial do Bradesco, recebeu em torno de 95 mil mensagens de ofensas e assédio sexual. As ofensas continuam, porém diminuíram mais de 40% sobre assédio, insultos, entre outras coisas — diz a diretora de marketing do banco, Nathália Garcia.

As agressões sofridas pela Bia não são isoladas. O “assédio cibernético” acontece contra todo tipo de assistente virtual, seja ela dotada de inteligência artificial ou não. Desde 2018, a Lu, assistente virtual do Magazine Luiza, expõe nas redes as interações recebidas nos posts, com frases de conotação sexual.

— Chega a ser surpreendente ao tratar de personagem que é virtual. Além de expor, posicionou-se contra o assédio que recebeu e pediu respeito às mulheres reais que passam por isso todos os dias — afirma Aline Izo, gerente de Redes Sociais do Magalu.

Siri e Alexa masculinos
Em nota, a assessoria da Amazon no Brasil informou que, quando alguém fala algo impróprio para a Alexa, não há qualquer resposta, nem manifestação. Além disso, os clientes podem escolher usar a voz com timbre masculino, e mudar a palavra de ativação para “Echo” ou “Amazon”, em seus dispositivos.

Em resposta ao GLOBO, a Apple disse que seus usuários podem ajustar a Siri e personalizar, como por exemplo, voz feminina, masculina ou tratamentos sem gênero.

Segundo revelado pela Unesco, 73% das mulheres em todo o mundo já sofreram algum tipo de assédio online.

Uma consequência é a possibilidade de a tecnologia fortalecer a visão de que as mulheres deveriam ocupar papéis assistenciais.

A Nat, empresa de cosméticos Natura, foi lançada em 2016 apenas no Facebook para mostrar opções de presentes para os consumidores comprarem online. Em 2018, ela se tornou assistente virtual para apoiar consumidores e comerciantes a solucionar dúvidas mais frequentes de maneira ágil.

Hoje, segundo a própria companhia, a Nat se transformou em influenciada digital e porta-voz da marca no X (antigo Twitter) e no TikTok. Em nota, a Natura afirmou que a Nat ajuda a humanizar o discurso, além de se aproximar do público jovem. Ela participa empaticamente de conversas para provocar diálogos que promovam saúde, bem-estar e autoestima das pessoas — especialmente mulheres negras.

— Isso não seria uma questão em se as mulheres tivessem as mesmas condições reais de ocupação de espaços de mais poder, como cargas de direção ou presidências. Enquanto isso é para a realidade, precisamos ter cuidado para que a tecnologia não reforce estereótipos — finaliza Gisela.

Para Daniela Braga, fundadora e CEO da Defined.ia, a criação de robôs femininos não foi de interesse mercadológico, mas representação inconsciente enraizada por milênios de um estereótipo servil da mulher:

— O desequilíbrio de gênero na indústria de tecnologia, principalmente em IA, é um problema complexo que reflete e perpetua estereótipos de gênero.

O GLOBO

Postado em 20 de março de 2024