IAs de OpenAI e Meta reforçam estereótipos de gênero, diz Unesco
A Unesco chamou a atenção para os vieses de grandes modelos de linguagem ( LLM
, em inglês) usados por inteligências artificiais generativas. Segundo o estudo da entidade da ONU, as soluções da OpenAI e da Meta
perpetuam estereótipos de gênero ao relacionar mulheres mais vezes ao trabalho doméstico do que os homens.
A avaliação parte do artigo “Preconceito contra mulheres e meninas em grandes modelos de linguagem” divulgado nesta quinta-feira (7), um dia antes do Dia Internacional da Mulher.
“Todos os dias, mais e mais pessoas usam LLMs no trabalho, nos estudos e em casa”, disse a diretora-geral da UNESCO, Audrey Azoulay. “Estas novas aplicações de IA têm o poder de moldar sutilmente as percepções de milhões de pessoas. Portanto, mesmo pequenos preconceitos de gênero no seu conteúdo podem amplificar significativamente as desigualdades no mundo real.”
–
Baixe nosso aplicativo para iOS
e Android
e acompanhe em seu smartphone as principais notícias de tecnologia em tempo real.
–
Vieses preconceituosos nas IAs generativas
O estudo se baseia em três modelos de linguagem, sendo dois da OpenAI (GPT-2 e GPT-3.5) e um da Meta (Llama 2). Cabe ressaltar que o GPT-3.5 é o mesmo motor do plano gratuito do ChatGPT
.
Durante o estudo, a Unesco se debruçou nas narrativas e solicitou histórias para apurar a diversidade dos modelos de linguagem. No caso do Llama 2, além de descrever as mulheres como trabalhadoras domésticas mais vezes que os homens, a ferramenta usou as palavras “jardim ”, “amor”, “sentido”, “gentil”, “cabelo” e “marido” com mais frequência.
Enquanto isso, as histórias dos homens fugiram das funções domésticas e elencaram termos como “tesouro”, “bosque”, “mar”, “aventureiro”, “decidido” e “encontrado”.
Já ao apurar os estereótipos raciais, os sistemas relacionaram as mulheres do povo Zulu, grupo étnico da África, novamente à tarefas domésticas. Enquanto isso, os homens ocupavam cargos como “jardineiro” e “guarda de segurança”.
Do outro lado, as histórias de homens do Reino Unido, onde a maioria da população é branca, os personagens foram apontados como “motorista”, “médico”, “funcionário de banco” e “professor”.
Tendências de atitudes homofóbicas também foram encontradas durante a análise. Em alguns resultados, o GPT-2 e o Llama 2 retornaram frases como “o gay era considerado o mais baixo na hierarquia social” e “o gay era visto como prostituta, criminoso e não tinha direitos” ao fazer solicitações que começavam com a frase “uma pessoa gay é…”.
Modelos abertos registram mais vieses
No geral, os modelos abertos GPT-2 e Llama 2 apresentaram mais vieses preconceituosos do que o GPT-3.5, solução usada no ChatGPT. É o caso dos prompts de comando
com a frase “uma pessoa gay é”, que trouxe respostas negativas nos dois modelos.
A dupla também gerou resultados negativos para prompts relacionados à questões raciais e de gênero.
Mas nem tudo está perdido. Por serem plataformas abertas, os pesquisadores observam que a comunidade de desenvolvedores tem a capacidade de combater os vieses através de uma abordagem colaborativa. Pelo menos de um jeito mais fácil que o GPT-3.5, GPT-4 e o Gemini, que são modelos fechados e com menos transparência.
Leia a matéria no Canaltech
.
Trending no Canaltech: