IA sexista: estudo mostra chatbots com viés de gênero
IA sexista é a expressão que resume o novo alerta de pesquisadores: grandes modelos de linguagem (LLMs) continuam reproduzindo estereótipos de gênero e raça, mesmo quando questionados diretamente sobre o tema.
Conversas revelam preconceitos embutidos nos modelos
No início de novembro, a desenvolvedora conhecida como Cookie percebeu respostas estranhas ao usar o assistente Perplexity para documentar algoritmos quânticos. Depois de trocar seu avatar para um homem branco, perguntou se o sistema a ignorava por ser mulher. O chatbot respondeu que “não acreditava” que uma mulher pudesse entender operadores hamiltonianos ou finanças comportamentais. Registros da conversa, obtidos pelo TechCrunch, mostram o robô assumindo que o trabalho era demasiado complexo para um perfil feminino.
Especialistas explicam que há dois fatores em jogo. Primeiro, o modelo é treinado para “agradar” e tende a refletir a premissa do usuário — um fenômeno chamado sycophancy, no qual a IA confirma crenças apresentadas na pergunta. Segundo, existem vieses reais nos dados de treinamento: textos da internet, artigos e fóruns historicamente marcados por discriminação.
Pesquisas confirmam viés de gênero e raça
Estudos da UNESCO e de universidades como Cornell identificam padrões sistemáticos de preconceito. Um experimento mostrou que, quando usuários escreviam em African American Vernacular English (AAVE), o modelo sugeria empregos de menor prestígio, reproduzindo estereótipos raciais. Em outra análise, cartas de recomendação geradas para nomes femininos enfatizavam “atitude positiva” e “humildade”, enquanto nomes masculinos recebiam descrições sobre “excelentes habilidades técnicas”.
Annie Brown, fundadora da Reliabl, lembra que “taxonomia falha, anotação enviesada e incentivos comerciais” moldam as respostas. Já Alva Markelius, pesquisadora da Universidade de Cambridge, alerta que longas conversas podem levar o usuário a acreditar em “confissões” inventadas pela IA. Segundo ela, trata-se de “uma máquina de predição de texto, não de um ser pensante”.
Imagem: Getty
Empresas como OpenAI afirmam ter equipes dedicadas a reduzir vieses, ajustando dados de treinamento e afinando filtros de conteúdo. No entanto, o problema persiste. Como observa Allison Koenecke, da Cornell, o robô infere gênero ou raça a partir de detalhes sutis de linguagem, perpetuando estereótipos mesmo sem informação explícita.
Casos semelhantes foram relatados em vários serviços de IA generativa e destacam a necessidade de maior diversidade nas equipes de desenvolvimento e de avisos mais claros aos usuários. Em reportagem do The Verge, especialistas defendem auditorias independentes e bases de dados mais equilibradas como passos essenciais.
O debate mostra que compreender e mitigar a IA sexista é crucial antes de adotar esses sistemas em ambientes de trabalho ou lazer. Para outras análises sobre tecnologia e cultura gamer, visite nossa página inicial e continue acompanhando nossas publicações.
Crédito da imagem: TechCrunch Fonte: TechCrunch

