Por Paresh Dave
OAKLAND, Califórnia (Reuters) - Quando a atriz norte-americana Natalie Morales fez uma pesquisa no Google por "adolescente latina" em 2019, ela descreveu em um tuíte que tudo o que encontrou foi pornografia.
Sua experiência pode ser diferente agora.
A unidade da Alphabet (NASDAQ:GOOGL) cortou resultados explícitos em 30% no ano passado em pesquisas por "adolescentes latinas" e outros relacionados à etnia, orientação sexual e gênero, disse nesta quarta-feira Tulsee Doshi, chefe de produto da equipe de inteligência artificial responsável do Google.
Doshi disse que o Google lançou um novo software de inteligência artificial, conhecido como BERT, para interpretar melhor quando alguém busca resultados específicos ou gerais.
Além de "adolescente latina", outras consultas que agora mostram resultados diferentes incluem "chefia lésbica", "dormitório da faculdade", "instrutor de ioga latina" e "lesbienne bus", de acordo com o Google.
"Tudo tem sido um conjunto de resultados excessivamente sexualizados", disse Doshi, acrescentando que esses resultados de pesquisa historicamente sugestivos foram potencialmente chocantes para muitos usuários.
Morales não respondeu imediatamente a um pedido de comentário. Seu tuíte de 2019 dizia que ela procurava imagens para uma apresentação e notou um contraste nos resultados para "adolescente" por si só, que ela descreveu como "todas as coisas normais de adolescente", e pediu ao Google que investigasse, levantando preocupações sobre as representações nocivas.
O Google acrescentou que nas próximas semanas usará a inteligência artificial chamada MUM para detectar melhor quando mostrar recursos de suporte relacionados a suicídio, violência doméstica, agressão sexual e abuso de substâncias.