LOS ANGELES, Estados Unidos (Reuters) - A Microsoft está "profundamente arrependida" pelas mensagens racistas e sexistas publicadas no Twitter por um sistema automático lançado pela empresa na semana passada, afirmou a companhia em uma nota oficial.
O sistema, conhecido como "Tay", foi projetado para se tornar mais inteligentes conforme os usuários interagem com ele. Em vez disso, o sistema rapidamente aprendeu uma série de expressões antisemitas e de ódio enviadas por usuários do Twitter, forçando a Microsoft a desligá-lo na quinta-feira.
Após o problema, a Microsoft afirmou que vai reativar o Tay apenas se seus engenheiros puderem encontrar uma maneira de impedir que internautas influenciem o sistema de forma que possa agir contra os princípios e valores da companhia.
"Estamos profundamente arrependidos sobre os tuítes ofensivos de Tay, que não representam quem nós somos ou o que defendemos, nem como nós projetamos o Tay", disse Peter Lee, vice-presidente de pesquisa da Microsoft.
A companhia criou o sistema como um experimento para aprender mais sobre como programas de inteligência artificial podem interagir com internautas em uma conversa casual. O projeto foi concebido para interagir e "aprender" com jovens.
Tay foi ativado no Twitter na quarta-feira, publicando uma série de tuítes inofensivos. A partir daí, o sistema deu uma virada.
Em um exemplo, Tay enviou a mensagem: "feminismo é câncer", em resposta a outro usuártio do site de microblogs que tinha publicado a mesma mensagem.
(Por Alex Dobuzinskis)