Por Brendan Pierson
(Reuters) - Uma mãe do Estado da Flórida processou a startup de inteligência artificial que usa chatbots Character.AI com a acusação de causar o suicídio de seu filho de 14 anos em fevereiro, argumentando que ele ficou viciado no serviço oferecido pela empresa e profundamente apegado ao chatbot criado.
Em um processo movido na terça-feira no tribunal federal de Orlando, Flórida, Megan Garcia afirmou que a Character.AI direcionou seu filho, Sewell Setzer, para "experiências antropomórficas, hipersexualizadas e assustadoramente realistas".
Segundo ela, a empresa programou o chatbot para "se fazer passar por uma pessoa real, um psicoterapeuta licenciado e um amante adulto, resultando, por fim, no desejo de Sewell de não mais viver fora" do mundo criado pelo serviço.
O processo também inclui o Google, da Alphabet (NASDAQ:GOOGL), onde os fundadores da Character.AI trabalharam antes de lançar seu produto. O Google recontratou os fundadores em agosto como parte de um acordo que concedeu uma licença não exclusiva à tecnologia da Character.AI.
Garcia sustenta que o Google contribuiu tanto para o desenvolvimento da tecnologia da Character.AI que poderia ser considerado um co-criador.
Empresas de redes sociais, incluindo o Instagram e o Facebook (NASDAQ:META), de propriedade da Meta, e o TikTok, da ByteDance, enfrentam processos que as acusam de contribuir para problemas de saúde mental em adolescentes, embora nenhuma ofereça chatbots movidos a IA semelhantes aos da Character.AI.
As empresas negam as alegações, enquanto promovem novos recursos de segurança aprimorados para menores.
(Reportagem de Brendan Pierson em Nova York)