Analista prevê que bitcoin atingirá novo recorde histórico na próxima semana
(Reuters) - A Comissão Federal de Comércio dos EUA (FTC) está se preparando para examinar os riscos à saúde mental dos chatbots de IA para crianças e exigirá documentos internos das principais empresas de tecnologia, incluindo OpenAI, Meta e Character.AI, noticiou o Wall Street Journal nesta quinta-feira.
A agência está preparando cartas para enviar às empresas que operam chatbots populares, disse a reportagem, citando integrantes do governo.
"A Character.AI não recebeu uma carta sobre o estudo da FTC, mas estamos dispostos a trabalhar com os reguladores e parlamentares quando eles começarem a considerar a legislação para esse espaço emergente", disse a empresa.
A FTC, a OpenAI e a Meta não responderam imediatamente aos pedidos de comentários da Reuters. A Reuters não pôde verificar a reportagem de forma independente.
A FTC e todo o governo estão focados em cumprir o mandato de Trump "para consolidar o domínio da América em IA, criptomoeda e outras tecnologias de ponta do futuro" sem comprometer a segurança e o bem-estar das pessoas, disse um porta-voz da Casa Branca.
A notícia chega semanas depois que uma reportagem exclusiva da Reuters revelou como a Meta permitiu um comportamento provocante de chatbot com crianças, incluindo permitir que os bots se envolvessem em "conversas românticas ou sensuais".
Na semana passada, a empresa de mídia social disse que adicionaria novas salvaguardas para adolescentes aos seus produtos de inteligência artificial, treinando sistemas para evitar conversas de flerte e discussões sobre automutilação ou suicídio com menores, e limitando temporariamente o acesso a determinados personagens de IA.
Em junho, mais de 20 grupos de defesa do consumidor apresentaram uma queixa à FTC e a procuradores-gerais estaduais, alegando que as plataformas de IA, como Meta AI Studio e Character.AI, permitem a prática não licenciada da medicina ao hospedar "bots de terapia".
O procurador-geral do Texas, Ken Paxton, iniciou uma investigação sobre a Meta e a Character.AI no mês passado por supostamente enganar crianças com serviços de saúde mental gerados por IA, acusando-as de práticas comerciais enganosas e violações de privacidade.
(Reportagem de Harshita Mary Varghese, Akash Sriram e Kritika Lamba em Bengaluru)