Déficit primário do governo central fica abaixo do esperado em agosto com reforço de dividendos
(Reuters) - A OpenAI está implementando controles parentais para o ChatGPT na web e em dispositivos móveis, após uma ação judicial movida pelos pais de um adolescente que cometeu suicídio depois que o chatbot da startup de inteligência artificial supostamente o treinou sobre métodos de automutilação.
A empresa disse nesta segunda-feira que os controles permitirão que pais e adolescentes vinculem contas para garantir maior proteção aos adolescentes.
Os reguladores dos EUA estão monitorando cada vez mais as empresas de IA em relação aos potenciais impactos negativos dos chatbots. Em agosto, a Reuters noticiou que criações de inteligência artificial da Meta permitiram conversas "sensuais" de bots com crianças.
Com as novas medidas, os pais poderão reduzir a exposição a conteúdo sensível, controlar se o ChatGPT lembra de conversas anteriores e decidir se as conversas podem ser usadas para treinar os modelos da OpenAI, disse no X a empresa, que é apoiada pela Microsoft.
Os pais também poderão definir horários de silêncio que bloqueiam o acesso em determinados momentos e desabilitam o modo de voz, bem como a geração e edição de imagens, informou a OpenAI. No entanto, os pais não terão acesso às transcrições das conversas dos adolescentes, acrescentou a empresa.
Em casos raros em que sistemas e revisores treinados detectam sinais de um risco sério à segurança, os pais podem ser notificados apenas com as informações necessárias para dar suporte à segurança do adolescente, disse a OpenAI.
A Meta também anunciou novas proteções para adolescentes em seus produtos de IA no mês passado. A empresa disse que treinará os sistemas para evitar conversas que envolvam temas amorosos e discussões sobre automutilação ou suicídio com menores, além de restringir temporariamente o acesso a certos personagens de IA.
(Reportagem de Jaspreet Singh em Bengaluru)