Efeito Fed: por que as ações de IA estão se destacando agora
A OpenAI está implementando uma série de medidas de segurança e privacidade com o objetivo de equilibrar as crescentes tensões entre liberdade do usuário, proteção de dados e salvaguarda de menores. Em um comunicado divulgado pela OpenAI, escrito pelo CEO Sam Altman, a empresa delineou uma estrutura que prioriza a privacidade pessoal e defende que as conversas com IA recebam as mesmas proteções legais que consultas com médicos ou advogados.
Altman enfatizou que "é extremamente importante para nós, e para a sociedade, que o direito à privacidade no uso da IA seja protegido". Com usuários cada vez mais recorrendo a sistemas de IA como o ChatGPT para assuntos sensíveis, a OpenAI está pressionando por mudanças nas políticas que reforçariam sua confidencialidade.
Para fortalecer a proteção de dados, a OpenAI está adicionando novas camadas de segurança para minimizar o acesso humano aos dados dos usuários. Exceções serão aplicadas em casos extremos onde sistemas automatizados detectem ameaças como autolesão, planos para atingir outras pessoas ou incidentes de cibersegurança em larga escala, que podem ser escalados para revisão humana.
A empresa também reafirmou seu compromisso com a autonomia do usuário dentro de limites seguros, mesmo em áreas sensíveis como conteúdo ficcional envolvendo saúde mental. "Tratar nossos usuários adultos como adultos" é como Altman descreveu a filosofia da empresa sobre a liberdade do usuário, citando exemplos onde a IA diferenciará entre conteúdo perigoso e expressão criativa apropriada ao contexto.
No entanto, os protocolos de segurança estão sendo significativamente reforçados para usuários menores de 18 anos — uma decisão que a OpenAI reconhece como um compromisso entre privacidade e proteção. A empresa está desenvolvendo um sistema de previsão de idade para distinguir usuários adolescentes, aplicando restrições mais seguras por padrão quando a idade não pode ser identificada com confiança.
Para contas de adolescentes, a OpenAI está desativando completamente certos recursos, como geração de linguagem flertante e respostas a conteúdo de autolesão, mesmo em cenários teóricos. Em casos onde indicadores sugerem ideação suicida de um usuário adolescente, a empresa afirma que tentará notificar os pais ou contatar autoridades quando houver uma ameaça iminente.
Sam Altman enquadrou as decisões como um reflexo de compromissos contínuos. "Percebemos que esses princípios estão em conflito e nem todos concordarão com a forma como estamos resolvendo esse conflito", observou, citando ampla consulta com especialistas externos.
A abordagem destaca as crescentes complexidades na governança de IA à medida que a adoção se amplia entre faixas etárias e casos de uso. Ao abordar abertamente os difíceis compromissos envolvidos, a OpenAI sinaliza sua intenção de moldar tanto as normas da indústria quanto as políticas públicas em conjunto.
Essa notícia foi traduzida com a ajuda de inteligência artificial. Para mais informação, veja nossos Termos de Uso.