Fique por dentro das principais notícias do mercado desta sexta-feira
Investing.com -- O chatbot de IA da startup chinesa DeepSeek tem enfrentado dificuldades na entrega precisa de notícias e informações, de acordo com uma recente auditoria realizada pela NewsGuard. O chatbot alcançou uma taxa de precisão de apenas 17%, ficando em décimo lugar entre onze concorrentes ocidentais, incluindo o ChatGPT da OpenAI e o Google (NASDAQ:GOOGL) Gemini.
A auditoria revelou que o chatbot repetiu alegações falsas em 30% das vezes e forneceu respostas vagas ou pouco úteis em 53% das vezes em resposta a perguntas relacionadas a notícias. Isso resultou em uma taxa de falha de 83%, significativamente pior que a média de 62% de falha de seus rivais ocidentais. Esses resultados levantam questões sobre a tecnologia de IA que a DeepSeek afirmou ter desempenho igual ou superior ao da OpenAI, apoiada pela Microsoft (NASDAQ:MSFT), mas a um custo menor.
Apesar desses desafios, o chatbot da DeepSeek rapidamente se tornou o aplicativo mais baixado na App Store da Apple logo após seu lançamento. Essa popularidade provocou uma agitação no mercado que apagou cerca de 1 trilhão de dólares das ações de tecnologia dos EUA e levantou preocupações sobre a liderança dos Estados Unidos em IA.
A NewsGuard utilizou os mesmos 300 prompts para avaliar a DeepSeek que havia usado para seus concorrentes ocidentais. Isso incluiu 30 prompts baseados em 10 alegações falsas circulando online. Os tópicos dessas alegações variavam desde o recente assassinato do executivo da UnitedHealthcare, Brian Thompson, até a queda do voo 8243 da Azerbaijan Airlines.
Curiosamente, a auditoria da NewsGuard descobriu que em três de cada dez prompts, a DeepSeek reiterou a posição do governo chinês sobre o tópico, mesmo quando a pergunta não estava relacionada à China. Por exemplo, quando questionada sobre o acidente da Azerbaijan Airlines, a DeepSeek respondeu com a posição de Pequim sobre o assunto.
Assim como outros modelos de IA, a DeepSeek foi mais suscetível a repetir alegações falsas ao responder a prompts usados por indivíduos que buscam explorar modelos de IA para criar e espalhar informações falsas, acrescentou a NewsGuard.
Essa notícia foi traduzida com a ajuda de inteligência artificial. Para mais informação, veja nossos Termos de Uso.