Por Sam Boughedda
Na terça-feira, a Alphabet (NASDAQ:GOOGL), empresa controladora do Google, revelou seu novo assistente de buscas, o Bard, rival do ChatGPT, da OpenAI.
A companhia declarou que começará a implementar o Bard nas próximas semanas, abrindo-o para testes com usuários confiáveis, antes de disponibilizá-lo para o público geral.
A ferramenta se baseia no LaMDA, modelo de linguagem para aplicações dialógicas desenvolvido pelo próprio Google.
Ao reagir ao novo chatbot de IA do Google, os analistas do Morgan Stanley (NYSE:MS) disseram aos investidores que o banco acredita que a gigante da tecnologia tem tecnologia e escala para manter/aumentar sua base de usuários.
No entanto, uma integração maior do que a esperada “aumenta o risco de custos a mais, pois consideramos que, a cada 10% das buscas que mudam para os modelos de linguagem, as despesas operacionais aumentam em cerca de 1,2 bilhão de dólares”.
“A corrida pela inteligência artificial já começou”, acrescentaram os analistas. “Nosso trabalho em consultas de linguagem natural sugere que elas podem ser até cinco vezes mais caras (em média)".
Os analistas do banco explicaram que é muito grande a intensidade de computação dos modelos de linguagem natural que armazenam, recuperam, analisam e compilam grandes quantidades de texto na forma de respostas em um formato de linguagem natural.
A análise atualizada do banco em relação ao tamanho do modelo do ChatGPT, seu tempo de computação, média de palavras geradas por consulta, níveis de preços de GPU A100 do Azure Nvidia (NASDAQ:NVDA) e uma margem bruta estimada de 50% do Azure (para esta análise), leva-os a acreditar que o custo médio a mais da linguagem natural do GOOGL por consulta provavelmente varia de US$ 0,0022 a US$ 0,0220.
“Demonstrações iniciais mostram como os custos de computação da linguagem natural possivelmente são maiores. Mas, em nossa visão, o maior risco dessa tecnologia vem do maior potencial dos custos adicionais, em razão da integração mais profunda do que o esperado da linguagem natural em resultados de pesquisas básicas”, escreveram os analistas.
Eles concluíram que, se 50% das consultas tiverem integração com a linguagem natural em 2024, os custos adicionais somariam 6 bilhões de dólares.