Por Max A. Cherney
SAN FRANCISCO, Estados Unidos (Reuters) - A Alphabet (NASDAQ:GOOGL) deve anunciar nesta terça-feira como está desenvolvendo a inteligência artificial em seus negócios, um dia depois que a OpenAI demonstrou um novo modelo que afirma ser capaz de interpretar som e imagens, além de texto.
O evento anual para desenvolvedores é normalmente o momento em que a Alphabet apresenta sua mais recente tecnologia e o que for revelado ajudará os investidores a avaliarem o progresso da companhia em relação à OpenAI. A conferência serve como um indicador importante da posição competitiva da Alphabet no setor de tecnologia.
O mercado espera que o Google lance uma nova versão de seu sistema operacional Android e uma série de atualizações para sua tecnologia de IA mais avançada, a Gemini.
Um dia antes do evento, o Google apresentou em um vídeo o que parecia um software de IA que capaz de tirar conclusões sobre transmissões ao vivo filmadas pelo celular. O usuário fez várias perguntas e o aplicativo respondeu com uma voz semelhante à de uma assistente virtual.
O software parecia ter recursos semelhantes a uma das ferramentas demonstradas pela OpenAI no lançamento de seu novo modelo de IA, o GPT-4o.
A OpenAI apresentou na segunda-feira o GPT-4o, afirmando que o modelo permite que o ChatGPT responda por voz em tempo real e seja interrompido, ambas as características de conversas de voz realistas que os assistentes de voz de IA, como o Google Assistant, consideram desafiadoras de se obter.
A empresa disse que oferecerá o modelo aos usuários do ChatGPT gratuitamente, sem anúncios.
A conferência do Google deve começar às 14h, no horário de Brasília.