Em um movimento significativo para fortalecer sua posição no competitivo mercado de IA generativa, a Alibaba (NYSE:BABA) anunciou hoje o lançamento de mais de 100 novos modelos de inteligência artificial de código aberto e sua mais recente tecnologia de IA de texto para vídeo. Esses desenvolvimentos fazem parte do impulso estratégico da Alibaba para ganhar terreno no campo em rápida evolução da IA generativa.
Os modelos de IA recém-lançados são da família Qwen 2.5 da empresa, um modelo de linguagem grande fundamental revelado em maio. Esses modelos variam em tamanho, indo de 0,5 a 72 bilhões de parâmetros, que são críticos na determinação da capacidade e desempenho dos sistemas de IA.
Os modelos da Alibaba são projetados para se destacar em várias tarefas, incluindo matemática e codificação, e suportam mais de 29 idiomas, posicionando-os como ferramentas versáteis para diferentes aplicações de IA em indústrias como automotiva, jogos e pesquisa científica.
Expandindo ainda mais suas ofertas de IA, a Alibaba introduziu um novo modelo de texto para vídeo que faz parte de sua linha de geração de imagens Tongyi Wanxiang. Esse movimento coloca a Alibaba como uma rival direta de entidades globais como a OpenAI, que também expressou interesse na tecnologia de texto para vídeo.
As empresas de tecnologia chinesas têm investido ativamente em IA generativa, com empresas como Baidu (NASDAQ:BIDU) e a OpenAI, baseada nos EUA, geralmente optando por modelos de código fechado. No entanto, a Alibaba escolheu uma abordagem híbrida, investindo tanto em desenvolvimento proprietário quanto de código aberto para diversificar suas ofertas de produtos de IA.
O anúncio ocorre em um momento em que a competição se intensifica no setor de tecnologia chinês, com a ByteDance, proprietária do TikTok, tendo lançado seu próprio aplicativo de texto para vídeo, o Jimeng AI, para usuários chineses na App Store da Apple (NASDAQ:AAPL) em agosto.
A Reuters contribuiu para este artigo.
Essa notícia foi traduzida com a ajuda de inteligência artificial. Para mais informação, veja nossos Termos de Uso.