Estas ações com +73% de alta estão deixando Apple e Microsoft para trás
Investing.com — A Alibaba Group Holdings Ltd ADR (NYSE:BABA) introduziu na terça-feira sua série de modelos de linguagem de grande porte de próxima geração, o Qwen3, expandindo suas ofertas de IA com uma variedade de tamanhos e arquiteturas. O lançamento inclui oito modelos de pesos abertos, seis densos e dois de mistura de especialistas (MoE), variando de 0,6 bilhão a 235 bilhões de parâmetros.
O modelo principal, Qwen3-235B-A22B, demonstrou desempenho competitivo em benchmarks de codificação, matemática e tarefas gerais quando comparado a modelos líderes como DeepSeek-R1, Grok-3 e Gemini-2.5-Pro. Modelos menores como o Qwen3-30B-A3B também superaram modelos com mais parâmetros, indicando ganhos de eficiência na estrutura e treinamento.
Todos os modelos — incluindo variantes pré-treinadas e pós-treinadas — estão publicamente acessíveis via Hugging Face, ModelScope e Kaggle. Para implantação, a Alibaba recomenda SGLang e vLLM, enquanto usuários locais podem executar o Qwen3 usando ferramentas como LMStudio, llama.cpp e KTransformers.
O Qwen3 oferece desempenho escalável e adaptativo, permitindo que os usuários ajustem os orçamentos de raciocínio computacional para equilibrar precisão e custo de recursos. Essa flexibilidade visa atender às demandas cada vez mais diversas de desenvolvedores que integram IA em fluxos de trabalho de consumidores ou empresas.
Os modelos suportam 119 idiomas e dialetos, triplicando a cobertura de seu antecessor, o Qwen2.5. Essa ampla capacidade multilíngue posiciona o Qwen3 para adoção em mercados globais, incluindo regiões emergentes com rica diversidade linguística.
Os modelos Qwen3 apresentam avanços em funções de codificação e agentes, aprimorados com integração mais profunda para prompts condicionais ao modelo (MCP). Esses refinamentos suportam aplicações sofisticadas, como agentes autônomos e ferramentas de desenvolvimento com maior precisão.
A série é treinada em 36 trilhões de tokens, incluindo fontes de alta qualidade de STEM, raciocínio, livros e conjuntos de dados sintéticos. A atualização dos dados contribui para ganhos notáveis na compreensão da linguagem, proficiência em programação e memória de contexto longo.
O Qwen3 emprega inovações arquitetônicas e de treinamento, como qk layernorm e balanceamento de carga global de lotes para modelos MoE. Isso leva a maior estabilidade de treinamento e melhorias consistentes de desempenho em todas as escalas de modelo.
Sua abordagem de pré-treinamento em três estágios visa separadamente a compreensão da linguagem, raciocínio e processamento de contexto longo, com sequências de tokens estendidas até 32.000. Essa estratégia modular aprimora a capacidade do Qwen3 de lidar com interações complexas de múltiplos turnos e documentos maiores.
Com hiperparâmetros otimizados guiados por leis de escala para cada tipo de modelo, o Qwen3 representa o lançamento mais deliberado e tecnicamente abrangente da Alibaba até o momento. Observadores da indústria afirmam que sua estratégia de pesos abertos e alcance multilíngue podem torná-lo um concorrente significativo na corrida global de IA.
Essa notícia foi traduzida com a ajuda de inteligência artificial. Para mais informação, veja nossos Termos de Uso.