Lula diz que não há espaço para negociação e rejeita "humilhação" de ligar para Trump
Investing.com — A Meta Platforms (NASDAQ:META) revelou uma série de novos modelos de inteligência artificial que ampliam os limites da percepção de máquina e compreensão de linguagem, sinalizando um avanço significativo nas capacidades de IA. Entre os novos modelos estão o Perception Encoder, Perception Language Model (PLM), Meta Locate 3D, Dynamic Byte Latent Transformer e Collaborative Reasoner, cada um projetado para enfrentar desafios complexos em seus respectivos campos.
O Perception Encoder se destaca por sua capacidade de interpretar informações visuais de imagens e vídeos, superando modelos existentes em tarefas de classificação e recuperação zero-shot. Ele demonstrou proficiência em tarefas difíceis, como identificar animais em seus habitats naturais, e mostrou melhorias significativas em tarefas de linguagem após integração com um modelo de linguagem grande.
O PLM da Meta, por outro lado, é um modelo de visão-linguagem de código aberto treinado com uma combinação de dados rotulados por humanos e dados sintéticos. Foi projetado para lidar com tarefas desafiadoras de reconhecimento visual e vem em variantes com até 8 bilhões de parâmetros. O PLM-VideoBench, um novo benchmark lançado junto com o PLM, concentra-se na compreensão detalhada de atividades e raciocínio espaciotemporalmente fundamentado.
Na robótica, o Meta Locate 3D representa uma inovação na localização de objetos, permitindo que robôs compreendam e interajam com o mundo 3D usando comandos em linguagem natural. Este modelo pode localizar objetos com precisão em ambientes 3D, um passo crucial para sistemas robóticos mais autônomos e inteligentes. A Meta também lançou um conjunto de dados para apoiar o desenvolvimento desta tecnologia, que inclui 130.000 anotações de linguagem.
O Dynamic Byte Latent Transformer é outro modelo inovador da Meta, projetado para aumentar a eficiência e robustez no processamento de linguagem. Esta arquitetura de modelo de linguagem em nível de byte iguala o desempenho dos modelos tradicionais baseados em tokenização e agora está disponível para uso da comunidade após sua publicação de pesquisa no final de 2024.
Finalmente, o framework Collaborative Reasoner visa desenvolver agentes de IA sociais capazes de colaborar com humanos ou outros agentes de IA. Inclui um conjunto de tarefas orientadas a objetivos que requerem raciocínio de múltiplas etapas e conversação de múltiplos turnos. A avaliação da Meta mostra que os modelos atuais podem se beneficiar do raciocínio colaborativo, e a empresa disponibilizou seu pipeline de geração de dados e modelagem como código aberto para incentivar mais pesquisas.
À medida que a Meta integra esses modelos avançados de IA em novas aplicações, o potencial para sistemas de IA mais capazes em vários domínios deve se expandir, marcando um progresso significativo na pesquisa e desenvolvimento de inteligência artificial.
Essa notícia foi traduzida com a ajuda de inteligência artificial. Para mais informação, veja nossos Termos de Uso.