Milhares de empresas já utilizam modelos Llama na Plataforma de Inteligência de Dados Databricks para alimentar aplicações, agentes e fluxos de trabalho de IA. Hoje, estamos animados em fazer parceria com a Meta para trazer a você a mais recente série de modelos—Llama 4—disponível hoje em muitos espaços de trabalho Databricks e sendo implementada em AWS, Azure e GCP.
Llama 4 marca um grande avanço na IA multimodal aberta - oferecendo desempenho líder de indústria, maior qualidade, janelas de contexto maiores e melhor eficiência de custo a partir da arquitetura Mixture of Experts (MoE). Tudo isso é acessível através da mesma API REST unificada, SDK e interfaces SQL, tornando fácil de usar ao lado de todos os seus modelos em um ambiente seguro e totalmente governado.
Os modelos Llama 4 elevam o padrão para modelos de fundação abertos -oferecendo qualidade significativamente maior e inferência mais rápida em comparação com qualquer modelo Llama anterior.
No lançamento, estamos apresentando o Llama 4 Maverick, o modelo de maior qualidade e tamanho da atualização de hoje da Meta. Maverick é construído especificamente para desenvolvedores que criam produtos de IA sofisticados—combinando fluência multilíngue, compreensão precisa de imagens e comportamento seguro do assistente. Ele permite:
E agora você pode construir tudo isso com desempenho significativamente melhor. Comparado ao Llama 3.3 (70B), Maverick oferece:
Em breve na Databricks teremos o Llama 4 Scout - um modelo multimodal compacto e de primeira linha que combina texto, imagem e vídeo desde o início. Com até 10 milhões de tokens de contexto, o Scout é construído para raciocínio avançado de longo prazo, resumo e compreensão visual.
“Com o Databricks, conseguimos automatizar tarefas manuais tediosas usando LLMs para processar mais de um milhão de arquivos diariamente para extrair dados de transações e entidades de registros de propriedades. Excedemos nossos objetivos de precisão ao ajustar o Meta Llama e, usando o Mosaic AI Model Serving, escalamos massivamente essa operação sem a necessidade de gerenciar uma grande e cara frota de GPUs."— Prabhu Narsina, VP de Dados e IA, First American
Conecte o Llama 4 aos seus dados corporativos usando ferramentas governadas pelo Catálogo Unity para construir agentes conscientes do contexto. Recupere conteúdo não estruturado, chame APIs externas ou execute lógica personalizada para alimentar copilotos, pipelines RAG e automação de fluxo de trabalho. Mosaic AI facilita a iteração, avaliação e melhoria desses agentes com ferramentas de monitoramento e colaboração integradas - do protótipo à produção.
Aplique o Llama 4 em escala - resumindo documentos, classificando tickets de suporte ou analisando milhares de relatórios - sem a necessidade de gerenciar qualquer infraestrutura. Inferência em lote está profundamente integrada com os fluxos de trabalho Databricks, para que você possa usar SQL ou Python em seu pipeline existente para executar LLMs como Llama 4 diretamente em dados governados com sobrecarga mínima.
Personalize o Llama 4 para se adequar melhor ao seu caso de uso - seja ele resumo, comportamento do assistente ou tom de marca. Use conjuntos de dados rotulados ou adapte modelos usando técnicas como Otimização Adaptativa em Tempo de Teste (TAO) para iteração mais rápida sem sobrecarga de anotação. Entre em contato com sua equipe de conta Databricks para acesso antecipado.
“Com a Databricks, conseguimos ajustar rapidamente e implementar de forma segura os modelos Llama para construir vários casos de uso do GenAI, como um simulador de conversação para treinamento de conselheiros e um classificador de fases para manter a qualidade da resposta. Essas inovações melhoraram nossas intervenções de crise em tempo real, ajudando-nos a escalar mais rápido e fornecer suporte crítico de saúde mental para aqueles em crise.”— Matthew Vanderzee, CTO, Crisis Text Line
Garanta o uso seguro e compatível do modelo com o Mosaic AI Gateway, que adiciona registro integrado, limitação de taxa, detecção de PII e guardrails de política - para que as equipes possam escalar o Llama 4 com segurança como qualquer outro modelo no Databricks.
Estamos lançando o Llama 4 em fases, começando com Maverick no Azure, AWS e GCP. Em breve:
À medida que expandimos o suporte, você poderá escolher o melhor modelo Llama para sua carga de trabalho - seja ela um contexto ultra longo, trabalhos de alto rendimento, ou entendimento unificado de texto e visão.
Llama 4 será implementado em seus espaços de trabalho Databricks nos próximos dias.
(This blog post has been translated using AI-powered tools) Original Post