Ir para o conteúdo principal

Apresentando o Llama 4 da Meta na Plataforma de Inteligência de Dados Databricks

Combine o Llama 4 de código aberto com seus dados corporativos para construir agentes de IA específicos do domínio

Introducing Meta’s Llama 4 on the Databricks Data Intelligence Platform

Summary

  • Conheça o Llama 4: Llama 4 Maverick já está disponível na Databricks em AWS, Azure e GCP.
  • IA com seus dados: Desenvolva e implemente agentes, copilotos e pipelines RAG rápidos, econômicos e específicos do domínio que usam seus dados com o Mosaic AI.
  • Confie em seus agentes: A governança integrada, incluindo registro integrado, limitação de taxa, detecção de PII e guardrails de política, ajuda a garantir o uso seguro na produção.

Milhares de empresas já utilizam modelos Llama na Plataforma de Inteligência de Dados Databricks para alimentar aplicações, agentes e fluxos de trabalho de IA. Hoje, estamos animados em fazer parceria com a Meta para trazer a você a mais recente série de modelos—Llama 4—disponível hoje em muitos espaços de trabalho Databricks e sendo implementada em AWS, Azure e GCP.

Llama 4 marca um grande avanço na IA multimodal aberta - oferecendo desempenho líder de indústria, maior qualidade, janelas de contexto maiores e melhor eficiência de custo a partir da arquitetura Mixture of Experts (MoE). Tudo isso é acessível através da mesma API REST unificada, SDK e interfaces SQL, tornando fácil de usar ao lado de todos os seus modelos em um ambiente seguro e totalmente governado.

Apresentando o Llama 4 da Meta na Plataforma de Inteligência de Dados Databricks

Llama 4 é de maior qualidade, mais rápido e mais eficiente

Os modelos Llama 4 elevam o padrão para modelos de fundação abertos -oferecendo qualidade significativamente maior e inferência mais rápida em comparação com qualquer modelo Llama anterior.

No lançamento, estamos apresentando o Llama 4 Maverick, o modelo de maior qualidade e tamanho da atualização de hoje da Meta. Maverick é construído especificamente para desenvolvedores que criam produtos de IA sofisticados—combinando fluência multilíngue, compreensão precisa de imagens e comportamento seguro do assistente. Ele permite:

  • Agentes corporativos que raciocinam e respondem com segurança em ferramentas e fluxos de trabalho
  • Sistemas de compreensão de documentos que extraem dados estruturados de PDFs, digitalizações e formulários
  • Agentes de suporte multilíngues que respondem com fluência cultural e respostas de alta qualidade
  • Assistentes criativos para redigir histórias, cópias de marketing ou conteúdo personalizado

E agora você pode construir tudo isso com desempenho significativamente melhor. Comparado ao Llama 3.3 (70B), Maverick oferece:

  • Qualidade de saída superior em benchmarks padrão
  • Inferência >40% mais rápida, graças à sua arquitetura Mixture of Experts (MoE), que ativa apenas um subconjunto de pesos do modelo por token para um cálculo mais inteligente e eficiente.
  • Janelas de contexto mais longas (suportará até 1 milhão de tokens), possibilitando conversas mais longas, documentos maiores e contexto mais profundo.
  • Suporte para 12 idiomas (antes eram 8 no Llama 3.3)

Em breve na Databricks teremos o Llama 4 Scout - um modelo multimodal compacto e de primeira linha que combina texto, imagem e vídeo desde o início. Com até 10 milhões de tokens de contexto, o Scout é construído para raciocínio avançado de longo prazo, resumo e compreensão visual.

“Com o Databricks, conseguimos automatizar tarefas manuais tediosas usando LLMs para processar mais de um milhão de arquivos diariamente para extrair dados de transações e entidades de registros de propriedades. Excedemos nossos objetivos de precisão ao ajustar o Meta Llama e, usando o Mosaic AI Model Serving, escalamos massivamente essa operação sem a necessidade de gerenciar uma grande e cara frota de GPUs."
— Prabhu Narsina, VP de Dados e IA, First American

Construa Agentes de IA Específicos do Domínio com Llama 4 e Mosaic AI

Conecte o Llama 4 aos seus dados empresariais

Conecte o Llama 4 aos seus dados corporativos usando ferramentas governadas pelo Catálogo Unity para construir agentes conscientes do contexto. Recupere conteúdo não estruturado, chame APIs externas ou execute lógica personalizada para alimentar copilotos, pipelines RAG e automação de fluxo de trabalho. Mosaic AI facilita a iteração, avaliação e melhoria desses agentes com ferramentas de monitoramento e colaboração integradas - do protótipo à produção.

Execute Inferência Escalável com Seus Pipelines de Dados

Aplique o Llama 4 em escala - resumindo documentos, classificando tickets de suporte ou analisando milhares de relatórios - sem a necessidade de gerenciar qualquer infraestrutura. Inferência em lote está profundamente integrada com os fluxos de trabalho Databricks, para que você possa usar SQL ou Python em seu pipeline existente para executar LLMs como Llama 4 diretamente em dados governados com sobrecarga mínima.

Personalize para Precisão e Alinhamento

Personalize o Llama 4 para se adequar melhor ao seu caso de uso - seja ele resumo, comportamento do assistente ou tom de marca. Use conjuntos de dados rotulados ou adapte modelos usando técnicas como Otimização Adaptativa em Tempo de Teste (TAO) para iteração mais rápida sem sobrecarga de anotação. Entre em contato com sua equipe de conta Databricks para acesso antecipado.

“Com a Databricks, conseguimos ajustar rapidamente e implementar de forma segura os modelos Llama para construir vários casos de uso do GenAI, como um simulador de conversação para treinamento de conselheiros e um classificador de fases para manter a qualidade da resposta. Essas inovações melhoraram nossas intervenções de crise em tempo real, ajudando-nos a escalar mais rápido e fornecer suporte crítico de saúde mental para aqueles em crise.” 
— Matthew Vanderzee, CTO, Crisis Text Line

Gerencie o Uso de IA com o Mosaic AI Gateway

Garanta o uso seguro e compatível do modelo com o Mosaic AI Gateway, que adiciona registro integrado, limitação de taxa, detecção de PII e guardrails de política - para que as equipes possam escalar o Llama 4 com segurança como qualquer outro modelo no Databricks.

O que vem a seguir

Estamos lançando o Llama 4 em fases, começando com Maverick no Azure, AWS e GCP. Em breve:

  • Llama 4 Scout - Ideal para raciocínio de longo contexto com até 10M de tokens
  • Inferência em Lote de maior escala - Execute trabalhos em lote hoje, com suporte para maior throughput em breve
  • Suporte Multimodal - Capacidades nativas de visão estão a caminho

À medida que expandimos o suporte, você poderá escolher o melhor modelo Llama para sua carga de trabalho - seja ela um contexto ultra longo, trabalhos de alto rendimento, ou entendimento unificado de texto e visão.

Prepare-se para o Llama 4 no Databricks

Llama 4 será implementado em seus espaços de trabalho Databricks nos próximos dias.

 

(This blog post has been translated using AI-powered tools) Original Post

Nunca perca uma postagem da Databricks

Inscreva-se nas categorias de seu interesse e receba as últimas postagens na sua caixa de entrada