Ir para o conteúdo principal
Delta Live Tables

Pipelines de dados confiáveis simplificados

Simplifique o ETL em lotes e streaming com confiabilidade automatizada e qualidade de dados inte
Graphic SQL table
EQUIPES DE ALTO DESEMPENHO OBTÊM SUCESSO COM PIPELINES DE DADOS INTELIGENTES
Benefícios

Melhores práticas de pipeline de dados, codificadas

Simplesmente declare as transformações de dados que você precisa — deixe que os pipelines do Delta Live Tables (DLT) cuidem do resto.

Ingestão eficiente

A construção de pipelines ETL prontos para produção começa com a ingestão. O DLT permite a ingestão eficiente para engenheiros de dados, desenvolvedores Python, cientistas de dados e analistas SQL. Carregue dados de qualquer fonte compatível com Apache Spark™ na Databricks, seja em lotes, streaming ou CDC.

Transformação inteligente

Com apenas algumas linhas de código, o DLT determina a maneira mais eficiente de construir e executar seus pipelines de dados em lote ou streaming, otimizando automaticamente para custo ou desempenho enquanto minimiza a complexidade.

Operações automatizadas

Os pipelines DLT simplificam o desenvolvimento de ETL codificando as melhores práticas prontas para uso e automatizando a complexidade operacional inerente. Com os pipelines DLT, os engenheiros podem se concentrar em fornecer dados de alta qualidade em vez de operar e manter a infraestrutura do pipeline.

Recursos

Projetado para simplificar o pipeline de dados

Construir e operar pipelines de dados pode ser difícil, mas não precisa ser. O DLT é projetado para oferecer simplicidade poderosa, permitindo que você realize ETL robusto com apenas algumas linhas de código.

Aproveitando a API unificada do Spark para processamento em lotes e streaming, os pipelines DLT permitem alternar facilmente entre os modos de processamento.

Saiba mais
databricks processing

O DLT facilita a otimização do desempenho do pipeline ao declarar um pipeline de dados incremental completo com tabelas de streaming e visualizações materializadas.

Saiba mais
end to end incremental processing

Os pipelines DLT são compatíveis com um amplo ecossistema de fontes e destinos. Carregue dados de qualquer fonte compatível com o Apache Spark™ na Databricks, incluindo armazenamento em nuvem, barramentos de mensagens, feeds de dados de alteração e sistemas externos.

Saiba mais
load data from anywhere

As expectativas permitem garantir que os dados que chegam às tabelas atendam aos requisitos de qualidade de dados e forneçam insights sobre a qualidade dos dados para cada atualização do pipeline.

Saiba mais
data quality

Desenvolva pipelines em notebooks sem alternar de contexto. Visualize o DAG, o log de eventos e o código em uma única interface, e desenvolva facilmente com preenchimento automático de código, erros em linha e diagnósticos.

Saiba mais
integrated notebook development

Mais recursos

Governança e armazenamento unificados

Construído sobre os padrões fundamentais do lakehouse, Unity Catalog e formatos de tabela abertos.

Saiba mais

Compute serverless

Até 5 vezes melhor relação custo/desempenho para ingestão de dados e 98% de economia de custos para transformações complexas.

Saiba mais

Orquestração de tarefas

Em vez de definir manualmente uma série de tarefas Spark separadas, você define as transformações, e o DLT garante que elas sejam executadas na ordem correta.

Saiba mais

Tratamento de erros e recuperação de falhas

Recuperação contínua de erros que ocorrem durante a execução de pipelines de dados.

Saiba mais

CI/CD e controle de versões

Especifique facilmente as configurações para isolar pipelines em ambientes de desenvolvimento, teste e produção.

Saiba mais

Monitoramento e observabilidade de pipelines

Funcionalidades integradas de monitoramento e observabilidade, incluindo linhagem de dados, histórico de atualizações e relatórios sobre a qualidade dos dados.

Saiba mais

Agendamento de atualização flexível

Otimize facilmente para latência ou custo, dependendo dos requisitos do seu pipeline.

Saiba mais
Casos de uso

Simplifique seus pipelines de dados

Explore demonstrações do Delta Live Tables

demothumb-large-d024-img
Guia técnico

Começando com Pipelines DLT

mosaic ai agent framework
Tour do produto

Tour do Produto DLT Pipelines

demothumb-large-d018-img
Vídeo

Engenharia de dados inteligente na era da IA

demo thumbnail
Vídeo

Demonstração: o lakehouse serverless em tempo real em ação

Preços

O preço baseado no uso ajuda a controlar despesas

Pague apenas pelos produtos que usar por segundo.
Produtos relacionados

Descubra mais

Explore outras ofertas integradas e inteligentes na plataforma de inteligência de dados.

Dê um passo adiante

Perguntas frequentes sobre o Delta Live Tables

Pronto para se tornar uma 
empresa de dados + AI?

Dê os primeiros passos em sua transformação