Revenir au contenu principal
Delta Live tables

Des pipelines de données fiables en toute simplicité

Simplifiez l'ETL par batch et en streaming en automatisant la fiabilité et la qualité des donnée
header image delta live tables
LES ÉQUIPES LES PLUS PERFORMANTES CHOISISSENT DES PIPELINES DE DONNÉES INTELLIGENTS
Avantages

Encoder les bonnes pratiques des pipelines de données

Déclarez simplement les transformations de données dont vous avez besoin, et laissez les pipelines Delta Live Tables (DLT) faire le reste.

Efficacité de l'ingestion

La création de pipelines ETL prêts pour la production commence par l’ingestion. DLT permet une ingestion facile et efficace les data engineers, les développeurs Python, les data scientists et les analystes SQL. Chargez des données à partir de n'importe quelle source compatible avec Apache Spark™ sur Databricks, par batch, en streaming ou en CDC.

Transformation intelligente

En quelques lignes de code seulement, DLT détermine la meilleure façon de créer et d’exécuter vos pipelines de données en streaming ou en batch, afin d'optimiser automatiquement le coût ou la performance tout en minimisant la complexité.

Opérations automatisées

Les pipelines DLT simplifient le développement ETL en codifiant les bonnes pratiques dès le départ et en éliminant la complexité opérationnelle par l'automatisation. Grâce aux pipelines DLT, les ingénieurs peuvent se consacrer à fournir des données de haute qualité plutôt qu'à administrer et maintenir l'infrastructure des pipelines.

Fonctionnalités

Pensé pour simplifier la création de pipeline de données

Créer et exploiter des pipelines de données n'a rien de simple, mais ce n'est pas une fatalité. DLT est conçu pour conjuguer simplicité et puissance pour mettre sur pied un ETL robuste en quelques lignes de code.

Grâce à l'API unifiée de Spark pour le traitement par batch et en streaming, les pipelines DLT vous permettent d'alterner facilement entre les modes de traitement.

En savoir plus
databricks processing

DLT permet d'optimiser facilement les performances du pipeline en déclarant un pipeline de données incrémentiel complet, accompagné de tables de streaming et de vues matérialisées.

En savoir plus
end to end incremental processing

Les pipelines DLT prennent en charge un large écosystème de sources et de puits. Chargez des données à partir de tout type de source compatible Apache Spark™ sur Databricks : stockage cloud, bus de messages, flux de données de changement et systèmes externes.

En savoir plus
load data from anywhere

Définissez des attentes pour garantir que les données arrivant dans les tables répondent à vos exigences de qualité, et obtenez des informations sur la qualité des données à chaque mise à jour des pipelines.

En savoir plus
data quality

Développez des pipelines dans des notebooks sans changer de contexte. Consultez le DAG, le journal des événements et le code dans la même interface, et profitez de l'autocomplétion du code, de la détection dynamique des erreurs et des diagnostics pour faciliter le développement.

En savoir plus
integrated notebook development

Autres fonctionnalités

Unification de la gouvernance et du stockage

Repose sur Unity Catalog et des formats de table ouvert conformément aux normes fondamentales du lakehouse

En savoir plus

Compute serverless

Rapport performance/prix jusqu'à 5 fois supérieur pour l'ingestion de données et 98 % d'économies sur les transformations complexes.

En savoir plus

Orchestration des tâches

Au lieu de créer manuellement une série de tâches Spark distinctes, vous définissez simplement les transformations, et DLT veille à ce qu'elles soient exécutées dans le bon ordre.

En savoir plus

Gestion des erreurs et reprise en cas de panne

Rétablissement fluide suite aux erreurs qui se produisent lors de l'exécution des pipelines de données.

En savoir plus

CI/CD et contrôle de version

Spécifiez facilement des configurations pour isoler les pipelines des environnements de développement, de test et de production.

En savoir plus

Supervision et observabilité du pipeline

Fonctionnalités de surveillance et d'observabilité intégrées : data lineage, historique des mises à jour et rapports sur la qualité des données.

En savoir plus

Planification flexible de l'actualisation

Optimisez facilement la latence ou le coût en fonction des exigences de votre pipeline.

En savoir plus
Cas d’utilisation

Rationalisez vos pipelines de données

Tarifs

Les tarifs basés sur l'utilisation permettent de maîtriser les dépenses

Ne payez que les produits que vous utilisez, à la seconde près.
Produits connexes

En savoir plus

Explorez d'autres offres intelligentes et intégrées sur la Data Intelligence Platform.

LakeFlow Connect

Avec des connecteurs d'ingestion de données efficaces pour tous les types de source et une intégration native à la Data Intelligence Platform, les équipes accèdent en toute simplicité à l'analytique et à l'IA avec une gouvernance unifiée.

Workflows

Définissez, gérez et supervisez en toute simplicité des workflows multitâche pour vos pipelines ETL, d'analytique et de machine learning. Grâce à la prise en charge d'un large éventail de types de tâches, une observabilité approfondie et une grande fiabilité, vos équipes sont en mesure de mieux automatiser et orchestrer tout type de pipeline pour gagner en productivité.

Stockage en lakehouse

Unifiez les données du lakehouse, quels que soient leur format et leur type, pour les mettre à disposition de toutes vos charges d'analytique et d'IA.

Unity Catalog

Encadrez sans problème tous vos assets de données avec la seule solution de gouvernance unifiée et ouverte de l'industrie pour les données et l'IA, intégrée à la Databricks Data Intelligence Platform

La Data Intelligence Platform

Découvrez les avantages de la Databricks Data Intelligence Platform pour vos charges de données et d'IA.

Passez à l'étape suivante

Delta Live Tables : questions fréquentes

Prêts à devenir une entreprise 
axée sur les données et l'IA ?

Faites le premier pas de votre transformation