Direkt zum Hauptinhalt
Delta Live Tables

Zuverlässige Datenpipelines leicht gemacht

Vereinfachen Sie Batch- und Streaming-ETL mit automatisierter Zuverlässigkeit und integrierter D
header image delta live tables
SPITZENTEAMS SETZEN AUF INTELLIGENTE DATENPIPELINES
Vorteile

Festgeschriebene Best Practices für Datenpipelines

Sie deklarieren einfach die Datentransformationen, die Sie brauchen. Den Rest erledigen die DLT-Pipelines (Delta Live Tables).

Effiziente Datenaufnahme

Der Aufbau produktionsbereiter ETL-Pipelines beginnt mit der Datenaufnahme. DLT unterstützt die effiziente Datenaufnahme für Data Engineers, Python-Entwickler, Data Scientists und SQL-Analysten. Laden Sie Daten von jeder von Apache Spark™ unterstützten Quelle in Databricks – ganz gleich, ob Batch, Streaming oder CDC.

Intelligente Transformation

Aus nur wenigen Codezeilen ermittelt DLT die effizienteste Methode zum Erstellen und Ausführen Ihrer Batch- oder Streaming-Datenpipelines und nimmt dabei automatisch Optimierungen für Kostenersparnis oder Performance vor – bei gleichzeitiger Minimierung der Komplexität.

Automatisierter Betrieb

DLT-Pipelines vereinfachen die ETL-Entwicklung, indem sie Best Practices vom ersten Moment an implementieren und die übliche betriebliche Komplexität durch Automatisierung beseitigen. Mit DLT-Pipelines können sich Engineers auf die Bereitstellung hochwertiger Daten konzentrieren, statt eine Pipeline-Infrastruktur zu betreiben und zu verwalten.

Funktionen

Für die einfachere Erstellung von Datenpipelines entwickelt

Das Erstellen und Betreiben von Datenpipelines kann komplex sein, muss es aber nicht. DLT kombiniert Performance mit Einfachheit. So können Sie robustes ETL mit nur wenigen Codezeilen umsetzen.

Durch die Nutzung der vereinheitlichten API von Spark für die Batch- und Stream-Verarbeitung ermöglichen DLT-Pipelines das einfache Umschalten zwischen den Verarbeitungsmodi.

Mehr Informationen
databricks processing

DLT erleichtert die Optimierung der Pipelineperformance durch Deklarieren einer kompletten inkrementellen Datenpipeline mit Streaming-Tabellen und materialisierten Sichten.

Mehr Informationen
end to end incremental processing

DLT-Pipelines unterstützen ein breites Ökosystem von Quellen und Senken. Laden Sie Daten aus beliebigen von Apache Spark™ auf Databricks unterstützten Quellen: Cloud-Speicher, Message Buses, Change Data Feeds und externe Systeme.

Mehr Informationen
load data from anywhere

Mit Expectations können Sie sicherstellen, dass die in Tabellen eingehenden Daten den Datenqualitätsanforderungen entsprechen, und bei jeder Pipeline-Aktualisierung Erkenntnisse zur Datenqualität generieren.

Mehr Informationen
data quality

Entwickeln Sie Pipelines in Notebooks ohne jeglichen Kontextwechsel. Zeigen Sie DAG, Event-Log und Code auf derselben Oberfläche an und nutzen Sie clevere Features wie die Autovervollständigung für Code, Inline-Fehler und Diagnosefunktionen.

Mehr Informationen
integrated notebook development

Weitere Funktionen

Vereinheitlichte Verwaltung und Speicherung

Aufbauend auf den grundlegenden Lakehouse-Standards von Unity Catalog und offenen Tabellenformaten.

Mehr Informationen

Serverless Compute

Bis zu 5× besseres Preis-Leistungs-Verhältnis bei der Datenaufnahme und 98 % Kosteneinsparungen für komplexe Transformationen.

Mehr Informationen

Aufgabenorchestrierung

Statt manuell eine Abfolge separater Spark-Tasks zu erstellen, definieren Sie einfach die Transformationen. DLT sorgt dann dafür, dass sie in der richtigen Reihenfolge ausgeführt werden.

Mehr Informationen

Fehlerbehandlung und Fehlerbehebung

Nahtlose Wiederherstellung nach Fehlern, die bei der Ausführung von Datenpipelines auftreten.

Mehr Informationen

CI/CD und Versionskontrolle

Konfigurationen können einfach spezifiziert werden, um Pipelines in Entwicklungs-, Test- und Produktionsumgebungen zu isolieren.

Mehr Informationen

Monitoring und Beobachtbarkeit der Pipeline

Integrierte Monitoring- und Beobachtungsfunktionen, inklusive Datenherkunft, Aktualisierungsverlauf und Erstellung von Datenqualitätsberichten.

Mehr Informationen

Flexible Aktualisierungsplanung

Führen Sie Optimierungen für Latenz oder Kosten bequem durch, passend zu den Anforderungen Ihrer Pipeline.

Mehr Informationen
Anwendungsfälle

Datenpipelines rationalisieren

Preise

Ausgaben im Griff dank nutzungsbasierter Abrechnung

Sie zahlen nur für die Produkte, die Sie tatsächlich nutzen – und das sekundengenau.
Verwandte Produkte

Mehr entdecken

Entdecken Sie weitere integrierte, intelligente Angebote auf der Data Intelligence Platform.

LakeFlow Connect

Effiziente Konnektoren für die Datenaufnahme aus beliebigen Quellen und native Integration mit der Data Intelligence Platform erschließen einen einfachen Zugang zu Analytik und KI mit einheitlicher Governance.

Workflows

Sie können Workflows mit mehreren Tasks für ETL-, Analytics- und ML-Pipelines unkompliziert definieren, verwalten und überwachen. Mit einer breiten Palette unterstützter Task-Typen, umfassenden Beobachtbarkeitsfunktionen und hoher Zuverlässigkeit sind Ihre Datenteams in der Lage, jede Pipeline besser zu automatisieren und zu orchestrieren sowie produktiver zu werden.

Lakehouse-Speicherung

Vereinheitlichen Sie die Daten in Ihrem Lakehouse format- und typenübergreifend für alle Ihre Analytics- und KI-Workloads.

Unity Catalog

Regulieren Sie alle Ihre Datenressourcen nahtlos mit der branchenweit einzigen einheitlichen und offenen Governance-Lösung für Daten und KI, die in die Data Intelligence Platform von Databricks integriert ist.

Die Data Intelligence Platform

Erfahren Sie mehr darüber, wie die Databricks Data Intelligence Platform Ihre Daten- und KI-Workloads unterstützt.

Wagen Sie den nächsten Schritt

FAQ zu Delta Live Tables

Möchten Sie ein Daten- und
KI-Unternehmen werden?

Machen Sie die ersten Schritte Ihrer Transformation