メインコンテンツへジャンプ
Delta Live Tables

高信頼性データパイプラインを容易に構築

自動化された信頼性と組込みデータ品質で、Batch とストリーミングETL を簡素化します。
header image delta live tables
インテリジェントなデータパイプラインでトップチームが成功
メリット

データパイプラインのベストプラクティスを体系化

必要なデータ変換を宣言するだけで、あとはDelta Live Tables  (DLT) パイプラインにお任せください。

効率的な摂取

本番運用可能なETL パイプラインの構築 摂取による急成長。 DLTは、データエンジニア、Python 開発者、data scientists 、SQL アナリストの効率的な取り込みを可能にします。 、ストリーミング、 を問わず、 Apache Spark上の ™ がサポートするソースからデータをロードします。DatabricksBatchCDC

インテリジェント・トランスフォーメーション

DLTは、わずか数行のコードから、Batch またはストリーミング データパイプラインを構築・実行する最も効率的な方法を判断し、複雑さを最小限に抑えながら、コストやパフォーマンスを自動的に最適化します。

自動化されたオペレーション

DLT パイプラインETL は、ベストプラクティスをすぐに体系化し、運用の複雑さを自動化することで、開発を簡素化します。 DLT パイプラインを利用すれば、エンジニアはパイプライン・インフラの運用や保守よりも、高品質のデータを提供することに集中できます。

機能

データパイプラインを簡素化

データパイプラインの構築と運用は難しいものですが、その必要はありません。 DLTは強力にシンプルに構築されているため、わずか数行のコードで堅牢なETLを実行できます。

SparkAPIBatchStreamと の処理に対応する のユニファイド を活用することで、DLT パイプラインでは処理モードを簡単に切り替えることができます。

詳しく見る
databricks processing

DLT では、テーブルとマテリアライズド・ビューを含むインクリメンタルデータパイプライン全体のストリーミングを宣言することで、簡単に パイプラインのパフォーマンスを最適化することができます。

詳しく見る
end to end incremental processing

DLT パイプラインは、ソースとシンクの幅広いエコシステムをサポートします。 クラウドストレージ、メッセージバス、チェンジデータフィード、外部システムなど、Apache Spark™ onDatabricks がサポートするあらゆるソースからデータをロードします。

詳しく見る
load data from anywhere

期待値によって、テーブルに到着したデータがデータ品質要件を満たしていることを保証し、 パイプラインの更新ごとにデータ品質を知ることができます。

詳しく見る
data quality

文脈を切り替えることなく、Notebook 。 DAG、イベントLog 、コードを1つのUIで確認でき、コードオートコンプリート、インラインエラー、診断機能で簡単に開発できます。

詳しく見る
integrated notebook development

その他の機能

統合ガバナンスとストレージ

とオープン・テーブル・フォーマットという、lakehouse Unity Catalogの基本規格に基づいて構築されています。

詳しく見る

サーバーレスコンピューティング

データ取り込みの価格とパフォーマンスが最大5倍向上し、複雑な変換のコストを98%削減します。

詳しく見る

タスクオーケストレーション

手作業でSpark タスクのシリーズを個別に定義する代わりに、変換を定義すると、DLTはそれらが正しい順序で実行されることを保証します。

詳しく見る

エラー処理と障害回復

データパイプラインの実行中に発生したエラーからのシームレスなリカバリ。

詳しく見る

CI/CDとバージョン管理

開発環境、テスト環境、および本番運用環境において、簡単に設定を指定して パイプラインを分離することができます。

詳しく見る

パイプラインのモニタリングと観測可能性

組み込みモニタリング、データリネージ、更新履歴、データ品質レポートなどの観測機能。

詳しく見る

柔軟な更新スケジュール

パイプラインの要件に応じて、レイテンシーやコストを簡単に最適化できます。

詳しく見る
ユースケース

データパイプラインの合理化

ご利用料金

使用量に応じた価格設定で、支出を抑制

使用した製品に対する秒単位での課金となります。
関連製品

さらに詳しく

データインテリジェンスプラットフォームの他の統合されたインテリジェントな製品もご覧ください。

LakeFlow Connect

あらゆるソースからの効率的なデータ取り込みコネクタと、Data Intelligence Platformとのネイティブな統合により、統合されたガバナンスでアナリティクスとAIへのアクセスが容易になります。

ワークフロー

ETL 、アナリティクス、Machine Learning パイプラインのマルチタスク ワークフローを簡単に定義、管理、監視できます。 サポートされる幅広いタスクタイプ、深い観測機能、高い信頼性により、データチームはあらゆるパイプラインの自動化とオーケストレーションが可能になり、生産性が向上します。

レイクハウスストレージ

lakehouseアナリティクスと のすべてのワークロードで、あらゆるフォーマットとタイプで、AI のデータを統一します。

Unity Catalog

Databricks Data Intelligence Platformに組み込まれた、データとAIのための業界唯一の統一されたオープンなガバナンスソリューションで、すべてのデータ資産をシームレスに管理します。

データ・インテリジェンス・プラットフォーム

Databricks データ・インテリジェンス・プラットフォームは、さまざまなデータ・AI のワークロードを支援しています。詳しい内容は、下記のページをご覧ください。

次のステップへ

Delta Live Tables  よくあるご質問

データ + AI の活用は Databricks で

貴社の変革をお手伝いします。