メインコンテンツへジャンプ
DLT

高信頼性データパイプラインを容易に構築

自動化された信頼性と組込みデータ品質で、Batch とストリーミングETL を簡素化します。
header image delta live tables
インテリジェントなデータパイプラインでトップチームが成功
メリット

データパイプラインのベストプラクティスを体系化

必要なデータ変換を宣言するだけで、あとはDLT パイプラインにお任せください。

効率的な摂取

本番運用可能なETL パイプラインの構築 摂取による急成長。 DLTは、データエンジニア、Python 開発者、data scientists 、SQL アナリストの効率的な取り込みを可能にします。 、ストリーミング、 を問わず、 Apache Spark上の ™ がサポートするソースからデータをロードします。DatabricksBatchCDC

インテリジェント・トランスフォーメーション

DLTは、わずか数行のコードから、Batch またはストリーミング データパイプラインを構築・実行する最も効率的な方法を判断し、複雑さを最小限に抑えながら、コストやパフォーマンスを自動的に最適化します。

自動化されたオペレーション

DLT パイプラインETL は、ベストプラクティスをすぐに体系化し、運用の複雑さを自動化することで、開発を簡素化します。 DLT パイプラインを利用すれば、エンジニアはパイプライン・インフラの運用や保守よりも、高品質のデータを提供することに集中できます。

機能

データパイプラインを簡素化

データパイプラインの構築と運用は難しいものですが、その必要はありません。 DLTは強力にシンプルに構築されているため、わずか数行のコードで堅牢なETLを実行できます。

SparkAPIBatchStreamと の処理に対応する のユニファイド を活用することで、DLT パイプラインでは処理モードを簡単に切り替えることができます。

詳しく見る
databricks processing

DLT では、テーブルとマテリアライズド・ビューを含むインクリメンタルデータパイプライン全体のストリーミングを宣言することで、簡単に パイプラインのパフォーマンスを最適化することができます。

詳しく見る
end to end incremental processing

DLT パイプラインは、ソースとシンクの幅広いエコシステムをサポートします。 クラウドストレージ、メッセージバス、チェンジデータフィード、外部システムなど、Apache Spark™ onDatabricks がサポートするあらゆるソースからデータをロードします。

詳しく見る
load data from anywhere

期待値によって、テーブルに到着したデータがデータ品質要件を満たしていることを保証し、 パイプラインの更新ごとにデータ品質を知ることができます。

詳しく見る
data quality

文脈を切り替えることなく、Notebook 。 DAG、イベントLog 、コードを1つのUIで確認でき、コードオートコンプリート、インラインエラー、診断機能で簡単に開発できます。

詳しく見る
integrated notebook development

その他の機能

統合ガバナンスとストレージ

とオープン・テーブル・フォーマットという、lakehouse Unity Catalogの基本規格に基づいて構築されています。

詳しく見る

サーバーレスコンピューティング

データ取り込みの価格とパフォーマンスが最大5倍向上し、複雑な変換のコストを98%削減します。

詳しく見る

タスクオーケストレーション

手作業でSpark タスクのシリーズを個別に定義する代わりに、変換を定義すると、DLTはそれらが正しい順序で実行されることを保証します。

詳しく見る

エラー処理と障害回復

データパイプラインの実行中に発生したエラーからのシームレスなリカバリ。

詳しく見る

CI/CDとバージョン管理

開発環境、テスト環境、および本番運用環境において、簡単に設定を指定して パイプラインを分離することができます。

詳しく見る

パイプラインのモニタリングと観測可能性

組み込みモニタリング、データリネージ、更新履歴、データ品質レポートなどの観測機能。

詳しく見る

柔軟な更新スケジュール

パイプラインの要件に応じて、レイテンシーやコストを簡単に最適化できます。

詳しく見る
ユースケース

データパイプラインの合理化

ご利用料金

使用量に応じた価格設定で、支出を抑制

使用した製品に対する秒単位での課金となります。
関連製品

さらに詳しく

データインテリジェンスプラットフォームの他の統合されたインテリジェントな製品もご覧ください。

LakeFlow Connect

あらゆるソースからの効率的なデータ取り込みコネクタと、Data Intelligence Platformとのネイティブな統合により、統合されたガバナンスでアナリティクスとAIへのアクセスが容易になります。

ワークフロー

ETL 、アナリティクス、Machine Learning パイプラインのマルチタスク ワークフローを簡単に定義、管理、監視できます。 サポートされる幅広いタスクタイプ、深い観測機能、高い信頼性により、データチームはあらゆるパイプラインの自動化とオーケストレーションが可能になり、生産性が向上します。

レイクハウスストレージ

lakehouseアナリティクスと のすべてのワークロードで、あらゆるフォーマットとタイプで、AI のデータを統一します。

Unity Catalog

Databricks Data Intelligence Platformに組み込まれた、データとAIのための業界唯一の統一されたオープンなガバナンスソリューションで、すべてのデータ資産をシームレスに管理します。

データ・インテリジェンス・プラットフォーム

Databricks データ・インテリジェンス・プラットフォームは、さまざまなデータ・AI のワークロードを支援しています。詳しい内容は、下記のページをご覧ください。

次のステップへ

DLT  よくあるご質問

データ + AI の活用は Databricks で

貴社の変革をお手伝いします。