Eine Kernkomponente von Databricks ist der Data Science Workspace, der die Zusammenarbeit zwischen allen Mitgliedern des Datenteams ermöglicht. Die kollaborative Notebook-Umgebung wird von allen Mitgliedern des Datenteams genutzt: Data Scientists, Datenanalysten, Data Engineers und anderen. Databricks wird von einer Vielzahl von Branchen für eine ebenso breite Palette von Anwendungsfällen verwendet. Diese Galerie zeigt einige der Möglichkeiten von Notebooks, die leicht in Ihre eigene Databricks-Umgebung oder die kostenlose Community Edition (CE) importiert werden können.

Delta Lake

Bauen Sie Ihr Data Lakehouse auf und nutzen Sie ACID-Transaktionen, Zeitreisen, Einschränkungen und mehr für offene Dateiformate

Databricks: 7.6.x – nicht CE

Vertiefende Beschreibung von Delta Lake

Dies ist eine vertiefende Beschreibung von Delta Lake, einem Open-Source-Speicherformat, das Apache Spark™ mit ACID-Transaktionen erweitert.

DeltapysparkDatenmanagement

Databricks: 8.0.x

Verwendung von Delta Lake aus R

Dies ist eine kurze Grundlageneinführung in die Verwendung von Delta Lake, einem Open-Source-Speicherformat, mit SparkR.

rDeltaDatenmanagement

Databricks: 7.6.x

Tutorial: Einführung in Delta Lake

Delta Lake: Ein Open-Source-Speicherformat, das ACID-Transaktionen für Apache Spark und Big Data-Workloads ermöglicht.

DeltapysparkZeitreiseDatenmanagement

Koalas

Verschieben Sie Ihren Data-Science-Code für Pandas mühelos von Einzelknoten- zu verteilten Clustern.

Databricks: 7.6.x

Pandas zu Koalas in 10 Minuten

Eine einfache Einführung zum Umstieg auf Koalas für komplexe Probleme für Nutzer, die mit Pandas vertraut sind.

edaPandaskoalaspyspark

Machine Learning

Unterstützung für gängige Frameworks für Machine Learning wie TensorFlow, Spark MLlib und Horovod

Databricks: 7.6.x mit GPU – nicht CE

Verteiltes Deep Learning mit PyTorch und Horovod

Lernen Sie, wie Sie verteiltes Training von Modellen in PyTorch mit Horovod durchführen können.

PyTorchHorovodverteiltes Training

Databricks: 8.1.x

Erstellen einer Streaming-ML-Anwendung mit Spark

Erstellen Sie eine Streaming-ML-Anwendung, die Kreditkartenbetrug mit Spark überwacht.

pysparkBetrugserkennungStructured Streaming

Databricks: 7.6.x

Erste Schritte mit Spark MLlib

Eine Einführung in die Verwendung der Spark MLlib-Bibliothek für ML-Anwendungen.

mllibpysparkfeature engineeringHyperparametersuche

Databricks: 7.6.x mit GPU – nicht CE

Von Spark zu TensorFlow: Vereinfachen Ihrer Datenkonvertierung

Vereinfachen Sie die Konvertierung von Daten aus Spark DataFrames zur Verwendung mit TensorFlow.

pysparkpetastormTensorFlowverteiltes Training

Databricks: 7.6.x mit GPU – nicht CE

Verteiltes Deep Learning mit TensorFlow 2

Erfahren Sie, wie Sie verteiltes Training mit TensorFlow 2 durchführen.

TensorFlowDeep Learningverteiltes Training

MLflow

End-to-End-Unterstützung für Machine Learning: vom Training Ihrer Modelle bis zu deren Überführung in die Produktion

Databricks: 7.6.x

Erste Schritte mit der Protokollierung für ML-Projekte mit MLflow

Eine Einführung in die MLflow-Protokoll-API für das ML-Workflow-Management.

MLflowsckikit-learnrandom forest

Databricks: 7.6.x

Kurzanleitung: Verwenden von MLflow-APIs für fließendes Tracking

Erfahren Sie, wie Sie die High-Level-APIs für fließendes Tracking in MLflow nutzen können.

MLflowfließendsckikit-learnrandom forest

Databricks: 7.6.x – nicht CE

Ein End-to-End-Beispiel für Machine Learning für Tabellendaten

Dies ist ein Notebook, das ein Beispiel für einen durchgängigen ML-Lebenszyklus für tabellarische Daten zeigt.

MLflowsckikit-learnrandom forestHyperparametersuche

Databricks: 8.0.x

MLflow-Kurzanleitung mit R

Erfahren Sie, wie Sie MLflow für das ML-Tracking in R verwenden.

rMLflow

Apache Spark™

Die Engine für verteiltes Computing, die Data Engineering und Data Science für das Data Lakehouse unterstützt

Databricks: 8.1.x

Streaming-Anwendungen für Sensordaten

Erfahren Sie, wie Sie Structured Streaming in Spark für Sensordatenanwendungen nutzen.

SQLpysparkStructured Streaming

Databricks: 8.1.x

Analyse der Anrufe bei der Feuerwehr von San Francisco mit Spark

Sehen Sie, wie Spark ETL verwendet wird, um die Anrufe bei der Feuerwehr von San Francisco zu analysieren.

etledapyspark

Databricks: 8.1.x

Interagieren mit externen Datenquellen aus Spark

Eine kurze Einführung in den Zugriff auf und die Interaktion mit externen Datenquellen aus Spark.

SQLudfsparkScala

Databricks: 8.1.x

Structured Streaming für Echtzeitanwendungen

Eine Einführung in die Semantik von Structured Streaming in Spark für Echtzeitdaten.

SQLpysparkStructured Streaming

Databricks: 8.0.x – nicht CE

Erweitern von SparkR mit benutzerdefinierten Funktionen (UDFs)

Erfahren Sie, wie Sie die Möglichkeiten von SparkR durch benutzerdefinierte Funktionen erweitern können, die mit UDFs in R geschrieben wurden.

udfsparkrverteiltes Computing

Databricks: 8.1.x

Adaptive Abfrageausführung

Veranschaulichen Sie die adaptive Abfrageausführung (AQE) in Spark 3.0.

SQLpysparkadaptive Abfrageausführung (aqe)

Anwendungsfälle

Databricks wird in vielen Branchen eingesetzt, darunter Finanzen, Einzelhandel, Technologie, Fertigung und mehr.

Databricks: 7.6.x

Warenkorbanalyse für den Einzelhandel

Dies ist ein Notebook, das zeigt, wie man Warenkorbanalysen für den Einzelhandel durchführt.

EinzelhandelWarenkorbanalyse

Databricks: 7.6.x

Skalieren der Finanzzeitreihe mit Spark

Analysieren Sie mithilfe von Spark Finanzzeitreihendaten, um Marktmanipulationen zu identifizieren.

pysparkZeitreihenBetrugserkennung

Lösungs-
beschleuniger

Vollständige Vorlagen für den Einsatz von Databricks in fünf verschiedenen Branchen

Lösungen erkunden