Partner Connect

Entdecken und integrieren Sie Daten, Analysen und KI-Lösungen ganz unkompliziert in Ihr Lakehouse
Demos ansehen
Hintergrundbild
Partner Connect macht es Ihnen leicht, Daten-, Analyse- und KI-Tools direkt auf der Databricks-Plattform zu entdecken – und Lösungen, die Sie bereits nutzen, im Handumdrehen zu integrieren. Mit Partner Connect ist die Tool-Integration mit nur wenigen Klicks erledigt, und Sie haben die Funktionalität Ihres Lakehouse im Handumdrehen erweitert.

Integrieren Sie Ihr Lakehouse

Daten- und KI-Tools mit dem Lakehouse vernetzen

Verbinden Sie Ihre bevorzugten Daten- und KI-Tools kinderleicht mit dem Lakehouse und nutzen Sie Analyseanwendungen aller Art

Entdecken Sie validierte Daten und KI-Lösungen für neue Anwendungsfälle

Ein zentraler Anlaufpunkt für geprüfte Partnerlösungen, damit Sie Ihre nächste Datenanwendung schneller erstellen können

Mit ein paar Klicks eingerichtet dank vorgefertigter Integrationen

Partner Connect vereinfacht Ihre Integrationen durch die automatische Konfiguration von Ressourcen wie Clustern, Token und Verbindungsdateien für eine Verbindung mit Partnerlösungen

Ihr Einstieg als Partner

Databricks-Partner sind ideal positioniert, um Kunden schneller Analyseerkenntnisse zu liefern. Nutzen Sie die Entwicklungs- und Partnerressourcen von Databricks, um gemeinsam mit unserer offenen, Cloud-basierten Plattform zu wachsen.

Partner werden

„Partner Connect baut auf unserer langjährigen Partnerschaft auf und ermöglicht es uns, eine integrierte Erfahrung für unsere Unternehmen und Kunden zu schaffen. Mit Partner Connect bieten wir ein maßgeschneidertes Erlebnis, das es vielen Tausend Databricks-Kunden einfacher denn je macht, Erkenntnisse aus ihren Daten zu gewinnen, zusätzliche Analyseanwendungen zu entdecken und schneller Mehrwert aus ihrem Lakehouse zu generieren – einfach dadurch, dass sie Hunderte von Datenquellen mit ihrem Lakehouse verbinden.“

– George Fraser, CEO Fivetran

Demos

Videotranskripte

Fivetran-Demo

Stellen Sie aus Databricks eine Verbindung mit Fivetran her, um die Datenerfassung und -pflege zu vereinfachen. Profitieren Sie von den vollständig verwalteten Fivetran-Konnektoren zur Anbindung von Hunderten von Datenquellen. Fivetran unterstützt auch die Erfassung von Änderungsdaten für Datenquellen.

Databricks und Fivetran haben eine Partnerschaft geschlossen, um eine nahtlose Integration zwischen beiden Produkten über Databricks Partner Connect zu ermöglichen

Nutzer können Fivetran jetzt mit nur wenigen Klicks in Partner Connect entdecken und eine Verbindung herstellen.

Wenn Sie in Partner Connect auf Fivetran klicken, wird ein automatischer Workflow zwischen den beiden Produkten gestartet:
- Databricks implementiert automatisch einen SQL-Endpunkt und die zugehörigen Anmeldeinformationen für die Interaktion mit Fivetran, wobei die Best Practices bereits bei der Konfiguration des Endpunkts berücksichtigt wurden.
– Databricks übergibt die Identität des Nutzers und die SQL-Endpunktkonfiguration automatisch über eine sichere API an Fivetran.

Anschließend werden wir zum Fivetran-Produkt weitergeleitet und können uns wahlweise für eine Testversion von Fivetran registrieren oder uns bei Fivetran einloggen, wenn wir bereits Nutzer sind. Fivetran richtet automatisch ein Testkonto ein.

Fivetran erkennt, dass es sich um einen Nutzer handelt, der von Databricks Partner Connect kommt, und erstellt automatisch ein Databricks-Ziel. Dieses ist so konfiguriert, dass es über den von Partner Connect automatisch konfigurierten SQL-Endpunkt in Delta aufgenommen wird (es wäre praktisch, dies durch Anhalten des Videos und Heranzoomen oder Hervorheben des Symbols „Databricks Partner – demo_cloud“ oben links zu verdeutlichen, um das automatisch eingerichtete Databricks-Ziel herauszustellen).

Da das Ziel (Databricks Delta) bereits eingerichtet ist, wählt der Nutzer nun die Quelle aus, von der er Daten einlesen möchte. Wir verwenden als Quelle Salesforce. (Beachten Sie, dass der Nutzer zwischen Hunderten von Quellen auswählen kann, die Fivetran unterstützt.) Der Nutzer authentifiziert sich bei der Salesforce-Quelle, wählt die in Databricks Delta zu erfassenden Salesforce-Objekte aus (in diesem Fall die Konto- und Kontaktobjekte) und startet die Erstsynchronisierung.

Wenn wir auf Logs klicken, erkennen wir, dass Fivetran Daten mithilfe von APIs aus Salesforce ausliest und diese Daten dann über den automatisch eingerichteten SQL-Endpunkt nach Databricks Delta überspielt.

Die Synchronisationsfrequenz von Salesforce zu Databricks Delta kann auch von Fivetran aus konfiguriert werden.

Nach einem Klick auf „Ziel“ sehen wir Details zur Konfiguration des SQL-Endpunkts, der infolge unseres Zugriffs auf Fivetran über Databricks Partner Connect automatisch erstellt wurde. Diese Automatisierung erspart dem Nutzer Dutzende von manuellen Schritten und das Kopieren und Einfügen von Konfigurationen, die er bei manueller Einrichtung der Verbindung hätte vornehmen müssen. Sie schützt den Nutzer auch vor unbeabsichtigten Konfigurationsfehlern und lässt die Fehlersuche entfallen.

Zurück auf der Databricks-Benutzeroberfläche sehen wir den SQL-Endpunkt, der automatisch von Partner Connect für Fivetran erstellt wurde.

Da die Salesforce-Daten nun nahtlos von Fivetran über diesen SQL-Endpunkt nach Databricks Delta fließen, können wir die erfassten Delta-Tabellen im Daten-Explorer von Databricks anzeigen.

Wir können diese Salesforce-Tabellen nun mit SQL-Abfragen abrufen und die Daten, die von Fivetran kommen, für nachgelagerte BI-Analysen analysieren und mit anderen Datenbeständen im Lakehouse zusammenführen.

Power BI Demo

Use the native connector to start getting insights from all kinds of data — both structured and unstructured — then communicate those insights visually through tables, charts, maps, KPIs, and dashboards.

The Power BI Desktop integration with Databricks Partner Connect makes it simple to connect to Delta Lake so you can start doing analytics and sharing insights with your business.

To start your analysis in Power BI, connect Power BI Desktop to the Databricks SQL endpoint.

Click on Power BI in Databricks Partner Connect to initiate a simplified workflow

Select a SQL Endpoint and download the connection file. Connecting to Power BI Desktop is easy as the connection file comes pre configured with the required details to connect to the Databricks cluster.

To get started,

– Generate a Databricks personal access token

– Install Power BI and the Databricks ODBC Driver.

On opening the connection file,

– Power BI automatically recognizes the Databricks SQL endpoint connection details that were pre configured in the connection file

– Power BI prompts you for your access credentials.

Start building your analysis in Power BI

– Select the database and table you want to analyze

– Drag and drop the required fields and build your visualization

Tableau Demo

Tableau and Databricks empower all users with a data Lakehouse for modern analytics.

To build your analysis, you can connect Tableau Desktop to the Databricks SQL endpoint.

Clicking on Tableau in partner connect starts a simplified workflow for using Tableau Desktop with Databricks

You can select a SQL Endpoint and download a connection file

The connection file comes pre configured with all the details that you need to connect to the cluster.

To get started with Tableau Desktop from Databricks Partner Connect,

– Generate a Databricks personal access token

– Install Tableau and the Databricks ODBC Driver.

On opening the connection file,

– Tableau desktop automatically recognizes the SQL endpoint connection details that pre configured in the connection file

– Tableau desktop prompts you for your access credentials.

You can now focus on building your dashboard in Tableau desktop

– Select the Data Source tab
– Select the database and table
– Create a Sheet,
– Drag and drop the required fields
– Then build the visualizations and dashboards

Rivery-Demo

Stellen Sie eine Verbindung von Databricks zu Rivery her, um den Weg der Daten von der Erfassung über die Transformation bis zur Bereitstellung in Delta Lake für Ihr gesamtes Unternehmen zu vereinfachen. Profitieren Sie von den vorkonfigurierten Rivery-Konnektoren zu mehr als 150 Datenquellen, die auch die Erfassung von Änderungsdaten unterstützen.

Databricks und Rivery haben eine Partnerschaft geschlossen, um eine nahtlose Integration zwischen beiden Produkten über Databricks Partner Connect zu ermöglichen

Nutzer können Rivery jetzt mit nur wenigen Klicks in Partner Connect entdecken und eine Verbindung herstellen.

Wenn Sie in Partner Connect auf Rivery klicken, wird ein automatischer Workflow zwischen den beiden Produkten gestartet:
- Databricks implementiert automatisch einen SQL-Endpunkt und die zugehörigen Anmeldeinformationen für die Interaktion mit Rivery, wobei die Best Practices bereits bei der Konfiguration des Endpunkts berücksichtigt wurden.
– Databricks übergibt die Identität des Nutzers und die SQL-Endpunktkonfiguration automatisch über eine sichere API an Rivery

Wir werden dann zur Rivery-Produktkonsole weitergeleitet und können uns wahlweise für eine Testversion von Rivery registrieren oder uns bei Rivery einloggen, wenn wir bereits Nutzer sind. Rivery richtet automatisch ein Testkonto ein.

Jetzt können wir mit den nativen Datenquellenkonnektoren von Rivery Daten in Delta Lake laden.

Rivery erkennt, dass es sich um einen Nutzer handelt, der von Databricks Partner Connect kommt, und erstellt automatisch ein Databricks-Ziel, das für die Erfassung in Delta über den von Partner Connect automatisch konfigurierten SQL-Endpunkt vorbereitet ist.

Gehen Sie nun zu „Verbindungen“. Hier finden Sie Verbindungen von Datenquellen und -zielen. Hier finden Sie eine Zielverbindung namens „Databricks SQL“.
Da das Ziel (Databricks Delta) bereits eingerichtet ist, wählt der Nutzer nun die Quelle aus, von der er Daten einlesen möchte. Wir verwenden als Quelle Salesforce CRM. (Beachten Sie, dass der Nutzer zwischen mehr als 150 von Rivery unterstützten vordefinierten Datenquellenkonnektoren auswählen kann.) Der Nutzer authentifiziert sich bei der Salesforce CRM-Quelle und speichert die Verbindung, wenn der Test erfolgreich war. Sie wird nun in der Verbindungsliste angezeigt.

Wir klicken auf „Create New River“ und wählen „Source to Target“ aus, um die Datenerfassung zu starten.
- Wählen Sie Salesforce CRM als Datenquelle aus. Hierdurch wird die zuvor eingerichtete Salesforce-Verbindung automatisch ausgefüllt.
- Bei der Erfassungskonfiguration können Sie wählen, ob Sie mehrere Tabellen gleichzeitig oder nur eine Tabelle aus Salesforce laden möchten. In dieser Demo wählen wir nur eine Tabelle aus, nämlich die Tabelle „Account“. Speichern Sie nun.

- Unter „Target“. Für die Erfassung im bereits festgelegten Databricks Delta-Ziel kann der Nutzer den Namen einer bestehenden Datenbank auf der Databricks-Seite eingeben oder eine neue Datenbank erstellen.
Wir geben unseren eigenen Datenbanknamen ein und fügen ein Tabellenpräfix hinzu. Nun wählen wir „Überschreiben“ als Standarderfassungsmodus aus.
- Speichern Sie und klicken Sie auf „Ausführen“, um den Erfassungs-Workflow zu starten.

Sobald die Erfassung abgeschlossen ist, können wir zur Databricks UI zurückkehren, um die erfassten Delta-Tabellen im Daten-Explorer von Databricks SQL anzuzeigen.

Wir sehen das Schema, Beispieldaten sowie weitere ausführliche Informationen zu dieser Tabelle. Einfach und unkompliziert.

Wir können diese Salesforce-Tabellen nun mit SQL-Abfragen abrufen und die Daten, die von Rivery kommen, für nachgelagerte BI-Analysen analysieren und mit anderen Datenbeständen im Lakehouse zusammenführen.

Labelbox Demo

Use the Labelbox Connector for Databricks to easily prepare unstructured data for AI and Analytics in the Lakehouse. Labelbox supports annotation of images, text, video, sound, and geospatial tiled images.

Discover and connect to Labelbox through Databricks Partner Connect

Click on Labelbox in Databricks Partner Connect

– A cluster will automatically be created so you can easily run a tutorial notebook that we will also provide

– Next, verify the email address for your Labelbox trial

Labelbox deposits a tutorial notebook into your shared directory in your Databricks workspace.

You’ll also get a link to that file right here.

Finish the trial sign up.

Now you’re in Labelbox with a free trial.

Let’s go back into Databricks and check out the tutorial notebook.

If I go into my workspace and click “Shared” I will find the Labelbox Demo folder. In that folder is a single notebook.

This tutorial notebook guides you through a typical workflow: Identify unstructured data in your data lake and pass the URLs to Labelbox for annotation. You’ll be able to annotate your dataset and get the labels back in Databricks for AI and analytics.

The first thing we need to do is to connect to our cluster. There’s the Labelbox cluster that was just created. I’ll run the first line to install the Labelbox SDK and the Labelbox Connector for Databricks.

This next cell requires an API key.

Navigate back to my Labelbox trial, click “Account”, “API” and then create a demo API key.

Copy that key and navigate back to Databricks and include it in the cell. We recommend using the Databricks Secrets API for this, but for this demo we’re simply pasting in the key.

For this notebook demo we’re going to seed your Databricks account with a table of sample images, but you can easily use assets from your Cloud Storage like AWS S3, Azure Blob, or Google Cloud Storage.

After I run these cells I’ll have a table with file names and URLs to image assets.

Then we take that table and pass it to Labelbox to create the dataset in Labelbox.

There’s the dataset with all of our demo images.

Before we can label the dataset, we must create a new project with an ontology. The ontology describes what kind of objects and classifications you are interested in annotating.

Once the project is ready, we can go in and label a few items.

Now that we have some annotated data, we can go back into Databricks and run the final command to bring our annotations into Databricks.

Next we can go back into our notebook and run the final command to bring these annotations into Databricks for downstream use.

The Label column includes a JSON of all the objects and classifications we placed on that asset.

You can store these annotations into Delta Lake and then train your AI models.

This notebook walks you through the basics of the Labelbox Connector for Databricks. Please check out our documentation for more information about advanced capabilities like Model Assisted Labeling, how to use the Catalog to locate and prioritize assets for labeling, and how to use Model Diagnostics to look for areas to improve your model.

Prophecy-Demo

Herstellen einer Verbindung zu Prophecy, einem Low-Code-Produkt für die Datenverarbeitung, auf Databricks mit nur einem Klick. Interaktives Erstellen und Implementieren von Apache Spark™- und Delta-Pipelines über eine visuelle Drag & Drop-Oberfläche auf Databricks-Clustern.

Für einen erfolgreichen Einstieg in Prophecy auf Databricks melden Sie sich zunächst in Ihrem Databricks-Arbeitsbereich an und öffnen die SQL-Oberfläche.

- Öffnen Sie hier nun die Partner Connect-Seite und wählen Sie „Prophecy“ aus, um sich anzumelden.

- Wenn Sie ein Prophecy-Konto erstellen, stellt Databricks automatisch eine sichere Verbindung her, um Ihre Pipelines direkt in Ihrem Arbeitsbereich auszuführen.

Da Ihre E-Mail-Zugangsdaten weitergegeben werden, müssen Sie nur ein neues Passwort wählen, um sich bei Prophecy zu registrieren.

Nach der Anmeldung bei Prophecy sehen wir uns nun an, wie einfach es ist, Ihre Spark-Datenpipelines zu entwickeln und auszuführen.

Wählen Sie eine der Beispielpipelines für den Einstieg aus und öffnen Sie den Workflow.

Nun erscheint eine grafische Bearbeitungsfläche, auf der wir mit dem Entwickeln unserer Pipeline beginnen können.

Setzen wir zunächst einen neuen Databricks-Cluster auf.

Nachdem unser Cluster hochgefahren ist, können wir mit einem einzigen Klick zur Databricks-Oberfläche wechseln und sehen ihn im Arbeitsbereich.

Damit zurück zur Prophecy-Benutzeroberfläche. Erkunden wir unsere Pipeline. Wir lesen hier zwei Datenquellen mit unseren Kunden und den Aufträgen ein, verknüpfen sie miteinander …

… und aggregieren sie durch Aufsummieren der Betragsspalte.

Später sortieren wir die Daten und schreiben sie direkt in eine Delta-Tabelle

Mit Prophecy können wir unseren Workflow mit nur einem einzigen Klick direkt ausführen und die Daten nach jedem Schritt sehen.

Wir sehen hier Daten der Kategorien „Kunden“ und „Aufträge“ sowie die zusammengeführten Daten …

… das aggregierte Feld mit den summierten Beträgen …

… und schließlich unsere sortierten Daten, die in unsere Delta-Zieltabelle geschrieben werden

Ändern wir nun unsere Pipeline, indem wir einige der Felder bereinigen

Zu diesem Zweck können wir einfach ein neues Gem namens „Reformat“ per Drag & Drop überführen.

… verbinden es in unserer bestehenden Pipeline …

… und wählen die Spalten aus. Wir können eine neue Spalte mit der Bezeichnung „Vollständiger Name“ hinzufügen, unseren Vor- und Nachnamen verketten und eine bereinigte Betragsspalte ergänzen, die den aufgerundeten Wert enthält.

Dieses Gem benennen wir in „Cleanup“ um.

Auf diese Weise können wir unseren Workflow gezielt weiterleiten und die Daten direkt nach der Bereinigungsspalte untersuchen.

Wie Sie sehen, haben wir so ganz einfach einen Bereinigungsschritt in unserer Pipeline hinzugefügt.

Aber Prophecy ist nicht nur ein visueller Editor. Hinter den Kulissen wird alles in einem hochwertigen Spark-Code gespeichert, den Sie bearbeiten können.

Außerdem können Sie mit Prophecy die besten Software-Engineering-Praktiken anwenden, wenn Sie den Code direkt auf Ihrem Git speichern.

Hier sehen wir unseren Workflow mit den letzten Änderungen direkt als Scala-Code auf Git.

Möchten Sie mehr wissen?

Nutzen Sie die Entwicklungs- und Partnerressourcen von Databricks, um gemeinsam mit unserer offenen, Cloud-basierten Plattform zu wachsen.