Contact partenaires

Découvrez et intégrez facilement des solutions de données, d'analytique et d'IA avec votre lakehouse.
Regarder les démos
image d'arrière-plan
Grâce à Partner Connect, découvrez facilement les données, l'analytique et l'IA directement au sein de la plateforme Databricks et intégrez rapidement les outils que vous utilisez déjà actuellement. Avec Partner Connect, vous pouvez simplifier l'intégration des outils en quelques clics et étendre rapidement les capacités de votre lakehouse.

Intégrez votre lakehouse

Connectez vos données et vos outils d'IA au lakehouse

Connectez facilement vos données et outils d'IA préférés au lakehouse et alimentez n'importe quel cas d'usage analytique

Découvrez des solutions de données et d'IA validées pour de nouveaux cas d'usage

Un portail unique pour les solutions partenaires validées afin que vous puissiez créer votre prochaine application de données plus rapidement.

Configuration en quelques clics grâce à des intégrations prédéfinies

Partner Connect simplifie vos intégrations en configurant automatiquement les ressources (y compris les clusters, les jetons et les fichiers de connexion) pour vous connecter aux solutions partenaires

Commencez en tant que partenaire

Les partenaires de Databricks sont idéalement positionnés pour fournir des insights d'analytique plus rapides aux clients. Tirez parti du développement et des ressources partenaires de Databricks pour développer votre activité aux côtés de notre plateforme ouverte et basée dans le cloud.

Devenir partenaire

« S'appuyant sur un partenariat de longue date, Partner Connect permet de concevoir une expérience intégrée entre nos entreprises et nos clients. Avec Partner Connect, nous proposons une expérience simplifiée qui permet aux milliers de clients de Databricks, qu'ils utilisent Fivetran aujourd'hui ou qu'ils nous découvrent par le biais de Partner Connect, de débloquer les informations au sein de leurs données, de découvrir davantage de cas d'usage en termes d'analytique et de tirer profit de la valeur du lakehouse plus rapidement en connectant facilement des centaines de sources de données à leur lakehouse. »

— George Fraser, P-DG de Fivetran

Démos

Transcriptions de vidéos

Démo Fivetran

Connectez-vous à Fivetran à partir de Databricks pour simplifier l'acquisition et la maintenance des données. Tirez parti des connecteurs entièrement managés de Fivetran à des centaines de sources de données. Fivetran prend également en charge la capture de données de changement pour les sources de données.

Databricks et Fivetran se sont associés pour offrir une expérience d'intégration transparente entre les deux produits via Databricks Partner Connect

Les utilisateurs peuvent désormais découvrir et se connecter à Fivetran en quelques clics dans Partner Connect

Le fait de cliquer sur Fivetran dans Partner Connect lance un workflow automatisé entre les deux produits où :
– Databricks fournit automatiquement un point de terminaison SQL et les informations d'identification associées avec lesquelles Fivetran peut interagir, avec les bonnes pratiques intégrées dans la configuration du point de terminaison.
- Databricks transmet automatiquement l'identité de l'utilisateur et la configuration du point de terminaison SQL à Rivery via une API sécurisée

Vous êtes ensuite redirigé vers le produit de Fivetran pour vous inscrire à une session d'essai ou pour vous connecter à Fivetran si vous êtes déjà utilisateur. Fivetran configure automatiquement un compte d'essai.

Fivetran reconnaît qu'il s'agit d'un utilisateur provenant de Databricks Partner Connect et crée automatiquement une plateforme de destination Databricks configurée pour ingérer les données dans Delta via le point de terminaison SQL qui a été auto-configuré par Partner Connect (il serait utile de mettre l'accent sur ce point en interrompant la vidéo, en zoomant ou en mettant en évidence l'icône « Databricks Partner - demo_cloud » en haut à gauche pour souligner la plateforme de destination Databricks automatisée qui a été configurée)

Avec la plateforme de destination Databricks Delta déjà configurée, l'utilisateur choisit désormais la source qu'il souhaite ingérer. Nous utiliserons Salesforce comme source (notez que l'utilisateur est libre de choisir parmi n'importe laquelle des centaines de sources que Fivetran supporte). L'utilisateur s'authentifie auprès de la source Salesforce, choisit les objets Salesforce qu'il souhaite ingérer dans Databricks Delta (dans ce cas, les objets Compte et Contact) et lance la synchronisation initiale

En cliquant sur les journaux, il est possible de voir que Fivetran utilise des API pour lire les données de Salesforce et qu'il les ingère ensuite dans Databricks Delta via le point de terminaison SQL qui a été automatiquement relevé

La fréquence de synchronisation entre Salesforce et Databricks Delta peut également être configurée à partir de Fivetran

En cliquant sur Destination, vous pouvez voir les détails de la configuration du point de terminaison SQL qui a été automatiquement créée suite à l'entrée en Fivetran via Databricks Partner Connect. Cette automatisation a épargné à l'utilisateur des dizaines d'étapes manuelles et de copier / coller de configuration qu'il aurait dû réaliser s'il avait configuré manuellement la connexion. L'utilisateur évite ainsi de commettre des erreurs de configuration involontaires et de perdre du temps dans le processus de debugging

De retour dans l'interface utilisateur Databricks, nous pouvons voir le point de terminaison SQL créé automatiquement par Partner Connect pour Fivetran.

Maintenant que les données de Salesforce circulent de manière transparente de Fivetran vers Databricks Delta via ce point de terminaison SQL, nous pouvons visualiser les tables Delta ingérées dans l'explorateur de données de Databricks

Il est désormais possible d'interroger ces tables Salesforce au moyen de requêtes SQL et d'analyser les données au fur et à mesure qu'elles arrivent de Fivetran pour des analyses décisionnelles en aval et des mélanges avec d'autres datasets dans le lakehouse

Power BI Demo

Use the native connector to start getting insights from all kinds of data — both structured and unstructured — then communicate those insights visually through tables, charts, maps, KPIs, and dashboards.

The Power BI Desktop integration with Databricks Partner Connect makes it simple to connect to Delta Lake so you can start doing analytics and sharing insights with your business.

To start your analysis in Power BI, connect Power BI Desktop to the Databricks SQL endpoint.

Click on Power BI in Databricks Partner Connect to initiate a simplified workflow

Select a SQL Endpoint and download the connection file. Connecting to Power BI Desktop is easy as the connection file comes pre configured with the required details to connect to the Databricks cluster.

To get started,

– Generate a Databricks personal access token

– Install Power BI and the Databricks ODBC Driver.

On opening the connection file,

– Power BI automatically recognizes the Databricks SQL endpoint connection details that were pre configured in the connection file

– Power BI prompts you for your access credentials.

Start building your analysis in Power BI

– Select the database and table you want to analyze

– Drag and drop the required fields and build your visualization

Tableau Demo

Tableau and Databricks empower all users with a data Lakehouse for modern analytics.

To build your analysis, you can connect Tableau Desktop to the Databricks SQL endpoint.

Clicking on Tableau in partner connect starts a simplified workflow for using Tableau Desktop with Databricks

You can select a SQL Endpoint and download a connection file

The connection file comes pre configured with all the details that you need to connect to the cluster.

To get started with Tableau Desktop from Databricks Partner Connect,

– Generate a Databricks personal access token

– Install Tableau and the Databricks ODBC Driver.

On opening the connection file,

– Tableau desktop automatically recognizes the SQL endpoint connection details that pre configured in the connection file

– Tableau desktop prompts you for your access credentials.

You can now focus on building your dashboard in Tableau desktop

– Select the Data Source tab
– Select the database and table
– Create a Sheet,
– Drag and drop the required fields
– Then build the visualizations and dashboards

Démo Rivery

Connectez-vous à Rivery à partir de Databricks pour simplifier le parcours des données, de l'ingestion à la transformation, en passant par la livraison dans le Delta Lake pour l'ensemble de votre organisation. Tirez parti des connecteurs pré-conçus de Rivery pour accéder à plus de 150 sources de données qui prennent également en charge la capture de données de changement.

Databricks et Rivery se sont associés pour offrir une expérience d'intégration transparente entre les deux produits via Databricks Partner Connect

Les utilisateurs peuvent désormais découvrir et se connecter à Rivery en quelques clics dans Partner Connect

Le fait de cliquer sur « Rivery » dans Partner Connect lance un workflow automatisé entre les deux produits où :
– Databricks fournit automatiquement un point de terminaison SQL et les informations d'identification associées avec lesquelles Rivery peut interagir, et avec les bonnes pratiques intégrées dans la configuration du point de terminaison.
- Databricks transmet automatiquement l'identité de l'utilisateur et la configuration du point de terminaison SQL à Rivery via une API sécurisée

Nous sommes ensuite redirigés vers la console du produit de Rivery pour nous inscrire à une session d'essai de Rivery ou pour nous connecter à Rivery si nous sommes déjà utilisateurs. Rivery configure automatiquement un compte d'essai.

Nous sommes maintenant prêts à exploiter les connecteurs natifs de source de données de Rivery pour charger des données dans Delta Lake.

Rivery reconnaît qu'il s'agit d'un utilisateur provenant de Databricks Partner Connect et crée automatiquement une plateforme de destination Databricks, configurée pour ingérer les données dans Delta via le point de terminaison SQL qui a été auto-configuré par Partner Connect

Maintenant, rendez-vous dans Connexions. Les connexions des sources de données et des cibles s'affichent. Il est possible de voir une connexion cible qui s'appelle Databricks SQL.
Avec la plateforme de destination Databricks Delta déjà configurée, l'utilisateur choisit désormais la source qu'il souhaite ingérer. Nous utiliserons Salesforce CRM comme source (remarquez que l'utilisateur est libre de choisir plus de 150 connecteurs de source de données prédéfinis pris en charge par Rivery). L'utilisateur s'authentifie auprès de la source Salesforce CRM et enregistre la connexion après avoir passé le test. Elle s'affiche dans la liste Connexions.

Pour commencer l'ingestion de données, il suffit de cliquer sur « Créer un nouveau fleuve » et sélectionner « Source vers cible ».
– Choisissez Salesforce CRM comme source de données. Il remplit automatiquement la connexion Salesforce que nous avons configurée plus tôt.
- Pour la configuration de l'ingestion, vous pouvez choisir de charger plusieurs tables simultanément ou de charger une seule table à partir de Salesforce. Dans cette démo, nous ne sélectionnons qu'une seule table qui est la table « Compte ». Enregistrez-la.

– Sur la « cible ». Pour l'ingestion vers la plateforme de destination Delta Databricks déjà définie, un utilisateur peut saisir un nom de base de données existant du côté de Databricks ou créer une nouvelle base de données.
Nous saisissons alors le nom de notre base de données et le préfixe de la table. Choisir « Écraser » comme mode d'ingestion par défaut.
- Enregistrez et cliquez sur le bouton « Exécuter » pour lancer le workflow d'ingestion.

Une fois l'ingestion terminée, il est possible de revenir à l'interface utilisateur de Databricks pour visualiser les tables Delta ingérées dans l'explorateur de données SQL de Databricks

Il est possible de voir le schéma, un échantillon de données ainsi que d'autres informations détaillées de cette table. Simple et efficace.

Il est désormais possible d'interroger ces tables Salesforce au moyen de requêtes SQL et d'analyser les données au fur et à mesure qu'elles arrivent de Rivery pour des analyses décisionnelles en aval et des mélanges avec d'autres datasets dans le lakehouse

Labelbox Demo

Use the Labelbox Connector for Databricks to easily prepare unstructured data for AI and Analytics in the Lakehouse. Labelbox supports annotation of images, text, video, sound, and geospatial tiled images.

Discover and connect to Labelbox through Databricks Partner Connect

Click on Labelbox in Databricks Partner Connect

– A cluster will automatically be created so you can easily run a tutorial notebook that we will also provide

– Next, verify the email address for your Labelbox trial

Labelbox deposits a tutorial notebook into your shared directory in your Databricks workspace.

You’ll also get a link to that file right here.

Finish the trial sign up.

Now you’re in Labelbox with a free trial.

Let’s go back into Databricks and check out the tutorial notebook.

If I go into my workspace and click “Shared” I will find the Labelbox Demo folder. In that folder is a single notebook.

This tutorial notebook guides you through a typical workflow: Identify unstructured data in your data lake and pass the URLs to Labelbox for annotation. You’ll be able to annotate your dataset and get the labels back in Databricks for AI and analytics.

The first thing we need to do is to connect to our cluster. There’s the Labelbox cluster that was just created. I’ll run the first line to install the Labelbox SDK and the Labelbox Connector for Databricks.

This next cell requires an API key.

Navigate back to my Labelbox trial, click “Account”, “API” and then create a demo API key.

Copy that key and navigate back to Databricks and include it in the cell. We recommend using the Databricks Secrets API for this, but for this demo we’re simply pasting in the key.

For this notebook demo we’re going to seed your Databricks account with a table of sample images, but you can easily use assets from your Cloud Storage like AWS S3, Azure Blob, or Google Cloud Storage.

After I run these cells I’ll have a table with file names and URLs to image assets.

Then we take that table and pass it to Labelbox to create the dataset in Labelbox.

There’s the dataset with all of our demo images.

Before we can label the dataset, we must create a new project with an ontology. The ontology describes what kind of objects and classifications you are interested in annotating.

Once the project is ready, we can go in and label a few items.

Now that we have some annotated data, we can go back into Databricks and run the final command to bring our annotations into Databricks.

Next we can go back into our notebook and run the final command to bring these annotations into Databricks for downstream use.

The Label column includes a JSON of all the objects and classifications we placed on that asset.

You can store these annotations into Delta Lake and then train your AI models.

This notebook walks you through the basics of the Labelbox Connector for Databricks. Please check out our documentation for more information about advanced capabilities like Model Assisted Labeling, how to use the Catalog to locate and prioritize assets for labeling, and how to use Model Diagnostics to look for areas to improve your model.

Démo de Prophecy

Connectez-vous en un seul clic à Prophecy, un produit de data engineering à faible code sur Databricks. Créez et déployez interactivement des pipelines Apache Spark™ et Delta à l'aide d'une interface visuelle par « glisser - déposer » sur les clusters Databricks.

Pour commencer à utiliser Prophecy sur Databricks, connectez-vous à votre workspace Databricks et ouvrez l'interface SQL.

– À partir de là, ouvrez la page de connexion du partenaire et choisissez Prophecy pour vous connecter.

– Lors de la création d'un compte Prophecy, Databricks établit automatiquement une connexion sécurisée pour exécuter vos pipelines directement sur votre workspace.

Comme vos identifiants de messagerie sont transmis, il vous suffit de choisir un nouveau mot de passe pour vous inscrire à Prophecy.

Maintenant que vous êtes connecté à Prophecy, vous pouvez facilement développer et exécuter vos pipelines de données Spark.

Choisissez l'un des exemples de pipelines pour « Démarrer » et ouvrez le workflow.

Un canevas visuel sur lequel nous pouvons commencer à créer notre pipeline s'affiche.

Commençons par créer un nouveau cluster Databricks.

Maintenant que notre cluster est lancé, un simple clic nous permet d'accéder à l'interface Databricks et d'afficher notre cluster sur votre workspace.

Revenons à l'interface utilisateur de Prophecy et explorons notre pipeline. Nous pouvons lire ici les deux sources de données de nos « Clients » et « Commandes », en les associant...

... et en les agrégeant par addition de la colonne des montants.

Ensuite, trions les données pour les écrire directement dans une table Delta

Avec Prophecy, on peut exécuter directement notre workflow en un seul clic pour visualiser les données après chaque étape

Il est possible d'afficher ses données « Client », « Commandes », données jointes....

...le champ agrégé avec les montants synthétisés...

... puis, nos données triées écrites dans notre table Delta cible

Maintenant, modifions notre pipeline en nettoyant certains champs

Pour ce faire, il suffit de faire glisser et déposer un nouveau « Gem » appelée « Reformat »...

… les connecte à notre pipeline existant...

... et choisissons les colonnes. Nous pouvons ajouter une nouvelle colonne appelée « nom complet », concaténer prénom et nom de famille, et ajouter une colonne « montant » nettoyée qui aura la valeur arrondie.

Renommons également ce gem « Nettoyage ».

C'est ainsi que l'on peut exploiter directement notre workflow et les données directement après la colonne Nettoyage.

Comme vous pouvez le constater, nous avons très facilement ajouté une étape de nettoyage à notre pipeline.

Mais Prophecy n'est pas seulement un éditeur visuel. En filigrane, tout est enregistré en code Spark de haute qualité que vous pouvez modifier.

De plus, Prophecy vous permet de suivre les bonnes pratiques de software engineering en stockant directement le code sur votre Git.

Ici, il est possible d'afficher le workflow avec les derniers changements directement en code Scala sur Git.

Vous voulez en savoir plus ?

Tirez parti du développement et des ressources partenaires de Databricks pour développer votre activité aux côtés de notre plateforme ouverte et basée dans le cloud.