Comparer Apache SparkTM avec Databricks


Les capacités d'Apache Spark apportent vitesse, simplicité d'utilisation et divers avantages à l'utilisation. Spark inclut des API adaptées à une vaste gamme de cas d'utilisation :
  • Intégration de données et ETL
  • Analyses interactives
  • Machine learning et analyses avancées
  • Traitement de données en temps réel

v


Databricks est bâti sur les fondations de Spark et y ajoute :
  • Des pipelines de données extrêmement fiables et performants
  • Une grande productivité en data science, quelle que soit l'échelle

Pour en savoir plus, visitez la page de notre plateforme.

Comparer les fonctionnalités

Databricks

En savoir plus

Oui Non
Exécutez plusieurs versions de Spark Oui Non
Système de fichiers intégré optimisé pour l'accès au stockage dans le cloud (AWS S3, Redshift, Azure Blob) Oui Non
Pools sans serveurs avec auto-configuration des ressources pour les charges de travail en SQL et Python Oui Non
Partage fin des ressources au format natif Spark pour une utilisation optimale Oui Non
Isolation des pannes des ressources de calcul Oui Non
Écritures plus rapides sur S3 Oui Non
Optimisation du calcul pendant les opérations de jonction et de filtrage Oui Non
Cycles de nouvelles versions rapides Oui Non
Puissance de calcul mise automatiquement à l'échelle Oui Non
Stockage local mis automatiquement à l'échelle Oui Non
Haute disponibilité pour les clusters Oui Non
Partage de clusters multi-utilisateurs Oui Non
Migration automatique entre les instances spot et à la demande Oui Non
Facturation à la seconde Oui Non

Oui Non

Transactions ACID Oui Non
Gestion de schémas Oui Non
Prise en charge des traitements par lots/en flux, en lecture/écriture Oui Non
Contrôle de versions des données Oui Non
Optimisation des performances Oui Non

Oui Non
Notebooks interactifs avec prise en charge de plusieurs langages (SQL, Python, R et Scala) Oui Non
Collaboration en temps réel Oui Non
Historique des révisions des notebooks et intégration GitHub Oui Non
Visualisations en un clic Oui Non
Publiez des notebooks sous forme de tableaux de bord interactifs Oui Non

Oui Non
Surveillance et alertes sur les tâches Spark Oui Non
Déploiement en un clic de notebooks autant que de tâches Spark Oui Non
API pour concevoir des flux de travail dans les notebooks Oui Non
Streaming en production avec surveillance Oui Non

En savoir plus

Oui Non
Contrôle d'accès pour les notebooks, clusters, tâches et données structurées Oui Non
Journaux d'audit Oui Non
SSO avec prise en charge SAML 2.0 Oui Non
Chiffrement des données (au repos et en mouvement) Oui Non
Conformité (HIPAA, SOC 2 Type 2) Oui Non

Oui Non
Connectez d'autres outils de BI à l'aide d'une interface ODBC/JDBC authentifiée (Tableau, Looker etc.) Oui Non
API REST Oui Non
Connecteurs de sources de données Oui Non

Oui Non
Aide et assistance par les commiteurs ayant conçu Spark Oui Non
Prise en charge de SQL Oui Non