Die Migration zu Databricks hilft dabei, Innovation zu beschleunigen, die Produktivität zu steigern und die Kosten durch eine schnellere und effizientere Infrastruktur und DevOps besser zu verwalten.

Entdecken Sie die Vorteile der Migration von Hadoop zur Databricks Lakehouse-Plattform – einer offenen und einfachen Plattform zum Speichern und Verwalten aller Daten für alle Ihre Analytics-Workloads.

Bereits die Verringerung von Infrastruktur- und Lizenzkosten ist ein wesentlicher Vorteil, doch die Databricks Lakehouse-Plattform verfolgt einen Lake-First-Ansatz, um Geschwindigkeit und Umfang aller Ihre Analyse- und KI-Anwendungsfälle in Ihrer Produktion zu steigern. So können Sie Ihre SLAs erfüllen, Abläufe optimieren und die Produktivität verbessern.

Warum mit Databricks migrieren?
Nach einer Forrester TEI-Studie erzielen Unternehmen, die zu Databricks wechseln, einen ROI von 417 %!

47 %

Kosteneinsparungen durch Ausmustern
der veralteten Infrastruktur

Trennen Sie sich von alten Infrastrukturen und satteln Sie um auf einen offenen und elastischen Cloud-nativen Service, der weder untragbar viel Kapazitäten noch Hardware-Upgrades erfordert.

5 %

Steigerung des Umsatzes dank
datengesteuerter Innovation

Nutzen Sie alle Unternehmensdaten, um neue Datenprodukte zu erstellen und die betriebliche Effizienz mit leistungsstarken KI- und Machine-Learning-Funktionen zu steigern.

25 %

Steigerung der
Produktivität des Datenteams

Minimieren Sie den DevOps-Aufwand mit einer vollständig verwalteten, leistungsfähigen 
und zuverlässigen Daten- und Analyseplattform.

Cloud-basiert
Aufbau einer offenen, einfachen und kollaborativen Lakehouse-Architektur mit Databricks

Kostengünstige Skalierung und Leistung in der Cloud

Verwaltungsfreundlich und extrem zuverlässig für vielfältige Daten

Bessere Förderung von Innovationen durch Prognosen und Echtzeiterkenntnisse

Lakehouse
Erstellen Sie eine offene, einfache und kollaborative Lakehouse-Architektur – mit Databricks

Verwaltungsfreundlich
Zuverlässigkeit, Sicherheit und Leistung für Ihren Data Lake und Daten aller Art. Demo ansehen

In riesigen Maßstäben
On-Demand-Verfügbarkeit und elastische Autoskalierung mit optimiertem Apache Spark

KI-gestützte Innovation
Eine kollaborative Umgebung, in der Praxisanwender alle Analyseprozesse an zentraler Stelle durchführen und ML-Modelle übergreifend für den gesamten Lebenszyklus verwalten können

Produktivität steigern

Umfassende Kostensenkung

Innovate faster

Databricks Lakehouse-Plattform

Einfach
Ihre Daten, Analytics und KI auf einer gemeinsamen Plattform für alle Datenanwendungsfälle vereinen

Offen
Ihr Datenökosystem mit Open Source, Standards und Formaten vereinen

Kollaborativ
Ihre Datenteams vereinen, damit sie über den gesamten Daten- und KI-Workflow hinweg zusammenarbeiten können

Technologie für das Mapping von Hadoop auf Databricks

Data Eng, ML
(Spark)
Databricks-Jobs/Delta Lake
(Hochoptimierte Spark-Engine: schneller, weniger
Ressourcenbedarf, alles aus einer Hand)
ETL, SQL
(Hive, Impala)
Databricks-Jobs/Delta Lake/Spark SQL
(Hochoptimierte Spark-Engine: schneller, weniger
Ressourcenbedarf, alles aus einer Hand)
Ereignisverarbeitung in Echtzeit
(Storm/Spark)
Structured Streaming mit Databricks
(Spark Structured Streaming + Delta Lake:
Streaming + Batch-Erfassung)
Batch-Prozess
(MapReduce)
Databricks Spark-Jobs
(um mehrere Größenordnung schneller, erfordert aber möglicherweise
manuelles Handeln)
Skalierbare Apps auf Basis von Columnar-Speicher
(Hbase)
Databricks Spark integriert
mit Hbase in der Cloud

(Alternativ: Nutzen von Cloud-Datenspeichern, die gut
in Databricks integriert sind)
Reckitt
Anwendungsfall
  1. Als globales Konsumgüterunternehmen stand Reckitt vor der Herausforderung, die Nachfrage für insgesamt 500.000 Filialen prognostizieren zu müssen
  2. Sie verarbeiten täglich über 2 TB Daten in 250 Pipelines.
  3. Die Hadoop-Infrastruktur erwies sich als komplex, umständlich und kostspielig in der Skalierung. Außerdem hatte dieses Altsystem 
auch Schwächen bei der Leistung.
Warum Databricks
  1. Eine einheitliche Plattform für Data Science, 
Engineering und Business-Analysten, um schnell Innovationen zu entwickeln und 
ML-gestützte Erkenntnisse zu liefern
  2. Delta Lake optimiert Kosten und Speicherbedarf durch extreme Datenkompression
Auswirkungen
  1. 10x mehr Kapazität zur Unterstützung des Geschäftsvolumens
  2. Umfassende Senkung der Betriebskosten durch 98%ige Datenkomprimierung (von 80 auf 2 TB)
  3. Doppelt so schnelle Datenpipeline für Jobs rund um die Uhr
viacom-slider-bg-min
Anwendungsfall
  1. Viacom18 muss täglich mehrere Terabyte Daten über Zuschauer verarbeiten, um die Programmierung zu optimieren
  2. Mit dem auf einer On-Premises-Installation von Hadoop aufsetzenden Data Lake war es nicht möglich, rollierende Datenbestände für 90 Tage SLA-konform zu verarbeiten, weswegen die geschäftlichen Anforderungen nicht erfüllt werden konnten.
Warum Databricks
  1. Azure Databricks bietet vollständig verwaltete und automatisch skalierende Cluster in der Cloud, die die Infrastrukturverwaltung vereinfachen
  2. Delta Lake-Caching hat Abfragen erheblich beschleunigt
  3. Kollaborative Notebooks mit integrierten ML-Bibliotheken ermöglichen Teams schnellere Innovation
Auswirkungen
  1. Deutlich gesenkte Kosten mit schnellerer Abfragezeit und weniger DevOps trotz steigender Datenmengen
  2. Steigerung der Teamproduktivität um 26 % mit einer vollständig verwalteten Plattform, die ETL, Analytics und ML in großem Umfang unterstützt
Kunde von Sam's
Anwendungsfall
  1. Sam's Club muss täglich Daten aus allen Bäckereifilialen verarbeiten, um Verfallsdaten von Lebensmitteln zu prognostizieren.
  2. Das Unternehmen betrieb mehr als 10 große Hadoop-Cluster, mehrere große Teradata-Instanzen und zahlreiche SQL-Datenbanken.
  3. Diese Infrastruktur war kostspielig, komplex in der Verwaltung und ungeeignet, um aktuelle differenzierte Tagesprognosen zu liefern.
Warum Databricks
  1. Zentralisieren der Datenanalysearchitektur auf Azure Databricks
  2. Delta Lake hat die Abfragegeschwindigkeit im Vergleich zu älteren Teradata- und Hadoop-Systemen erheblich reduziert und ermöglicht Echtzeitprognosen
  3. Kollaborative Workspaces führten zu Verbesserungen der Produktivität bei über 10 Workspaces, über 100 Benutzern und über 1000 Notebooks
Auswirkungen
  1. Reduzierte Infrastrukturkosten um 900.000 US-Dollar
  2. Die Analyse der Verarbeitung frischer Daten wurde von 7 Stunden auf 40 Minuten verkürzt.
  3. 10% weniger verdorbene Frischware dank verbesserter Prognosen (entspricht ca. 100 Mio. US-Dollar/Jahr)
vorheriger Pfeil
nächster Pfeil

Partnerökosystem

AUSGEWÄHLTE PARTNER

Privacera
Privacera-Produktdemo für
Hadoop-Migrationsdatenschutz-
Compliance auf Databricks
Streamsets
Verwalten von Big-Data-Pipelines
in der Cloud

Databricks und StreamSets haben eine Partnerschaft begründet,
um schnelles Entwerfen und Testen von Datenpipelines
für kritische Cloud-Workloads auf den Weg zu bringen.
Jetzt ansehen

WANDisco
Disruptionsfreie Migration von Hadoop-Analytics zu Spark in der Cloud
KL
Beschleunigen Sie Ihre Hadoop-Migration 
zu Databricks mit MLens

Migrieren Ihrer Daten und Workloads mit MLens
Mehr erfahren