Da Unternehmen im vergangenen Jahr gezwungen waren, sich an eine verteilte Remote-Belegschaft anzupassen, hat sich die Cloud-Einführung um +14 % in einem beispiellosen Tempo beschleunigt. Das Ergebnis lag 2 % oder 13 Mrd. US-Dollar über den Prognosen für 2020 aus der Zeit vor der Pandemie – und in den nächsten Jahren stehen möglicherweise Migrationen von On-Premises in die Cloud im Wert von über 600 Mrd. US-Dollar an. Durch diese Verlagerung in die Cloud gewinnt eine neue Generation von Daten- und Analyseplattformen zunehmend an Bedeutung, um Innovationen voranzutreiben und digitale Transformationsstrategien in Unternehmen umzusetzen. Viele Unternehmen haben jedoch immer noch mit der Komplexität, der nicht skalierbaren Infrastruktur und dem hohen Wartungsaufwand ihrer Legacy- Hadoop -Umgebungen zu kämpfen und opfern letztendlich den Wert ihrer Daten und riskieren im Gegenzug ihren Wettbewerbsvorteil. Um diese Herausforderung zu meistern und weitere (manchmal verborgene) Möglichkeiten in ihren Daten zu erschließen, setzen Unternehmen auf offene, einfache und kollaborative cloudbasierte Daten- und Analyseplattformen wie die Databricks Lakehouse Platform. In diesem Blog erfahren Sie, welche Herausforderungen Unternehmen dazu bewegen, moderne cloudbasierte Lösungen zu erkunden, und welche Rolle die Lakehouse-Architektur dabei spielt, die nächste Welle datengesteuerter Innovationen anzustoßen.
Hadoops verteiltes Dateisystem (HDFS) war bei seiner Einführung eine bahnbrechende Technologie und wird eine Ikone im Verlauf der Datenverarbeitung bleiben. Durch seine Einführung waren Unternehmen nicht mehr an die Grenzen relationaler Datenbanken gebunden, was zur Entstehung moderner Big-Data-Speicher und schließlich zu Cloud-Data-Lakes führte. Trotz all seines Ruhms und der Fanfaren bis zum Jahr 2015 hatte Hadoop Schwierigkeiten, das wachsende Potenzial aller Datentypen zu unterstützen – insbesondere auf Enterprise Scale. Als sich die Datenlandschaft und die damit verbundenen Geschäftsanforderungen weiterentwickelten, hatte Hadoop letztendlich Schwierigkeiten, seine Versprechen weiterhin zu halten. Infolgedessen haben Unternehmen begonnen, cloudbasierte Alternativen zu erkunden, und die Migrationsrate von Hadoop in die Cloud nimmt stetig zu.
Teams migrieren aus verschiedenen Gründen von Hadoop; oft ist es eine Kombination aus „Push“- und „Pull“-Faktoren. Einschränkungen bei bestehenden Hadoop-Systemen und hohe Lizenz- und Verwaltungskosten drängen Teams dazu, Alternativen zu erkunden. Sie werden auch von den neuen Möglichkeiten angezogen, die moderne Cloud-Datenarchitekturen bieten. Obwohl die Architekturanforderungen je nach Unternehmen variieren, sehen wir mehrere gemeinsame Faktoren, die Kunden zu der Erkenntnis bringen, dass es an der Zeit ist, sich zu verabschieden. Dazu gehören:

Zusätzlich zu all den oben genannten Herausforderungen gibt es echte Bedenken hinsichtlich der langfristigen Zukunftsfähigkeit von Hadoop. Im Jahr 2019 kam es zu einem massiven Zerfall im Hadoop-Bereich. Google, dessen bahnbrechendes Paper zu MapReduce aus dem Jahr 2004 die Grundlage für die Entwicklung von Apache Hadoop bildete, hat die Nutzung von MapReduce vollständig eingestellt, wie Urs Hölzle, SVP of Technical Infrastructure bei Google, tweetete. Es gab auch einige sehr hochkarätige Fusionen und Übernahmen in der Welt von Hadoop. Des Weiteren hat 2020 ein führender Hadoop-Anbieter sein Produktset von einem Hadoop-zentrierten Ansatz abgewandt, da Hadoop mittlerweile als „eher eine Philosophie als eine Technologie“ gilt. Schließlich kündigte die Apache Software Foundation 2021 die Einstellung von zehn Projekten aus dem Hadoop-Ökosystem an. Diese zunehmenden Bedenken, gepaart mit der beschleunigten Notwendigkeit der Digitalisierung, haben viele Unternehmen dazu veranlasst, ihre Beziehung zu Hadoop neu zu bewerten.
Eine Lakehouse-Architektur ist die ideale Datenarchitektur für datengesteuerte Organisationen. Es kombiniert die besten Eigenschaften von Data Warehouses und Data Lakes, um eine einzige hochleistungsfähige Lösung für alle Daten-Workloads bereitzustellen. Die Lakehouse-Architektur unterstützt eine Vielzahl von Anwendungsfällen, z. B. Streaming-Datenanalysen für BI, Data Science und KI. Warum lieben Kunden die Databricks Lakehouse Platform?
Eine Lakehouse-Architektur kann im Vergleich zu herkömmlichen Hadoop-Umgebungen, die Unternehmen zur Einführung der Cloud drängen, erhebliche Vorteile bieten. Dazu gehören auch Kunden, die versucht haben, Hadoop in der Cloud zu verwenden, aber nicht die erwarteten oder gewünschten Ergebnisse erzielen. Wie R. Tyler Croy, Director of Engineering bei Scribd, erklärt: „Databricks versprach eine Optimierung von 30 % bis 50 % für die meisten herkömmlichen Apache Spark™-Workloads. Aus Neugier habe ich mein Kostenmodell überarbeitet, um den Preis von Databricks und die potenziellen Optimierungen der Spark-Jobs zu berücksichtigen. Nachdem ich die Zahlen angepasst hatte, stellte ich fest, dass Databricks bei einer Optimierungsrate von 17 % unsere Infrastrukturkosten für Amazon Web Services (AWS) so stark senken würde, dass sich die Kosten für die Databricks-Plattform selbst amortisieren würden. Nach unserer ersten Evaluierung war ich bereits von den Features und den Verbesserungen der Entwicklergeschwindigkeit, die Databricks bieten würde, überzeugt. Als ich die Zahlen in meinem Modell durchging, wurde mir klar, dass ich es mir nicht leisten konnte, Databricks nicht einzuführen!“
Scribd ist damit nicht allein: Zu den weiteren Kunden, die von Hadoop auf die Databricks Lakehouse Platform migriert sind, gehören:
Hadoop wurde nie für den Betrieb in Cloud-Umgebungen entwickelt. Während cloudbasierte Hadoop-Dienste im Vergleich zu ihren on-premises-Pendants schrittweise Verbesserungen aufweisen, bleiben beide im Vergleich zur Lakehouse-Architektur zurück. Beide Hadoop-Instanzen weisen eine geringe Performance, eine niedrige Produktivität und hohe Kosten auf und sind nicht in der Lage, anspruchsvollere Datenanwendungsfälle im großen Maßstab zu bewältigen.
Entscheidungen zur Cloud-Migration sind geschäftliche Entscheidungen. Sie zwingen Unternehmen, sich die Realität der Bereitstellung ihrer aktuellen Systeme genau anzusehen und zu bewerten, was sie für ihre kurz- und langfristigen Ziele erreichen müssen. Da Investitionen in KI weiter an Fahrt gewinnen, müssen Führungskräfte aus den Bereichen Daten, Analytik und Technologie eine entscheidende Rolle dabei spielen, über die bestehende Hadoop-Architektur hinauszudenken und sich die Frage zu stellen: „Bringt uns das dorthin, wo wir hin müssen?“
Wenn die Ziele klar sind, ergeben sich wichtige technische Details wie das Technologie-Mapping, die Bewertung der Cloud-Ressourcennutzung und des Kosten-Performance-Verhältnisses sowie die Strukturierung eines Migrationsprojekts, das Fehler und Risiken minimiert. Am wichtigsten ist jedoch, dass Sie datengesteuert zu der Überzeugung gelangen, dass es an der Zeit ist, Ihre Beziehung zu Hadoop neu zu bewerten. Erfahren Sie mehr darüber, wie die Migration von Hadoop die Geschäftsergebnisse für Ihre Datenanwendungsfälle beschleunigen kann.
1. Quelle: Gartner Market Databook, Goldman Sachs Global Investment Research
(Dieser Blogbeitrag wurde mit KI-gestützten Tools übersetzt.) Originalbeitrag
Líder de dados
November 6, 2025/8 min de leitura
Líder de dados
December 4, 2025/3 min de leitura


