Vorausschauende Wartung
Was ist vorausschauende Wartung?
Kurz gesagt geht es bei der vorausschauenden Wartung darum, herauszufinden, wann ein Asset gewartet werden sollte und welche spezifischen Wartungsaktivitäten durchgeführt werden müssen. Dabei wird der tatsächliche Zustand der Anlage zugrunde gelegt und nicht ein fester Zeitplan, sodass Sie die Betriebszeit und Produktivität maximieren können. Ziel ist es, Ausfälle vorherzusehen und zu verhindern und die richtigen Wartungsroutinen durchzuführen, um kostspielige Ausfallzeiten der Anlagen zu reduzieren.
Mithilfe von IoT- und Sensordaten, die von den Geräten gestreamt werden, ermöglicht die vorausschauende Wartung Maschinenausfälle effektiv vorherzusagen. Die Daten erkennen Abweichungen, verstehen Warnsignale und identifizieren sämtliche Muster, die auf einen möglichen Ausfall hinweisen könnten. Hersteller können Analytics und Machine Learning nutzen, um die Wahrscheinlichkeit eines Maschinenausfalls genau vorherzusagen. Dadurch können Abhilfemaßnahmen frühzeitig geplant (z. B. Ersatzteilbestellung, Reparaturplanung usw.) und möglichst effektiv eingeleitet werden, wodurch ungeplante Ausfallzeiten sowie hohe Personal- und Ressourcenkosten vermieden werden.
Warum ist vorausschauende Wartung wichtig?
Durch den Einsatz von IoT und Data Analytics können Ausfälle um 50 % reduziert werden. (McKinsey)
Welche Fähigkeiten von Databricks machen den Unterschied?
- Databricks Lakehouse nutzt Technologien wie Delta, Delta Live Tables, Autoloader und Photon und bietet Kunden so die Möglichkeit, Daten für Entscheidungen in Echtzeit bereitzustellen.
- Lakehouse für MFG unterstützt umfangreichste Datenjobs in Quasi-Echtzeitintervallen. Beispielsweise generieren Kunden fast 400 Mio. Ereignisse pro Tag aus Transaktionsprotokollsystemen, die mit 15-Sekunden-Intervallen arbeiten. Da Berichterstellung und Analyse infolge der Datenverarbeitung ständig unterbrochen würden, laden die meisten Kunden aus dem Handel ihre Daten in einem nächtlichen Batch in ihr Data Warehouse. Bei manchen Unternehmen erfolgt der Ladevorgang sogar nur wöchentlich oder gar monatlich.
- Eine ereignisgesteuerte Lakehouse-Architektur stellt eine einfachere Methode zur Erfassung und Verarbeitung von Batch- und Streaming-Daten dar als herkömmliche Ansätze wie etwa Lambda-Architekturen. Eine solche Architektur verwaltet die Erfassung von Änderungsdaten und sorgt für ACID-Konformität der Transaktionen.
- Delta Live Tables vereinfacht das Anlegen von Datenpipelines und erstellt automatisch Data Lineages zur Unterstützung der laufenden Verwaltung.
- Das Lakehouse ermöglicht die Erfassung von Datenströmen in Echtzeit und die Analyse von Streaming-Daten. Zur Durchführung von Analyseaufgaben erfordern Data Warehouses eine Extraktion, eine Transformation und das Laden sowie eine zusätzliche Extraktion aus dem Data Warehouse.
- Photon bietet eine rekordverdächtige Abfrageleistung: Benutzer können selbst größte Datasets abfragen, um in BI-Tools Echtzeitentscheidungen zu treffen.