Direkt zum Hauptinhalt

Digitaler Zwilling

DATABRICKS KOSTENLOS TESTEN

Was ist ein digitaler Zwilling?

Die klassische Definition des digitalen Zwillings lautet: „Ein digitaler Zwilling ist ein virtuelles Modell, das ein physisches Objekt präzise wiedergibt.“ – IBM[KVK4] Ein digitaler Zwilling erfasst mithilfe verschiedener IoT-Sensoren (operative Technologiedaten (OT)) und Unternehmensdaten (Informationstechnologie (IT)) System- und Prozesszustandsdaten für einen diskreten oder kontinuierlichen Fertigungsprozess. Damit wird ein virtuelles Modell erstellt, das anschließend zur Durchführung von Simulationen, zur Untersuchung von Leistungsaspekten und zur Gewinnung möglicher Erkenntnisse verwendet wird.

Das Konzept des digitalen Zwillings ist nichts Neues. Berichten zufolge wurde die erste Anwendung vor über 25 Jahren in den frühen Phasen des Fundament- und Kofferdammbaus für die Londoner Heathrow Express-Einrichtungen zur Überwachung und Vorhersage der Verpressung von Fundamentbohrungen eingesetzt. In den Jahren seit dieser ersten Anwendung haben Edge Computing, KI, Datenkonnektivität, 5G-Konnektivität und die Verbesserungen durch das Internet der Dinge (IoT) dafür gesorgt, dass digitale Zwillinge kosteneffektiv geworden und aus modernen datengesteuerten Unternehmen nicht mehr wegzudenken sind.

Digitale Zwillinge sind in der Fertigungsindustrie mittlerweile so präsent, dass der globale Branchenmarkt Prognosen zufolge im Jahr 2026 ein Volumen von 48 Mrd. US-Dollar erreichen wird. Diese Zahl wird – getrieben von den Erfolgen der Industrie 4.0 – von 3,1 Mrd. Dollar im Jahr 2020 mit einer Wachstumsrate von jährlich sage und schreibe 58 % steigen.

Von der verarbeitenden Industrie wird heutzutage erwartet, dass sie alle Prozesse in ihrer Wertschöpfungskette – von Produktentwicklung und -design über Betriebsabläufe und Lieferkettenoptimierung bis hin zur Einholung von Kundenfeedback – rationalisiert und optimiert, um auf rasant wachsende Anforderungen zeitnah reagieren zu können. Die Kategorie der digitalen Zwillinge ist breit gefächert und adressiert eine Vielzahl von Herausforderungen in den Bereichen Fertigung, Logistik und Transport.

Zu den Anforderungen, mit denen sich die Fertigungsbranche am häufigsten konfrontiert sieht und die von digitalen Zwillingen bewältigt werden, gehören die folgenden:

  • Produktkonzepte werden immer komplexer, was zu höheren Kosten und immer längeren Entwicklungszeiten führt.
  • Die Lieferkette ist undurchschaubar.
  • Produktionsanlagen sind nicht optimiert: Es treten Leistungsschwankungen und unbekannte Defekte auf, und Prognosen für Betriebskosten sind vage.
  • Schlechtes Qualitätsmanagement entsteht durch ein übermäßiges Vertrauen in die Theorie und die Verwaltung durch die einzelnen Abteilungen.
  • Die reaktiven Wartungskosten sind zu hoch und führen zu übermäßig langen Ausfallzeiten oder Prozessunterbrechungen.
  • Die Zusammenarbeit zwischen den Abteilungen ist nicht stimmig.
  • Informationen zur Kundennachfrage fehlen – und damit auch das Feedback in Echtzeit.

Warum ist das wichtig?

Die Industrie 4.0 und die darauf folgenden Bemühungen um eine intelligente Lieferkette haben erhebliche Fortschritte bei der betrieblichen Optimierung und beim Aufbau flexibler Lieferketten gemacht. Ohne die Technologie des digitalen Zwillings wären diese Behmühungen allerdings mit erheblichen Kosten verbunden gewesen. Stellen Sie sich einmal vor, welche Kosten anfallen würden, wenn man in einer Ölraffinerie die Prozessbedingungen für die Rohöldestillation ändern würde, um die Produktion von Diesel in der einen Woche und von Benzin in der nächsten Woche zu verbessern, um der veränderten Nachfrage gerecht zu werden und den maximalen wirtschaftlichen Nutzen sicherzustellen. Oder auch, wie man eine ganz einfache Lieferkette nachbilden kann, um das Risiko zu modellieren. Das Erstellen eines physischen Zwillings für eine Lieferkette ist weder finanziell noch technisch möglich.

Betrachten wir die Vorteile, die digitale Zwillinge für die Fertigungsbranche bieten:

Anwendungsfälle für digitale Zwillinge

  • Produktdesign und -entwicklung werden zu geringeren Kosten und schneller durchgeführt, da iterative Simulationen mit mehreren Randbedingungen das beste oder am stärksten optimierte Design liefern. So werden etwa alle Verkehrsflugzeuge mit digitalen Zwillingen entworfen.
  • Digitale Zwillinge geben Aufschluss darüber, wie lange Bestände reichen, wann sie wieder aufgefüllt werden müssen und wie Störungen in der Lieferkette minimiert werden können. Die Öl- und Gasindustrie nutzt an der Lieferkette orientierte digitale Zwillinge, um Engpässe bei Lagerung und Lieferung im Rahmen der Lieferkette zu verringern, die Entladung von Tankern zu planen und die Nachfrage mit externen Effekten zu modellieren.
  • Ständige Qualitätskontrollen der produzierten Artikel mit ML- und KI-generierten Rückmeldungen sorgen präventiv für eine verbesserte Produktqualität. So erfolgt etwa bei der Fahrzeuglackierung die Endkontrolle mithilfe von maschinellem Sehen auf Grundlage digitaler Zwillinge.
  • Auf der Suche nach dem optimalen Zeitpunkt für den Austausch eines Teils – vor Beeinträchtigung oder Zusammenbruch des Prozesses, aber nach möglichst langer Nutzung der Komponente – liefert der digitale Zwilling Echtzeitfeedback. So werden digitale Zwillinge zum Rückgrat eines Instrumentariums für die Verwaltung von Ressourcenleistungen.
  • Digitale Zwillinge bieten die Möglichkeit, mehrere Abteilungen zu synchronisieren. Zu diesem Zweck stellen sie die erforderlichen Anweisungen modular bereit, um den vorgesehenen Durchsatz zu erreichen. Dadurch werden digitale Zwillinge zum Zentrum von Kaizen-Events und optimieren den Ablauf von Fertigungsprozessen.
  • Kundenfeedbackschleifen können durch Eingaben aus dem Kundenverhalten am Verkaufsort, Kaufpräferenzen oder der Produktleistung modelliert und dann ihrerseits in den Produktentwicklungsprozess integriert werden. So entsteht ein geschlossener Kreislauf, der ein optimales Produktdesign ermöglicht.

Inwiefern machen die Fähigkeiten von Databricks einen Unterschied?

  • Databricks Lakehouse nutzt Technologien wie Delta, Delta Live Tables, Autoloader und Photon und bietet Kunden so die Möglichkeit, Daten für Entscheidungen in Echtzeit bereitzustellen.
  • Lakehouse für MFG unterstützt umfangreichste Datenjobs in Quasi-Echtzeitintervallen. Beispielsweise generieren Kunden fast 400 Mio. Ereignisse pro Tag aus Transaktionsprotokollsystemen, die mit 15-Sekunden-Intervallen arbeiten. Da Berichterstellung und Analyse infolge der Datenverarbeitung ständig unterbrochen würden, laden die meisten Kunden aus dem Handel ihre Daten in einem nächtlichen Batch in ihr Data Warehouse. Bei manchen Unternehmen erfolgt der Ladevorgang sogar nur wöchentlich oder gar monatlich.
  • Eine ereignisgesteuerte Lakehouse-Architektur stellt eine einfachere Methode zur Erfassung und Verarbeitung von Batch- und Streaming-Daten dar als herkömmliche Ansätze wie etwa Lambda-Architekturen. Eine solche Architektur verwaltet die Erfassung von Änderungsdaten und sorgt für ACID-Konformität der Transaktionen.
  • Delta Live Tables vereinfacht das Anlegen von Datenpipelines und erstellt automatisch Data Lineages zur Unterstützung der laufenden Verwaltung.
  • Das Lakehouse ermöglicht die Erfassung von Datenströmen in Echtzeit und die Analyse von Streaming-Daten. Zur Durchführung von Analyseaufgaben erfordern Data Warehouses eine Extraktion, eine Transformation und das Laden sowie eine zusätzliche Extraktion aus dem Data Warehouse.
  • Photon bietet eine rekordverdächtige Abfrageleistung: Benutzer können selbst größte Datasets abfragen, um in BI-Tools Echtzeitentscheidungen zu treffen.

Zusätzliche Ressourcen

Zurück zum Glossar