Big Data in einem zentralen Datenraum beherrschen

Durch die Digitalisierung der Supply Chain die Datenflut in den Griff bekommen

Big Data
© natali_mis - stock.adobe.com
Bewerten
1 Bewertungen,
Durchschnitt 4,0

Die Begriffe „Big Data“, „IoT“, „Industrie 4.0“ und „Predictive Maintenance“ sind in aller Munde. Es wird viel darüber geredet, konzipiert, diskutiert. Jedem ist klar, dass die Konzepte, die hinter diesen Begriffen stecken, zunehmend an Wichtigkeit gewinnen. Aber es stellt sich dabei immer wieder folgende Frage:

„Wie kann mein Unternehmen diese Konzepte mit den bestehenden Prozessen und Systemen adaptieren und schrittweise von den Vorteilen profitieren?“

In einem gemeinsamen Projekt unserer Innovation & Research-Teams haben wir anhand eines durchgängigen Use Cases eine Antwort auf diese Frage erarbeitet.

Wohin mit den Daten? Und warum?

In jeder Millisekunde entstehen in Unternehmen immense Datenmengen in verschiedensten Systemen, in strukturierter und unstrukturierter Form – die Digitalisierung macht es möglich. Mehr und mehr Geschäftsprozesse werden digitalisiert, mehr und mehr Maschinen bekommen eine IoT-Schnittstelle. Doch wo landen diese Unmengen an Daten? Im großen Data Lake? Fließen die Daten ausschließlich in diesen Lake oder können sie auch intelligent aus dem Data Lake extrahiert und sinnvoll interpretiert werden?

Aus diesen Fragen ergeben sich zwei Hauptprobleme beim Handling großer Datenmengen:

  • Daten zum gleichen Geschäftsprozess liegen in verschiedenen Systemen, ohne dass es Schnittstellen zwischen diesen Systemen gibt.
  • Daten liegen im großen Data Lake ohne jegliche Kontextinformation wie beispielsweise einer Zuordnung zum Geschäftsprozess, in dem sie entstanden sind.

Für die Lösung dieser Probleme wird im Forschungsprojekt „Data4Services (D4S)“ ein zentraler Datenraum konzipiert, der alle prozessrelevanten Stamm- und Bewegungsdaten aus den beteiligten Systemen in einem abstrahierten Datenmodell ablegt. Die Daten werden dabei aus den am Geschäftsprozess beteiligten Systemen zum Zeitpunkt ihrer Entstehung in den zentralen Datenraum gepusht und behalten dabei ihre Semantik und Zuordnung zum jeweiligen Geschäftsprozess. Diese zentrale Datenplattform ist der optimale Ort für umfangreiches Daten-Monitoring und, im nächsten Schritt, zur Steuerung von operativen Prozessen.

Festlegung der Prozessschritte für das Daten-Handling

Als erstes empfehlen wir, die zu digitalisierenden Geschäftsprozesse in BPMN (Business Process Model and Notation) zu beschreiben. Hierbei wird definiert und festgelegt, welcher Prozessschritt in welchem System stattfinden soll. Hieraus folgt, welche Daten aus welchen Systemen in den Datenraum übertragen werden sollen und welche Funktionen in Drittsystemen aus dem Datenraum aufgerufen werden.

In den nächsten Schritten kann mit der Prozess-Engine dieser Geschäftsprozess in D4S konfiguriert, ausgeführt und überwacht werden.

Use Case – automatisierte Fertigung mit D4S

Im Use Case „Digitalisierte Supply Chain inkl. automatisierter Fertigung“ bestellt ein Endkunde Keramikbremsscheiben beim Produzenten myCompany:

  • Die Bestellung wird über D4S an myCompany übertragen.
  • D4S legt automatisch einen Kundenauftrag an und führt eine Verfügbarkeitsprüfung durch.
  • Liegt das Material nicht auf Lager, triggert das System regelgesteuert die Fertigung an. Hierzu wird automatisch ein Fertigungsauftrag angelegt.
  • Um zu fertigen, werden die Komponenten aus der Stückliste des Fertigungsauftrages benötigt. Für diese Komponenten wird wieder eine Verfügbarkeitsprüfung durchgeführt.
  • Anhand eines Regelwerks wird automatisiert entschieden, dass die Komponente „Keramikrohling“ beim Lieferant A bestellt werden soll, da sie nicht auf Lager liegt und auch nicht gefertigt werden soll.
  • D4S legt automatisch einen Kundenauftrag beim Lieferanten A an und der komplette Lieferprozess wird automatisiert angestoßen.
  • Sobald der Keramikrohling an myCompany geliefert wurde, wird die Produktion mit „Brennen“, „Fräsen“ und „Sortieren“ durchgeführt und die fertige Bremsscheibe an den Endkunden ausgeliefert.

Alle Daten dieses Geschäftsprozesses, seien es Belegdaten oder Maschinendaten, werden zentral in D4S gespeichert und stehen zur Auswertung oder zur Steuerung weiterer Folgeprozesse zur Verfügung.

Das folgende Video zeigt genau diesen Prozess:

Im nächsten Abschnitt wird beschrieben, wie die Maschinendaten des Brennofens im Kombination mit den Fertigungsauftragsdaten und Materialstammdaten für eine Vorhersage der Ausfallwahrscheinlichkeit des Brennofens verwendet werden können.

Vorhersagen treffen durch Training am Modell

Um eine Vorhersage über die Produktqualität maschinell zu treffen, muss zunächst mithilfe von historischen Daten ein Modell trainiert werden. Für ein erfolgreiches Training müssen einige Vorbedingungen erfüllt sein:

  • Es muss eine signifikante Menge an historischen Daten vorhanden seien, um die reale Datenverteilung abbilden zu können.
  • Hierzu wurde ein Datensimulator implementiert, welcher die Brennzeit für normale und fehlerhafte Durchläufe als Zeitreihe generiert.
  • Es müssen Labels vorhanden sein, also die Bezeichnung des Fehlerfalls, bzw. "0" oder "1" für "Gutteil" oder "Schlechtteil". Es muss außerdem eine Zuordnung der Labels zu Maschinendaten geben.
  • Der Datensimulator generiert hierzu eine "0" für normale und eine "1" für fehlerhafte Durchläufe.
  • Es muss ein kausaler Zusammenhang zwischen Maschinendaten und Labels existieren. Je stärker dieser Zusammenhang ist, desto einfacher kann ein Modell trainiert werden.
  • Der Datensimulator wurde so konzipiert, dass bestimmte Muster in den Zeitreihen vor einem Ausfall auftauchen, die vom trainierten Modell erkannt werden sollen.
D4S Use case

Training mit „Gedächtnis­neuronen“

Bei dem gewählten Modell handelt es sich um ein Recurrent Neural Network (RNN), ein Typ eines neuronalen Netzes, das sich durch seine Gedächtnisneuronen für Zeitreihendaten eignet. Das Netz erhält als Input die letzte Durchlaufzeit, welche zusammen mit den Gedächtnisinformationen, also den akkumulierten vergangenen Durchlaufzeiten, verarbeitet wird, um die Wahrscheinlichkeit eines Ausfalls beim nächsten Durchlauf zu generieren.

Beim Training wurde ein Modell mit zufällig initialisierten Parametern solange mit vorher generierten Daten gefüttert bzw. optimiert oder angepasst, bis es in der Lage war, zuverlässig die Ausfallwahrscheinlichkeit des nächsten Durchlaufs vorherzusagen.

Der Service inkl. Modell wurde in der Cloud deployed. Die zuletzt generierte Durchlaufzeit wird mittels der Software Apache Kafka vom Brennofen zum Service übertragen und von dem trainierten Modell zu einer Ausfallwahrscheinlichkeit verarbeitet, die wiederum mit weiteren Kennzahlen in einem Dashboard dargestellt wird.

Prozesse mit Hologrammen visualisieren

„Ein Bild sagt mehr als tausend Worte“ ist eine bekannte Metapher für den Mehrwert von bildlichen Darstellungen gegenüber nicht-visuellen Informationen. Mit den neuen Möglichkeiten der Augmented Reality-Technologie (AR) gewinnt diese Metapher eine ganz neue Bedeutung: Ein Bild kann dreidimensional als Hologramm an die richtige Stelle in der Realität eingeblendet werden und erhält eine noch viel höhere potenzielle Informationspräsenz und -qualität.

Beispielsweise haben wir im Projekt die Fertigungsanlage mit einem 3D-Modell hinterlegt und dieses Modell als Basis für die Verknüpfung der digitalen mit der realen Welt benutzt. Sämtliche anfallenden Informationen können so an der richtigen Stelle in das Blickfeld des Betrachters eingeblendet werden, der über ein AR-fähiges Endgerät verfügt. Die Prozessvisualisierung im technischen Bereich kann so auf ein ganz neues Niveau gehoben werden.

Virtual Reality

Auf den jeweiligen Kontext angepasste Visualisierungen verdeutlichen Zusammenhänge, die aus der reinen Anschauung des realen Objektes und dem reinen Datenbestand allein nicht unmittelbar klarwerden. So entsteht ein leicht verständlicher Zugang zum Konzept des digitalen Zwillings, der digitalen Repräsentanz eines materiellen Objekts aus der realen Welt. Die Überblendung der Realität mit dreidimensional aufbereiteten holografischen Informationen ermöglicht digitale Zwillinge, die noch viel mehr können, als den aktuellen Zustand abzubilden. Mit digitalen Zwillingen können künftige Entwicklungen simuliert werden, ohne Risiken in der realen Welt in Kauf nehmen zu müssen. Man spricht hier von „4D Information Modeling“: Zu den drei räumlichen Dimensionen kommt die zeitliche Dimension hinzu. Digitale Zwillinge können Anlagen über den gesamten Lebenszyklus abbilden – vom Design über die Erstellung und den Betrieb bis hin zur Wiederverwertung. In zukünftigen Beiträgen in unsere Onlinemagazin werden wir das Konzept des digitalen Zwillings genauer erläutern.

Co-Autoren

Co-Autor Gunter Teichmann Leiter Innovation & Research bei SALT Solutions am Standort Dresden

Co-Autor Gunter Teichmann

Leiter Innovation & Research bei SALT Solutions am Standort Dresden

Co-Autor Michael Hornung

Software Architect bei SALT Solutions

Keine Updates
mehr verpassen:
1
© natali_mis - stock.adobe.com

Zurück