Was kann Big Data in der Logistik leisten und wo kommt die Technik an ihre Grenzen?

Lassen sie uns zunächst ein paar Begriffe klären, um uns dem Thema „Big Data und Logistik“  zu nähern. Man möge mir nachsehen, wenn ich dabei etwas pointiert werde. Ich denke, das hilft dabei, ein primäres Verständnis von Big Data zu bekommen – gibt es mittlerweile doch so viele Beiträge und Begriffsdefinitionen zu diesem Gegenstand, dass sich schnell Verwirrung breitmacht, wo man eigentlich Klärung finden sollte.

Big Data meint typischerweise die Auswertung größter Datenmengen mit dem Ziel, Muster zu erkennen und darauf basierend Vorschlagswerte und Vorhersagen zu machen. Im Alltag begegnet uns das dann in Sätzen wie: „….die Mehrzahl der Käufer, die dieses Produkt gekauft haben, haben auch folgende Produkte gekauft…“ Oder im Arbeitsumfeld: „….wenn diese Umgebungsparameter (Temperatur, Vibration, Laufzeit…) beobachtet wurden, dann wird die Anlage mit 95-prozentiger Wahrscheinlichkeit innerhalb der nächsten 5 Tage auf Störung gehen.“

Unterschiedliche Perspektiven

Wenn wir Big Data in mehrere Perspektiven zerlegen, dann können wir im Hinblick auf nutzbringende Umsetzungen verschiedene Aspekte diskutieren:

  1. Perspektive: Big Data bezieht sich vor allem auf große Datenmengen
    Hier können wir lernen, wie wir mit großen Datenmengen, die zum Teil in zeitlich dichter Abfolge entstehen, umgehen. Die Techniken, die im Big Data-Umfeld genutzt werden, erlauben uns über neue Anwendungsfelder nachzudenken, die mit bisherigen Techniken nicht oder viel zu teuer umsetzbar waren.
  2. Perspektive: Algorithmen: Am Anfang jeder digitalen Verarbeitung stehen einzelne Datenelemente. Wie nutzen wir diese?
    • Wir nutzen Daten direkt und reagieren auf das einzelne Datum.
    • Wir transformieren Daten zu Informationen in dem wir mithilfe analytischer Verfahren Trends, Aggregationen, Durchschnitte, etc. erkennen / errechnen und diese als Grundlage von Handlungen nutzen.
    • Wir stellen das eigene Denken ein und übergeben die Daten einem System, das uns mithilfe von maschinellem Lernen (bis hin zu deep learning) Vorschläge errechnet, die wir nicht mehr im Detail nachvollziehen können (das ist das Wesen von maschinellem Lernen). Was der Rechner tut, ist nicht explizit steuer- und beeinflussbar. Er erkennt anhand mehr oder weniger komplexer statistischer Verfahren, was die beste Lösung ist.

Betrachten wir also zu Beginn Perspektive 1:

Folgende Facetten sollten wir uns dabei vor Augen führen: Wenn wir von neuen Herausforderungen sprechen – wie Industrie 4.0 (I4.0) oder Internet der Dinge (IoT) – dann meinen wir in Summe die durchgängige digitale Abbildung aller Prozessschritte und den digitalen Zwilling aller Teilnehmer. Das beinhaltet dann ERP, CRM, Shopsysteme ( also die Auftragsebene), Fertigungssteuerungs- (MES) und Lagerverwaltungssysteme (LVS) aber auch Transportsysteme, Werkstattsysteme (OPC-UA basiert), Materialflusssysteme (MFS), fahrerlose Transportsysteme (FTS) und Staplerleitsysteme bis hin zu Maschinensteuerungen (S7, Rockwell, Fanuc etc.) und nicht zuletzt die aufkommende Vielzahl an Sensoren in Maschinen, an Werkzeugen, an Ladungsträgern, an Produkten und Materialien, ja selbst am Gebäude oder am Menschen.

Wenn wir davon ausgehen, dass Produkte immer individueller sowie in kleineren Stückzahlen gefertigt werden und Produktion und Logistik immer variabler werden, dann müssen wir damit rechnen, dass die Anzahl der Aufträge, Vorgänge und der zu jedem Zeitpunkt und an jedem Ort zu beobachtenden Objekte derartig große Datenmengen und Komplexitäten erzeugen, dass wir neue Technologien brauchen, um dieses Datenaufkommen zu beherrschen.

Für uns in Produktion und Logistik klingt das wie ein Tsunami, der auf uns zu rollt. Es gibt aber auch gute Nachrichten, denn was für uns wie ein einziges Datenmonster aussieht, ist für Big Data-Experten ihr alltäglicher Arbeitsgegenstand. Das bedeutet auch, dass die Techniken, die nötig sind, um mit diesen Datenmengen umzugehen, existieren. Wir arbeiten im Rahmen eines großen Projektes seit einiger Zeit mit derartigen Techniken. Es ist in der Tat beeindruckend, was man damit alles anstellen kann.

Neues Denken gefordert

Die schlechte Nachricht ist aber, dass man bekannte Lösungen neu denken muss, denn die bekannten ERP- und MES-Systeme können nicht portiert werden. Nun kann man aber nicht über Nacht alles wegwerfen und neu machen. Wir haben daher einen Weg gefunden, vorhandene Systeme über die Systemgrenzen und sogar über Unternehmensgrenzen hinweg zu einem Gesamtprozess zusammenzuführen. Dabei nutzen wir, wann immer es der Anwendungsfall erlaubt, die vorhandenen Systeme einfach weiter. Gleichzeitig setzen wir auf die Möglichkeiten, große Datenmengen schnell und effizient zu synchronisieren und zu verarbeiten, um diese vorhandenen Funktionen mächtiger zu machen. Gleichzeitig sehen wir einzelne Prozessschritte, die entweder heute nicht unterstützt werden oder bei denen vorhandene Systemfunktionen einfach schlecht sind. Hier bieten wir neue Funktionen an, die diesen Schritt abdecken, sodass nun ein durchgängiger und wenn gewünscht auch hoch automatisierter Prozess entsteht.

Diese Erfahrungen zeigen bereits heute, wie uns diese Techniken dabei unterstützen die Vorstellungen aus I4.0 und IoT umzusetzen, ohne große Investitionen tätigen zu müssen. Dieser Weg erlaubt auch kleine, sehr sinnvolle Schritte zu gehen und die Unternehmen bei der Umsetzung der neuen Anforderungen zu begleiten. Schlagworte wie „schema on read“ und Datentechnologien aus dem NoSQL-Umfeld sowie Lösungsansätze auf Basis von Micro-Services geben uns die Freiheit und Sicherheit, heute etwas ganz pragmatisch zu beginnen, dass wir morgen sinnvoll weiter nutzen können, selbst wenn wir diese Nutzungen ändern und erweitern. In der Vergangenheit kam man regelmäßig an einen Punkt, an dem man Lösungen umarbeiten oder neu bauen musste, da man nicht alles im Datendesign richtig bedacht hatte.

Werfen wir noch einen Blick auf Perspektive 2:

Fall a: Wir reagieren direkt auf das einzelne Datum

Wir werden auch morgen noch in vielen Fällen direkt durch Programme auf erkannte Zustände (und nichts anderes sind entstandene einzelne Daten) reagieren. Diese Daten werden immer mehr in (near) realtime erkannt, Prozesse werden sehr viel feingliedriger abgebildet und gesteuert. Dazu kommt eine steigende Automatisierung oder zumindest Teilautomatisierung. Und die Wechsel von einem Auftrag / Vorgang zum nächsten werden in viel engeren Zeitzyklen erfolgen, als das heute der Fall ist. Auch hier haben wir durch erste Erfahrungen gesehen, dass dies möglich ist und dass wir frei zugängliche Software (open source) dafür einsetzen können. Diese bietet mittlerweile eine  Leistungsfähigkeit, die teuer gekaufte Lösungen noch vor wenigen Jahren nicht im Ansatz erreichten. Open source-Programme lassen sich außerdem auf Rechnerstrukturen betreiben, die sehr viel günstiger sind als bei monolithische Systemen, die große und teure Server verlangen.

Fall b: Algorithmen

Diese Anwendungsfälle sind quasi der Normalfall für Big Data Systeme. Wir nutzen hier Streaming-Lösungen, um in Echtzeit Daten zum Zeitpunkt ihrer Entstehung zu lesen und in parallelen Verarbeitungsschritten hoch performant der Verarbeitung zuzuführen. Wenn wir also eine Situation haben, in der wir erkennen müssen, wo auf der Welt in einer Vielzahl von Systemen welcher Zustand besteht und wohin ein Auftrag gelegt werden muss, dann können wir dies im Bruchteil einer Sekunde erkennen, während der Kunde im Internet in unserer Anwendung aktiv ist. Wir können ihm verlässlich sagen, ob und wann sein Auftrag erfüllt werden kann. Wenn der Kunde seine Entscheidung dann getroffen hat, kann es durchaus sinnvoll sein, zwei vorhandene Systeme zu orchestrieren.

So können wir im ersten ERP-System beispielsweise den Kundenauftrag erzeugen, der später die Auslieferung umsetzen wird, und gleichzeitig eine Bestellung für die Konzerntochter anlegen. Im zweiten ERP-System dieser Konzerntochter erzeugen wir den Kundenauftrag (oder die Umlagerbestellung, je nachdem wie der interne Prozess gestaltet werden soll). Welches Tochterwerk genutzt wird, kann durch Regelwerke beeinflusst werden. Ist der Kunde ein „A-Kunde“, dann dürfen auch regional weit entfernte Werke zum Einsatz kommen. Die Voraussetzung hierfür wäre aber, dass die Bestände und Kapazitätsauslastungen eine termingerechte Belieferung gewährleisten. Es sind also eine Vielzahl von Informationen aus sehr vielen Systemen zu berücksichtigen, um während der Onlinesitzung des Kunden eine Aussage zu treffen.

Ähnlich kritisch wie ungeduldige Kunden am Bildschirm sind Maschine-zu-Maschine-Kopplungen zukünftig zu sehen. Wenn wir tatsächlich in I4.0 Welten vorstoßen, dann sollen teilautonome Systeme ihre Umgebungsparameter beobachten, um auf der aktuellen Datenlage eine möglichst schnelle Entscheidung zu treffen. Die Produktion und der Materialfluss dürfen nicht stoppen. Auch diese Anforderungen lassen sich mit dem Lösungsansatz hervorragend lösen und mit den noch nicht umgestellten, heute schon laufenden Systemen kombinieren.

Fall c: Denkende Maschinen

Für wenige Anwendungen erscheinen KI Ansätze tatsächlich heute schon sinnvoll. Nehmen wir dieses Beispiel: Ein Kunde von uns setzt für spezielle Produkte spezifische Ladungsträger ein, um diese zu seinem Kunden zu transportieren. Sind die Ladungsträger nicht da, muss die Produktion gestoppt werden. Um die Unsicherheit im Rücklauf auszugleichen, werden also mehr Ladungsträger angeschafft, als eigentlich nötig. Eine verlässlichere Vorhersage zur Verfügbarkeit der Ladungsträger wäre also eine deutliche Verbesserung. Diese Aussage ist durch eine Vielzahl von Faktoren bestimmt. Man weiß, dass je nach Ladungsträgertyp oder Kunde und dort tätigen Disponenten Unterschiede bestehen. Die Erfahrungswerte von heute sind aber recht ungenau. Dies könnte ein Anwendungsfall für eine Vorhersage werden.

Insgesamt aber ist das Problem, dass man in Produktions- und Logistikanforderungen nicht mit einer bestimmten Wahrscheinlichkeit rechnen kann. Man kann einem KI-System keine Nebenbedingungen, die zu beachten sind, aufzwingen. Das ist ein Grundsatzproblem, das bisher nicht gelöst ist (zumindest kennt der Autor keinen solchen Ansatz). Es ist eben nicht möglich im Lager eine Ware verlässlich durch ein KI-System in einen bestimmten Lagerbereich zu legen. Wenn z.B. ein Gefahrgut nur in definierten Bereichen gelagert werden darf, dann wird ein KI-System trotzdem mit einer Restwahrscheinlichkeit solche Waren auch in nicht erlaubten Bereichen einlagern.

Die Limitierungen der KI

Es ist ebenfalls unmöglich ein Teil zu 0,X % auf einer Anlage zu produzieren, die die technischen Voraussetzungen einfach nicht erfüllt. Ein KI-System würde dieses aber tun. Diese Probleme und die schlichte Tatsache, dass Lernalgorithmen sehr viele Datensätze zu einem Problem benötigen, um überhaupt trainiert werden zu können, wir hierfür aber in der Regel nicht genug gleichartige Vorgänge haben, müssen noch überwunden werden.

Wenn Teile einer Produktgruppe beispielsweise nur 5.000- oder 6.000-mal im Jahr hergestellt werden und das noch nach verschiedenen Verfahren, kann der Algorithmus nicht vernünftig lernen. Hier wird nach meiner Auffassung noch einige Zeit vergehen, bis wir abschließend beurteilen können, ob und wie derartige Verfahren einsetzbar sind. Wenn wir aber die Prozesse zukünftig wie oben beschreiben sehr feinmaschig digital abbilden und steuern (bis auf weiteres noch mithilfe von Menschen oder aber mit vorgedachten intelligenten Regeln), dann schaffen wir mit dieser Datenbasis die Voraussetzungen dafür, von den Algorithmen profitieren zu können. Vielleicht werden die Algorithmen auch auf kleineren, klar abgegrenzten Anwendungsgebieten hilfreich sein. Einer dieser Fälle könnte das Anfahren von Anlagen in der Prozessindustrie sein, bei dem 20, 30 und mehr Parameter gleichzeitig über die Zeit abgestimmt gesteuert werden müssen, bis die Anlage im „steady state“ läuft. Dieses „golden batch“-Muster kann von KI vielleicht schneller erkannt und dann einem Prozess übergeben werden.

Fazit:

Big Data ist für uns in Produktion und Logistik dahin gehend positiv zu sehen, als dass wir sowohl von der technologischen als auch der Anwendungsseite wichtige und tolle Impulse bekommen haben und sicherlich auch weiterhin bekommen werden. Wir müssen aber die spezifischen Fragestellungen neu denken und angehen. Es ist wichtig und beruhigend zu wissen, dass es Wege gibt, tolle und nutzbringende Lösungen zu schaffen und dabei eine Symbiose mit den heute vorhandenen Lösungen einzugehen. Dies erlaubt uns und unseren Kunden schrittweise voranzugehen – immer so, wie es sinnvoll und bezahlbar ist.

Wenn Sie mehr über das Thema „Big Data in der Logistik“ erfahren möchten, sprechen Sie unsere Experten auf der der LogiMAT 2018 an. Die Messe findet vom 13. bis 15. März 2018 in Stuttgart statt. Sie finden uns in Halle 8, Stand D35.

 

Hinterlassen Sie einen Kommentar

Nach oben