Smarte Produktion: Kosten senken & Qualität erhöhen mit Data Science

Smarte Produktion
© scharfsinn86 - stock.adobe.com
Bewerten
5 Bewertungen,
Durchschnitt 3,4

Es gibt immer Zusammenhänge zwischen den Daten, die während der Produktion aufgezeichnet werden, und dem Ergebnis aus der Produktion. Mit den richtigen Methoden genutzt, bieten diese Daten einen Mehrwert für Ihr Unternehmen.

Diese Zusammenhänge werden mit Data Science Methoden gefunden und mit dem daraus gewonnenen Wissen wird ein echter Wert erzeugt. Ich möchte Ihnen in diesem Artikel anhand eines konkreten Projekts zeigen, wie und welchen Wert man damit schöpfen kann.

Das Potenzial in Ihren Daten

In der Produktion senden Maschinen Daten über ihre gesamten Parameter und Sensoren und jeder Roboter loggt seine Zustände mit. Die Frage ist dann, welches Potenzial steckt in den Daten und welchen Wert erzeugen Sie mit diesen Daten?

Die Antwort ist zugleich einfach und bemerkenswert: Es gibt immer Zusammenhänge zwischen der Art und Weise, wie ein Teil produziert wird, und der Qualität des produzierten Teils. Es ist kein Zufall, dass das eine produzierte Teil den Qualitätsanforderungen entspricht und ein weiteres Teil nicht. Es gibt kausale Zusammenhänge. Diese Zusammenhänge bilden sich in den Daten ab, die während der Produktion aufgezeichnet werden. Denn diese Daten beschreiben, wie etwas hergestellt wird.

Einen Wert bekommen diese Daten, wenn Sie anfangen, die Zusammenhänge zu finden und dieses Wissen zu nutzen. In der Produktion kann das bedeuten, dass ein Teil nach der Herstellung nicht mehr vermessen werden muss, um die Qualität zu bestimmen, sondern dass die Qualität anhand der Produktionsdaten bestimmt wird. Diese Methodik spart Kosten, denn Sie können Messstationen einsparen, Ihre Prozesse werden schneller, weil Sie nicht mehr nachmessen müssen und es erhöht Ihre Qualitätssicherheit. Weil Sie direkt nach der Herstellung schon eine Aussage über die Qualität eines Teils machen können – die Berechnung kann in wenigen Sekunden erfolgen –, können Sie schnell auf Qualitätsprobleme reagieren. Dies gilt gerade dann, wenn die Ursache für Qualitätsprobleme nicht sofort ersichtlich ist, da doch scheinbar alles immer gleich abläuft.

Mithilfe dieser Methode können Sie nicht nur Zusammenhänge zwischen den Produktionsdaten und einer schwankenden Produktqualität bestimmen. Sie können auch Zusammenhänge mit der Prozessqualität erkennen, zum Beispiel Probleme mit Anlagen, Werkzeugen und Arbeitsabläufen. Dies trifft sowohl für die diskrete Fertigung wie auch für die Prozessfertigung zu.

Wie können Sie also die Zusammenhänge finden und nutzen?

Zusammenhang zwischen Produktionsdaten und Produktionsqualität

Der Zusammenhang zwischen Produktionsdaten und Produktionsqualität kann mit Hilfe von statistischen Methoden und cleveren Algorithmen gefunden werden. Oft werden dabei sogenannte Machine Learning (ML) Modelle eingesetzt. Der Name beschreibt dabei, dass der Zusammenhang nicht manuell von einem Menschen beschrieben wird (das wäre zum Beispiel ein klassisches Regelwerk). Stattdessen nutzt man dazu Programme, die mit Algorithmen arbeiten – also eine Maschine. Die Maschine lernt, wie die Merkmale in den Daten mit der Zielgröße, wie beispielsweise ein Soll-Farbwert, zusammenhängen. Dieser Schritt, bei dem das ML-Modell den Zusammenhang lernt, wird als Modell Training bezeichnet.

Es gibt verschiedene Arten des Trainings. Die folgende Abbildung zeigt den Prozess des sogenannten Supervised Learnings (überwachtes/betreutes Lernen). Für diese Art des Trainings sind die Zielgrößen bekannt und es sind historische Werte dafür vorhanden. Supervised Learning wird auch im folgenden Beispielprojekt genutzt.

modell training

Nach dem Training werden Performance Metriken berechnet, die Auskunft geben, wie gut das Modell die Zusammenhänge beschreiben kann. Das Modell sagt Zielgrößen voraus und diese können mit den tatsächlichen Ist-Werten verglichen werden. Je nachdem, wie gut das Modell die Ist-Werte in der Vorhersage trifft, wird das Modell höher oder niedriger bewertet. Im Falle eines Modells, das Klassen vorhersagt, zum Beispiel, ob das Teil in Ordnung (IO) oder nicht in Ordnung (NIO) ist, ist eine Methode zur Bewertung der Modellqualität (Metrik) die Wahrheitsmatrix (engl. Confusion Matrix). Die Wahrheitsmatrix gibt an, wie viele richtige und falsche Klassifizierungen für die beiden Fälle gemacht werden. Mit solchen Metriken werden Data Science Lösungen nachvollziehbar bewertet. Diese Metriken können Sie direkt in Ihre Kostenberechnungen einfügen und damit einschätzen, wie hoch zum Beispiel das Optimierungspotenzial ist. Im Falle der Wahrheitsmatrix können Sie eine Kostenmatrix anwenden, die Ihre Prozesskosten abbildet.

Mit einem trainierten Modell können dann neue, aktuelle Daten aus der Produktion genutzt werden, um zum Beispiel Vorhersagen oder Klassifizierungen zu machen.

Konkret bedeutet das, dass das Modell als Service verfügbar gemacht und produktiv gesetzt wird. Das kann zum Beispiel ein Webservice in der Cloud oder innerhalb von On‑Premises-Systemen sein. In diesem Prozess können alle Vorteile von agiler Entwicklung, Continuous Integration (CI) und Continuous Delivery (CD) genutzt werden, indem Verbesserungen am Modell schnell verfügbar gemacht werden können.

Beispiel aus der Produktion in einer Lackiererei

Ich zeige Ihnen nun den Mehrwert, den man aus Daten erzeugen kann, anhand eines von mir 2020 durchgeführten Projekts.

Für ein Projekt in der Lackiererei wollte unser Kunde Produktionsdaten nutzen, um die Qualität der Lackierung zu bestimmen. Das nachträgliche Messen der Lackierung erfordert zusätzliche Geräte, zusätzlichen Platz und zusätzliche Prozesszeit und ist damit kostenintensiv. Das Ziel in der Lackiererei war also, dass die Qualität von jedem lackierten Teil bekannt sein soll, ohne jedes Teil zu messen. Dieses Problem konnte mit Data Science Methoden und den Produktionsdaten gelöst werden.

Zu den im Lackierprozess aufgezeichneten Daten gehören Drücke, Temperaturen, Trockenzeiten, aufgesprühte Lackvolumina, der Wochentag und weitere Daten. Die Qualität der Lackierung wird gemessen am Farbwert, einer Kombination aus messbaren physikalischen Größen, die beschreibt, wie eine Farbe aussieht. Der Farbwert ist sehr kritisch, zum Beispiel, wenn mehrere Teile mit dem gleichen Soll-Farbwert zusammengefügt werden.

Jedes lackierte Teil hat einen Ist-Farbwert, der von dem Soll-Farbwert abweichen kann. Der Ist-Farbwert darf nur in sehr engem Rahmen vom Soll-Farbwert abweichen, sonst könnte der Endkunde einen Unterschied zwischen nebeneinander montierten Teilen wahrnehmen, was wiederum die Kundenzufriedenheit senkt.

Also haben wir die historischen Daten aus der Lackiererei verwendet, um ein Modell zu trainieren, dass die Zusammenhänge zwischen den Produktionsdaten und dem Farbwert abbildet. Dieses Modell wurde mit unterschiedlichen Datensätzen validiert. Die Wahrheitsmatrix wurde mit einer Kostenmatrix kombiniert und das Modell derart optimiert, dass das für den spezifischen Anwendungsfall höchste Verhältnis zwischen Qualitätssteigerung und Aufwand erzielt wurde.

Das Modell wurde auf einer Data Science Plattform produktiv gesetzt. Der Ablauf während des Betriebs ist in der folgenden Grafik dargestellt.

data science

Ein Teil wird lackiert und dabei werden alle Produktionsdaten in einer Datenbank aufgezeichnet. Sobald das Teil fertig lackiert ist, wird eine Vorhersage über dessen Ist-Farbwert angestoßen. Das Modell wird getriggert und holt sich alle relevanten Daten aus der Datenbank. Auf Basis der neuen Daten macht das Modell eine Vorhersage über den Farbwert des Teils und diese neuen Informationen werden ebenfalls in der Datenbank gespeichert. Anschließend wird mit einem Regelwerk entschieden, ob das Teil mit dem vorhergesagten Farbwert den Qualitätsanforderungen entspricht oder nicht. Falls es nicht den Anforderungen entspricht, wird eine Warnung erzeugt, die dann wieder in das normale Produktionssystem eingespielt wird. Mit der Warnung und den anhängenden Informationen werden dann entsprechende Handlungen ausgeführt, zum Beispiel das Teil manuell inspizieren, automatisch zur Vermessung einplanen, nachlackieren, aussortieren oder parken. In einer weiteren Ausbaustufe wird die optimale Handlung ebenfalls von dem Modell empfohlen.

Für dieses Projekt in der Lackiererei sind drei Aspekte wichtig:

Erstens wurden bereits vor der Einführung dieser Data Science Lösung alle relevanten Daten gesammelt. Es mussten keinen neuen Sensoren oder Systeme zur Datenaufzeichnung installiert werden. Für viele moderne Maschinen und Produktionen gilt dies heutzutage. Das bedeutet, dass man jederzeit mit diesem Ansatz, die Produktionsdaten zu nutzen, starten kann. Bei älteren Maschinen kann es eine kostensparende Lösung sein, diese mit Sensoren nachzurüsten und mit Hilfe von Data Science Methoden deren Produktivität zu steigern.

Zweitens wurde der Prozess mit der neuen Bestimmung der Qualität während des laufenden Betriebs eingeführt. Die Produktion muss nicht unterbrochen werden.

Und drittens können die Modelle, die die Vorhersagen über die Qualität machen, in diesem Fall den Farbwert, stetig verbessert werden. Ein automatisches regelmäßiges Training des Modells verbessert die Performance unter anderem durch zusätzliche neue Daten, veränderte Daten durch neue Prozesse oder durch mehr Erfahrung im produktiven Betrieb.

Weitere Anwendungsfälle

Der beschriebene Anwendungsfall aus der Lackiererei ist übertragbar auf andere Produktionsbereiche mit ähnlichen Potenzialen für Qualitätssteigerungen und Kostensenkungen. Mit den während der Produktion aufgezeichneten Daten wird eine Aussage über die relevanten Zielgrößen getroffen. Nachfolgend dazu zwei weitere Beispiele:

In der Herstellung von Spritzgussteilen kann mithilfe von Data Science Methoden eine Aussage über die Qualität jedes hergestellten Teils getroffen werden, zum Beispiel, ob das Teil Einschlüsse hat, ob Abrisse vorhanden sind oder ob die mechanischen Eigenschaften innerhalb der Spezifikationen sind. Als Basis dienen die Daten, die bei der Herstellung aufgezeichnet werden, wie Einspritzdrücke, Temperaturen, Zykluszeiten und Zeit seit der letzten Wartung.

Bei der Entwicklung von neuen Rezepturen zum Beispiel in der Prozessfertigung, bei denen Mischungen erstellt werden, die spezifische neue Attribute aufweisen sollen, können die historischen Daten aus anderen Rezepturentwicklungen verwendet werden. Die Zielattribute werden vorhergesagt mit den historischen Daten, dem Wissen existierender Rezepte und den Ist-Attributen von den Mischungen.

Fazit

In der heutigen Industrie, der Industrie 4.0 und der zukünftigen Industry X sind Daten ein wichtiger Bestandteil, um besser, dynamischer und smarter zu produzieren. Nutzen Sie Ihre Daten nach dem Grundprinzip: Es gibt immer Zusammenhänge zwischen den Daten und Zielgrößen wie der Qualität. Finden Sie diese Zusammenhänge mit Ihren Daten heraus! Mit diesem Wissen erzeugen Sie echten Wert aus Ihren Daten.

Whitepaper: Beispiele für die erfolgreiche Digitalisierung der Produktion

Wer wettbewerbsfähig bleiben will, muss seine Prozesse digitalisieren: Die Kundenwünsche werden immer anspruchsvoller und sind mit herkömmlichen analogen Prozessen nicht zu erfüllen. Kunden fordern heute immer individuellere Produkte und schnelle, flexible, transparente Prozesse. In diesem Dokument finden Sie praxisnahe Beispiele, wie die Digitalisierung in den Bereichen Strategie, Planung, Produktion, Auslieferung, Transport und Regulierung zu mehr Wertschöpfung im Unternehmen führt.

Keine Updates mehr verpassen: 1
© scharfsinn86 - stock.adobe.com

Zurück