Ihre Herausforderungen bei der Auswahl Ihrer Qualitätssicherungsstrategie

Durchschnittlich 20% des Jahresumsatzes gehen im produzierenden Gewerbe mangels fehlender Qualität der Waren verloren [1]. Dieser aggregierte Verlust wird als Cost of Poor Quality (CoPQ) bezeichnet und lässt sich in zwei Kategorien unterteilen:

  • Interne Fehlerkosten
  • Externe Fehlerkosten

Unter die internen Fehlerkosten fallen die entstandenen Aufwände für fehlerhafte Produkte vor der Auslieferung zum Kunden. Damit sind beispielsweise alle Kosten zur Herstellung von unbrauchbaren Waren (Ausschuss) verbunden, die so gravierende Mängel aufweisen, dass sie nicht überarbeitet werden können. Und für den Fall geringer Beanstandungen sind dies die zusätzlichen Personalkosten für die Nachbearbeitung der fehlerhaften Waren.

Werden minderwertige Produkte dennoch an Kunden ausgeliefert, kann das fatale Folgen nach sich ziehen, welche externe Fehlerkosten genannt werden.

Beispiele hierfür sind die hohen Kosten für das Ersetzen oder Reparieren der Produkte bei Garantieansprüchen. Weiterhin ist bei wiederholend schlechter Qualität die Gefahr groß, dass die Reputation in Verruf gerät, was durch die Vernetzung und die sozialen Medien verstärkt wird. Die Folgen sind eine sinkende Kundenzufriedenheit, damit verbundene Kundenabgänge, Marktverluste und entsprechende Umsatzeinbußen. Je nach Schwere des Problems kann es weiterführende drastische Auswirkungen geben: Diese reichen von einem vollständigen Produktrückruf bis hin zu einer weitreichenden gesetzlichen Haftung mit Strafzahlungen, sofern durch defekte Waren nachweislich Menschen zu Schaden gekommen sind.

Die Qualität von Produkten dauerhaft zu garantieren ist vor dem Hintergrund der Risiken und Fehlerkosten unabdingbar und zugleich eine schwierige Aufgabe. Das Ziel einer Qualitätsstrategie ist, die Produktqualität zu maximieren und gleichzeitig die Qualitätskosten zu minimieren. Nachfolgende Grafik zeigt ein Reifegradmodell für Qualitätssicherungsstrategien, welches wir im anschließend etwas genauer betrachten.

Reifegradmodell für Qualitätssicherungsstrategien.
Quelle: Eigene Darstellung

In den meisten Unternehmen finden reaktive Qualitätskontrollen bei den Endprodukten statt. Dabei wird am Ende des Produktionsprozesses stichprobenartig durch Mitarbeiter die Qualität geprüft. Da erst am Schluss des Erzeugnis überprüft wird, entstehen hohe Kosten wegen Ausschuss oder Nachbearbeitungen. Oftmals beginnen die Mängel schon bei Zwischenprodukten. Hinzu kommen die Personalkosten für erfahrene Mitarbeiter, die solche Inspektionen durchführen.

Bei der zustandsbasierten Qualitätskontrolle wird nicht am Ende des Produktionsprozesses die Qualität überprüft, sondern während einzelner Schritte. Es wird verbaute Sensorik genutzt, um die aktuelle Qualität zu erfassen. Aus simplen Regeln wie Über- oder Unterschreitungen von Schwellwerten können bei Zwischenerzeugnissen Mängel festgestellt werden. Erst dadurch können frühzeitig gegenläufige Maßnahmen getroffen werden.

Die vorausschauende Qualitätssicherung (Predictive Quality) stellt eine proaktive Qualitätskontrolle dar und nutzt moderne Analyseverfahren wie beispielsweise Machine Learning.

Es werden qualitätsrelevante und verfolgbare Messgrößen in allen Teilprozessen auf Maschinenebene vorhergesagt, um präventiv Maßnahmen für erwartete Qualitätsmängel einzuleiten und so die Produktivität und Qualität dauerhaft zu steigern. Dies erfolgt auf der Basis von historischen Daten wie z. B. Sensordaten von Maschinen, Umweltbedingungen, Prozessparameter oder Maschinendaten aus Steuerungseinheiten. Als Grundlage dafür dient eine IIoT-Plattform sowie verbaute Sensorik in jeder Maschine zur Erfassung der benötigten Daten.

Die letzte Stufe im Reifegradmodell beschreibt die präskriptive Qualitätssicherung. Hierbei werden Empfehlungen für die optimalen Prozessparameter mithilfe von Predictive Quality, Root-Cause Analysen und anderen diagnostischen Verfahren auf Maschinenebene geliefert.

Ihre Vorteile durch den Einsatz von Predictive Quality

Ziel der vorausschauenden Qualitätssicherung ist die Fehlerprävention, um Zeit und Kosten zu sparen, welche durch die Weiterverarbeitung oder Nutzung von vermeidbarem Ausschuss, durch Nachprüfungen oder durch Nacharbeiten entstehen. Dabei wird bereits während der Produktion mit Hilfe künstlicher Intelligenz die Qualität der gerade produzierten Produkte vorhergesagt. Damit kann frühzeitig entschieden werden, ob es sich bei dem Produkt um ein Gutteil handelt, das in weiteren Produktionsschritten verwendet werden kann oder um Ausschuss, der recycelt werden muss. Auf Basis aktueller Prozessparameter und gelernter Zusammenhänge aus der Vergangenheit wird die Qualität des gerade produzierten Produktes vorhergesagt. Bei der Bewertung als Ausschuss werden Prozessparameterveränderungen empfohlen, damit der Fehler so gering wie möglich ist – am besten Null. Gerade wenn die Qualität des hergestellten Produktes erst nach einiger Zeit überprüft werden kann, ist eine Fehlerprävention durch die vorausschauende Qualitätssicherung von Bedeutung. Bei der Kunststoff-Extrusion kann die Qualität beispielsweise erst nach der Abkühlphase geprüft werden.

Die komplexen Zusammenhänge und Wechselwirkungen innerhalb moderner und hochtechnisierter Produktionsprozesse werden selbst für erfahrene Prozessexperten zu einer immer größeren Herausforderung. Zwar werden heutige Fertigungsprozesse sehr stabil eingerichtet, dennoch kann es zu Fehlern kommen, obwohl sich alle Parameter innerhalb der gültigen Toleranzen bewegen. Wird ein Fehler am Ende der Produktionskette durch eine Prüfung entdeckt, müssen Prozessparameter angepasst werden. Dabei ist es nicht nur entscheidend, die Zusammenhänge zwischen Prozessparameter und Produktqualität zu kennen, sondern auch die Zeit zwischen Erkennung und Handlung (Qualitätsregelschleife). Deshalb informiert die vorausschauende Qualitätssicherung Mitarbeiter in der Fertigung darüber, ob es sich beim aktuell produzierten Produkt um ein Gutteil oder um Ausschuss handelt.

Welche Vorteile hat der Einsatz von Predictive Quality?

  • Vorhersage der Produktqualität (i.O.-/n.i.O.-Aussage) während das Produkt gefertigt wird
  • Zeit- und Kostenersparnis durch Vermeidung der Weiterverarbeitung von Ausschuss
  • Erkennung von Zusammenhängen zwischen Prozessparametern und Produktqualität

Die vorausschauende Qualitätssicherung nutzt Sensordaten (z. B. Temperatur, Druck, Schwingungen, etc.), Ereignisdaten aus IT-Systemen, Prozessparameter aus Maschinensteuerungen und maschinelles Lernen, um die Wahrscheinlichkeit für Ausschuss oder Gutteil eines Produktes zu prognostizieren. Bei der Kunststoff-Extrusion sind dies beispielsweise Einspritzdrücke und Temperaturen des aufgeschmolzenen Materials, Feuchtegehalt und Lagertemperatur des Granulats, Umgebungstemperatur und Einsatzhistorie des Werkzeuges und Qualitätsmeldungen aus nachgelagerten Prozessen.

Das Industrial Internet of Things (IIoT) ermöglicht die Erfassung der Prozessparameter von Anlagen und Maschinen. Die hierbei entstehenden großen Datenmengen werden häufig in Cloud-Umgebungen gespeichert und verarbeitet. Als Lernbeispiele werden aufgezeichnete Prozessparameter, Sensordaten sowie Ergebnisse der Qualitätssicherung genutzt. Maschinelles Lernen wird dann dazu eingesetzt, Muster in den Prozessparametern und den zugehörigen Bewertungen als Gutteil oder Ausschuss zu lernen. In der Produktion werden anschließend die sensorisch erfassten Prozessparameter dauerhaft überwacht. Wird in den Prozessparametern ein gelerntes Muster wiedererkannt, werden Fertigungsmitarbeiter über die drohenden Qualitätsprobleme informiert. Qualitätsprobleme, die nicht auf ein bekanntes Muster in den Daten zurückzuführen sind, werden verwendet, um die Vorhersage zu verbessern.

Die Funktionsweise von Predictive Quality

Für Predictive Quality ist die Überwachung des Anlagen- und Maschinenzustandes essentiell. Die Konvergenz von Operational Technology (OT) und Information Technology (IT), sowie die Verfügbarkeit von Bandbreite, Rechenkapazität und Speicher machen es möglich, große Datenmengen zu erheben, zu speichern und zu analysieren. Dazu werden unterschiedliche Daten durch entsprechende Sensorik erhoben sowie aus Maschinensteuerungen und anderen IT-Systemen ausgelesen.

Für die Bewertung des Anlagen- und Maschinenzustandes werden unter anderem folgende Daten herangezogen

  • Schwingungen (z. B. Auslenkung, Geschwindigkeit, Beschleunigung oder Ultraschall)
  • Temperatur (z. B. Bauteiltemperatur, Umgebungstemperatur, Infrarotstrahlung)
  • Tribologie (z. B. Verschleißpartikel)
  • Ereignisdaten (z. B. Zustand der Produktion, Störmeldungen)
  • Prozessparameter (z. B. Rotationsgeschwindigkeit, Bearbeitungsdauer)

IIoT-Plattfomen (z. B. Amazon AWS IoT, Microsoft Azure IoT oder Siemens MindSphere, Cumulocity, ADAMOS, Echolo, Crosser) sammeln die Daten von der Sensorik häufig über OPC-UA oder spezielle IIoT-Konnektoren ein und übermitteln diese in eine Cloud-Umgebung zur Speicherung und Analyse. Eine Predictive Quality Umsetzung am Beispiel der Herstellung von Kunststoffrohren durch die Rohrextrusion kann wie folgt aufgebaut sein:

Predictive Quality bei der Rohrextrusion.
Quelle: eigene Darstellung

Die gezeigte Architektur gibt einen Überblick über Komponenten und Technologien, die bei einer Predictive Quality zur Herstellung von Kunststoffrohren angewendet werden. Architektur und Technologien orientieren sich am Cloud-native Open Source Software Ansatz. Dies ermöglicht einen Betrieb im eigenen Rechenzentrum oder auf einer Cloud-Plattform wie beispielsweise AWS oder Azure. Technologien können auch durch Managed-Services wie beispielsweise Amazon SageMaker oder Azure Machine Learning Studio ersetzt werden. Die konkrete Umsetzung der Architektur orientiert sich immer an den Gegebenheiten und Anforderungen im jeweiligen Projekt.

Die Fertigung (Shopfloor)

Werkzeugmaschine für die Rohrextrusion.
Quelle: Eigene Darstellung

In der Fertigung von Kunststoffrohren (z. B. Kabelschutzrohre für die Elektroinstallation) befindet sich der Schneckenextruder. Am Anfang der Rohrextrusion wird Granulat in den Befülltrichter eingeführt. Die Schnecke befördert das Granulat durch den Zylinder. Um den Zylinder sind Heizanlagen befestigt. Durch die Heizelemente und die Reibung wird das Material geschmolzen. Auf der Abbildung links ist das Werkzeug angebracht, das die geschmolzene Masse in die Form eines Rohres presst. Anschließend wird das Material durch eine Kühl- und Vakuumanlage gezogen und dabei erstarrt. Am Ende werden die langen Kunststoffrohre auf die gewünschte Länge geschnitten.

Eine elementare Messgröße für die gewünschte Qualität der Kunststoffrohre ist der innere und äußere Durchmesser, welche als Zielmetriken für das Machine Learning-basierte Vorhersagemodell dienen. Weitere Qualitätsmerkmale wie die Farbqualität oder die Partikelgrößenverteilung des Kunststoffs sind denkbar.

Die folgenden Prozessparameter nehmen unter anderem einen Einfluss auf die Produktqualität des Rohres

  • Trichtertemperatur
  • Rotationsgeschwindigkeit der Schnecke
  • Schmelztemperatur
  • Temperaturen der Heizkörper
  • Temperatur des Düsenkopfs
  • Temperatur der Kühlung
  • Vakuumdruck
  • Zugkraft des Ziehmechanismus

Zur Erfassung dieser Parameter müssen dementsprechend an vielen Stellen wie dem Trichter und den Heizanlagen Temperatursensoren angebracht sein. Die Rotationsgeschwindigkeit kann aus der Maschinensteuerung des Extruders entnommen werden. Zudem wird weitere Sensorik zum Messen des Vakuumdrucks benötigt. Auf diese Weise werden alle relevanten Sensordaten in einer IIoT-Plattformen gesammelt und an eine Datenbank in der Cloud-Umgebung übertragen. Abhängig von den Gegebenheiten können die Sensordaten dabei an einen oder mehrere Abnehmer übertragen werden. Aus Sicherheitsgründen wird die Datenübertragen meistens aus der Fertigung heraus initiiert (Push-Prinzip).

Die Cloud

Die übertragenen Daten von verschiedenen Extrudern werden zentral in einer Datenbank gespeichert. Dies ermöglicht eine übergreifende Analyse über die einzelnen Extruder (allgemein Maschinen) hinweg. In der Datenbank können zusätzlich Prozessdaten oder Informationen zu Garantieansprüchen aus dem ERP- oder PPS-System gespeichert werden. Dazu zählen unter anderem Daten wie beispielsweise die Ersatzquote eines Produkts, Auslastung oder Dauer der Bearbeitung eines Werkstückes. Die Auswahl des Datenspeichers wird anhand der Anforderungen (z. B. Skalierbarkeit, Geschwindigkeit, Ressourcenverteilung, In-Memory) der IoT-Strategie im Hinblick auf die Verarbeitung von großen Datenmengen getroffen. Die Daten werden über einen festgelegten Zeitraum als Vorbereitung für die Trainingsphase gesammelt. In diesem Zeitraum werden Visualisierungen (z. B. Dashboards) eingesetzt, um einen ersten Nutzen aus den Daten zu gewinnen.

Training

Sobald genügend Daten in der Datenbank für das Training eines Machine Learning (ML) Modells vorhanden sind, wird mit der Entwicklung desselben begonnen. Das Modell lernt aus den Trainingsdaten den inneren und äußeren Durchmesser des Kunststoffrohres während des Extrusionsprozesses vorherzusagen. Als Eingabewerte dienen die beschriebenen Prozessparameter. Die Daten werden in der Datenbank zuerst einer Vorverarbeitung unterzogen. Die Vorverarbeitung extrahiert unter anderem relevante Sensordaten und führt Normalisierungen oder Standardisierungen der Merkmale durch. Anschließend werden die Daten in der Datenbank unterteilt:

  • Trainingsdaten dienen als Beispiele von denen das Machine Learning Modell Muster in den Daten lernt und Gesetzmäßigkeiten ableitet.
  • Validierungsdaten werden genutzt, um eine letzte Feinjustierung an den Parametern des Modells zur optimalen Vorhersage der Qualität vorzunehmen.
  • Testdaten werden genutzt, um abschließend die Vorhersagequalität des Modells zu bewerten.

Auf Basis der Trainingsdaten wird ein Machine Learning Modell trainiert, das relevante Metriken zur Qualitätssicherung wie den Rohrdurchmesser vorhersagt. Das trainierte Modell wird anhand der Test- und Validierungsdaten evaluiert, um die Qualität des Modells sicherzustellen. Danach erfolgt das Ausrollen (Deployment) des Modells für die produktive Nutzung mit aktuellen Daten der Extruder. Der Trainingsprozess ist ein Zyklus, der über die Zeit hinweg immer wieder durchlaufen wird. Insbesondere natürlich dann, wenn sich die Umstände ändern, also beispielsweise neue Anlagen in Betrieb genommen wurden, eine neue Sensorik zum Einsatz kommt oder neue Daten erhoben werden. Deshalb ist ein hoher Grad an Automatisierung wichtig. Nur wenn das Machine Learning Modell alle Muster in den Daten kennt und damit immer auf einem aktuellen Stand ist, kann es präzise Vorhersagen vornehmen.

Betrieb

Das ausgerollte Modell aus dem Trainingsvorgang ermöglicht die Vorhersage des inneren und äußeren Rohrdurchmessers auf Basis aktueller Daten, sodass sofortige Maßnahmen eines Produktionsmitarbeiters getroffen werden können, falls die erwartete Qualität unzureichend ist. Auch im Betrieb des Modells werden die aktuellen Daten der Extruder einer Vorverarbeitung unterzogen. Die Vorverarbeitung der aktuellen Daten stellt sicher, dass das ML-Modell sie richtig weiterverarbeiten kann. Mit den aktuellen Daten und den erlernten Mustern durch das Training macht das Machine Learning Modell eine genaue Vorhersage. Die Vorhersage wird als Ausgabe zurück in der Datenbank gespeichert. Damit lassen sich alle relevanten Sensordaten, Prozessdaten sowie die Vorhersage in einem Dashboard wie beispielsweise Grafana visualisieren und überwachen. Kundenservice-Portale können die Daten konsumieren und im Portal einbinden und darstellen. Auf diese Weise können die optimalen Prozessparameter kurzfristig angepasst werden, um eine hohe Produktqualität des Kunststoffrohres zu gewährleisten und damit präventiv weniger Ausschuss zu produzieren. Weiterhin können Handlungsempfehlungen durch beispielsweise Root-Cause-Analysen auf Maschinen- und Bauteilebene an Produktionsmitarbeiter gegeben werden. Weiterführende Analysen wie Forecastings auf Garantieansprüche sind ebenfalls möglich.

Die technische Umsetzung sowohl der Trainings- als auch der Vorhersagepipeline besteht aus entkoppelten, skalierbaren und austauschbaren Microservices, die beispielsweise mit Docker Containern plattformunabhängig umgesetzt werden. Dadurch können einzelne Services in verschiedenen Programmiersprachen geschrieben werden, da eine einheitliche Kommunikation über beispielsweise HTTP- oder REST-Protokolle das Zusammenspiel gewährleistet. Die Microservices werden in ein bestehendes oder neues Cluster integriert. Mit einem Machine Learning Framework wie TensorFlow oder Keras werden tiefe neuronale Netze zusammengestellt, verteilt trainiert, die Ergebnisse ausgewertet und Modelle ausgerollt. Für die Versionierung von Daten und Modellen sowie dem Pipelining wird ein Tool wie DVC (Data Version Control) genutzt, um damit die Reproduzierbarkeit, Wartbarkeit und Nachvollziehbarkeit des Trainingszyklus zu ermöglichen.

Weiterlesen

Unsere Dienstleistung für Predictive Quality

Werden Daten bereits über eine IIoT-Plattform gesammelt, gehen wir bei einem Predictive Quality Projekt in der Regel in vier Schritten vor:

  1. Im ersten Schritt dient ein gemeinsamer Workshop zur Aufnahme des Ist-Zustands. Wir möchten verstehen, welche unterschiedlichen Daten und Quellen existieren, wie groß das Datenvolumen ist, das täglich produziert wird und wie häufig sich die Daten für Prozessparameter aktualisieren. Am wichtigsten ist dabei die Klärung, ob es aktuell überhaupt Daten mit Beispielen gibt, die verwendet werden können. Diese Information ermöglicht uns eine erste Einschätzung der Datenqualität und wie häufig eine neue Version des Modells trainiert werden muss. Uns interessiert auch, welche bestehende (IIoT-)Plattform eingesetzt wird, wie die Architektur aufgebaut ist, welche Umsysteme (z. B. ERP-Systeme, BPM-Systeme) vorhanden sind und welche Systeme integriert werden müssen. Zusammen mit der verfolgten Technologiestrategie – z. B. Open-Source-First Strategy oder Managed-Cloud-Service-First Strategy – wird dann eine Zielarchitektur definiert. Mit diesen Grundlagen erarbeiten wir mit Ihnen die Zielsetzung.
  2. Im zweiten Schritt bewerten wir die Datenqualität durch eine explorative Datenanalyse hinsichtlich der Eignung und Aussagekraft für eine Vorhersage der Qualität. Dazu verwenden wir einen von Ihnen bereitgestellten repräsentativen Datensatz. Daraufhin folgt eine prototypische Umsetzung eines oder mehrerer infrage kommender Machine Learning (ML) Modelle sowie deren Evaluation und Dokumentation im Rahmen einer Machbarkeitsstudie (Proof of Value). Als Resultat liegt eine qualifizierte Entscheidungsempfehlung inklusive der Chancen und Risiken vor. Zudem können Erkenntnisse und Einsichten aus dem Datenbestand aufgedeckt sowie Zusammenhänge und Korrelationen sichtbar gemacht werden.
  3. Im dritten Schritt wird die Predictive Quality Lösung auf Basis der erarbeiteten Architektur und der Zielsetzung umgesetzt. Die Umsetzung erfolgt unternehmensabhängig entweder Cloud-native oder mit Managed-Services eines Cloud-Anbieters (z. B. AWS oder Azure). Es wird eine ganzheitliche Machine Learning Lösung erstellt, die sowohl die Trainings- als auch die Inferenzphase beinhaltet. Dazu gehören die Machine Learning Pipeline für den Lebenszyklus des Machine Learning Modells und die dazugehörige Versionierung von Daten und Modellen. Wir legen bei unserer Predictive Quality Lösung viel Wert auf Automatisierung und Skalierung. Um die Verfügbarkeit des Produktivsystems sicherzustellen und einen reibungslosen Betrieb zu gewährleisten, werden die Services überwacht – sowohl hinsichtlich betriebsrelevanter Aspekte (z. B. Antwortzeit, Anzahl Aufrufe, Speichernutzung oder CPU-Auslastung), wie auch qualitativer Aspekte der Vorhersage (z. B. Accuracy). Daraus lässt sich ableiten, wann ein neues Modell trainiert werden sollte und wie die Anwendung automatisch mit der Last skalieren soll.
  4. Im vierten Schritt findet das Enablement der DevOps-Engineers, der Fachbereiche und der Data Scientists statt. In Workshops oder Schulungen machen wir Ihre Mitarbeiter mit den Technologien und Methoden vertraut. Dabei spielt es keine Rolle, ob es lediglich um ein technisches Enablement geht oder wir Ihre Mitarbeiter mit den Grundlagen von Machine Learning vertraut machen. Uns ist wichtig, dass Sie den größtmöglichen Nutzen für sich und Ihre Kunden aus der Predictive Quality Lösung herausholen.

Ist die Konnektivität noch nicht hergestellt und eine IIoT-Plattform noch nicht vorhanden, kümmern wir uns gerne darum und erweitern den Projektumfang entsprechend um weitere Schritte. Sehen Sie sich dazu unser IoT-Angebot an.

Ihr Ansprechpartner

Novatec_Christoph-Heger

Dr. Christoph Heger

Head of Practice Area Data Intelligence
Inhaltsverzeichnis
Ihr Ansprechpartner Dr. Christoph Heger Head of Practice Area Data Intelligence
Novatec_Christoph-Heger