Verbessern Algorithmen die Prozessqualität?

/, Qualitätsmanagement/Verbessern Algorithmen die Prozessqualität?

Verbessern Algorithmen die Prozessqualität?

Reibungslose Prozesse durch Algorithmen? Was ist heute State of the Art?

Steigerung der Prozessqualität durch automatisierte Datenanalyse

Technische Produktions- und Entwicklungsabläufe stehen immer öfter unter der kontinuierlichen Kontrolle von Überwachungssensoren. Durch die automatisierten Aufzeichnungen werden nützliche Datenmassen erzeugt, die für Auswertungen, Analysen und Prognosen verwendet werden können. Qualitätsmanagern eröffnet sich dadurch ein deutlich weiteres und komplexeres Spielfeld. Aufgrund der technischen Fortschritte werden die Zeitabschnitte, auf die sich diese Daten beziehen, immer kleinteiliger, während die Datenansammlungen stetig weiter wachsen. Es fragt sich daher in zunehmendem Maße, wie diese Daten genutzt werden können, um die Qualität von Prozessen zu erhöhen: Welche Auswertungsmöglichkeiten stehen zur Verfügung?
Eine der bemerkenswertesten Innovationen auf dem Feld der Prozessüberwachung stellt Stream Analytics dar. Dabei werden Algorithmen eingesetzt, um die Datenströme in Echtzeit zu überwachen und unmittelbar weiterzuverarbeiten. Diese Form der algorithmischen Datenanalyse wird durch Erkenntnisse ermöglicht, welche die Grundlagenforschung auf dem Feld des Machine Learnings erarbeitet hat. Mit diesem Ansatz werden Abweichungen von gewöhnlichen Abläufen sofort registriert und weiterverfolgt. Dabei erlernen die Machine Learning Algorithmen selbstständig, welche Prozesse als normal und welche Prozesse als fehlerhaft bewertet werden sollen: Diese Systeme lernen ohne direkte Anweisungen von Aufsichtspersonen oder ausformulierte Modelle. Machine Learning ist bereits soweit fortgeschritten, dass es auch problemlos in den laufenden Betrieb integriert werden kann.

Selbstlernende Systeme als Revolution für das Qualitätsmanagement

Die Machine Learning Systeme erstellen selbstständig Modelle. Auf Basis dieser Modelle erkennen sie dann Fehler oder Auffälligkeiten in den Prozessabläufen. Die eigenständigen Anpassungsleistungen der Algorithmen ermöglichen die Überwachung und Steuerung von dynamischen Prozessen. Die Reaktionsschnelligkeit der automatischen Systeme ermöglicht es, kleinere Prozessfehler zeitnah zu neutralisieren. Außerdem erzeugen und vermitteln diese Systeme gründliche Prognosen. Die Systeme eignen sich nicht nur zum kontinuierlichen Monitoring der Prozessqualität, sondern auch zur Fehlererkennung und Diagnose. Fehler, Ausfälle und Störungen von Maschinen können dadurch erkannt werden, bevor es zu Totalausfällen kommt. Wartungen und Reparaturen werden somit nicht erst nach der Katastrophe fällig, sondern es kann vergleichsweise kostengünstig Vorsorge getroffen werden. Die Überwachungs- und Kontrollalgorithmen sind äußerst flexibel gestaltet, da die Messdaten von ganz verschiedenen Systemen stammen können. Auch deshalb greift man in diesem Bereich auf Technologien zurück, die in der Forschung zur Künstlichen Intelligenz entwickelt wurden: Vor allem auf künstliche neuronale Netze und Deep-Learning. Damit wird es möglich, Muster aus sehr großen und inhaltlich verschiedenen Datenbanken auszulesen. Die Daten werden bei der Analyse auf grundlegende Muster und Eigenschaften reduziert. Die Systeme erstellen Modelle auf Basis zeitlicher Einschränkungen: Die Komplexität der Modelle wird angehoben, wenn mehr Bearbeitungszeit vorhanden ist. Die verwendeten Modelle nutzen stochastische Berechnungen, die Abweichungsindikatoren festlegen. Diese Indikatoren ermöglichen es, festzustellen, ob die gemessenen Daten zum erlernten Modell passen. Wenn der Indikator einen bestimmten Wert überschreitet, ist das ein Hinweis darauf, dass eine Störung auf der Prozessebene vorliegt.

Die Zukunft der Prozessoptimierung

Gerade für die Überwachung und Steuerung von Produktionsanlagen und Prozessen in der Produktentwicklung stellen derartige Systeme eine nachhaltige Innovation dar. Sie bringen den Monitoring-Prozess deutlich voran und ermöglichen es, die Qualität der Abläufe zu verbessern. Denn mithilfe solcher Systeme werden Abweichungen und Störquellen mit einer bis dato nicht denkbaren Genauigkeit und Zuverlässigkeit erkannt. Die selbstlernenden Systeme arbeiten kontinuierlich und unermüdlich daran, bessere Analysen und Prognosen zur Prozessqualität zu erstellen. Die Entscheidung darüber, wann der Zeitpunkt für die Wartung von Produktionsanlagen und Maschinen gekommen ist, kann mithilfe der Datenanalysen objektiver und frühzeitiger getroffen werden. Die Automatisierung führt außerdem dazu, dass die Analysen mit geringeren Personal- und Ressourcenkosten ausgeführt werden können als bisher.

Sie möchten mehr über Prozess- und Datenanalyse erfahren? Lassen Sie es uns wissen und kontaktieren Sie uns!

Bildnachweis: https://pixabay.com/de/users/skeeze-272447/

By | 2017-08-01T21:15:41+00:00 August 17th, 2017|Categories: Allgemein, Qualitätsmanagement|0 Comments

About the Author:

Alexander Glöckner hat nach einem Wirtschaftsstudium und mehrjähriger Tätigkeit im Key Account Management für einen IT-Dienstleister seine Leidenschaft für das Total Quality Management mit dem Schwerpunkt integrierte Managementsysteme entdeckt. Er war viele Jahre als Leiter Qualitätsmanagement für Qualität, Funktionale Sicherheit, Produktkonformität, Umwelt- und Servicemanagement bei einem Hardware- und Softwarehersteller für sicherheitskritische Systeme der Luftfahrtindustrie/Flugsicherung tätig. Seither befasst er sich intensiv mit der Zusammenführung von Anforderungen aus der Software-Entwicklung, der IT-Sicherheit, der Funktionalen Sicherheit, dem Service Engineering und einem kundenorientierten Beziehungsmanagement in ein praktikables System zum Unternehmensmanagement.