Vernetzung und KI für Powertools

Gemeinsam mit Würth entwickeln wir im Rahmen des Service-Meister-Projekts fortschrittliche Data Science Anwendungen, um datengestützte Entscheidungsprozesse möglich zu machen. Das Gesamtvorhaben Service-Meister wird getrieben durch eine Kollaboration zwischen 16 Partnern aus Industrie, Forschungseinrichtungen sowie Umsetzungspartnern, wie der grandcentrix. Gefördert wird das Projekt vom Bundesministerium für Wirtschaft (BMWi).
/references/images/service-meister-intro.jpg

Partnerschaft als Schnellboot

Die Adolf Würth GmbH & Co. KG bildet zusammen mit grandcentrix eines von sechs sogenannten Schnellbooten, welche je ein Teilprojekt gemeinsam umsetzen. Als einer von drei Umsetzungspartnern im Konsortium verfolgen wir das Ziel, spezialisierte Lösungen zu entwickeln und dann zu generalisieren. Die erarbeiteten Algorithmen und Ansätze werden dann im Kontext des Gesamtprojektes dem Deutschen Mittelstand zugänglich gemacht.
Adolf Würth GmbH & Co. KG

Adolf Würth GmbH & Co. KG

Würth ist Spezialist für Montage- und Befestigungsmaterial und schaut mittlerweile auf eine 75-jährige Betriebsgeschichte zurück. Mit über 400 Gesellschaften ist das weltmarktführende B2B-Unternehmen in 80 Ländern vertreten. Würth bietet zu seinen Produkten auch Planer, Konfiguratoren, Seminare und weitere Services an, wie z. B. den Würth MASTERSERVICE. Würth wartet, kalibriert und repariert im Rahmen seines MASTERSERVICES täglich ca. 500 Geräte. In diesem Kontext sind die anfallenden Daten zu den einzelnen Servicefällen nicht nur interessant, sondern essenziell, um den Service weiter optimieren zu können.
grandcentrix GmbH

grandcentrix GmbH

Als Spezialist für Ende-zu-Ende IoT Lösungen hat grandcentrix eine eigene Abteilung für Data Science, die sich mit allen Fragestellungen rund um die Wertschöpfung mit Daten auseinandersetzt. Da Datenerhebung und Datennutzung in vielen Fällen die wesentliche Motivatoren für die Vernetzung von Geräten sind, unterstützt das Competence Center Data Science bereits frühzeitig in der Konzipierung von IoT Projekten. So werden etwa mittels simulierter Daten frühzeitig Modelle prototypisch entwickelt und Business Cases getestet. Auf diese Weise können Randbedingungen der Vernetzung, wie beispielsweise Sensortypen oder Frequenzen von Datenaufnahmen, frühzeitig und im Hinblick auf eine spätere optimale Datennutzung ausgewählt werden.
Für unser Schnellboot und somit für die effizientere Nutzung von Service Daten haben wir uns gemeinsam einige Ziele gesetzt: Anhand von Metadaten soll zukünftig schon vor Einsendung des Gerätes die Wirtschaftlichkeit einer Reparatur diagnostiziert werden können. Desweiteren sollen die Zusammenhänge zwischen Schäden und Einsatzgebieten der Maschine erkannt werden können und die Ausfallzeiten der Geräte durch die datengestützte Beschleunigung von Prozessen minimiert werden.

Worst Case: Defektes Werkzeug

Gerade in handwerklichen Berufen und KMUs kann der Ausfall einzelner Geräte oder Werkzeuge weitreichende Folgen für die Ressourcen- und Zeitplanung eines gesamten Projektes haben. Wenn einer der aufeinander aufbauenden Schritte der handwerklichen Dienstleistung aufgrund eines defekten Werkzeugs oder Gerätes nicht wie geplant durchgeführt werden kann, führt dies unter Umständen zu Mehraufwänden, Verzögerungen und zusätzlichen Fahrtwegen.

Der Frust über die Folgen sind beim Dienstleister und Kunden gleichermaßen hoch. Zuverlässige Maschinen, Werkzeuge, aber auch Wartungs- und Reparaturservices von Herstellern sind im Handwerk unabkömmlich. Die Langlebigkeit und Zuverlässigkeit der Maschinen kann beispielsweise mithilfe von Predictive Maintenance optimiert werden.

Predicting Service Cases

Wie das Wort bereits vermuten lässt, ist das Ziel den Verlauf bzw. den Ausgang eines Servicefalls so früh wie möglich vorherzusagen. Um dies zu erreichen, werden zunächst historische Daten aus dem MASTERSERVICE analysiert und geclustert. Daraufhin werden verschiedene Modelle für die Vorhersage des Fallausgangs getestet, u. a. ein NLP-Modell (Natural Language Processing), welches mit den Freitextbeschreibungen der Tickets trainiert wurde.

In anderen Modellen werden darüber hinaus weitere Features, etwa der Gerätetyp, das Alter, die bisherige Reparaturhistorie berücksichtigt. Resultierend daraus lassen sich im Prototyp bereits mit einer hohen Trefferwahrscheinlichkeit die häufigsten Fehlerursachen vorhersagen – und das, bevor das defekte Gerät bei Würth eintrifft. 
/references/images/service-meister-predictions.png
/references/images/service-meister-cases.png

Skalierende Datenverarbeitung

Damit Data Science Use Cases langfristig mit steigenden Datenmengen zuverlässig funktionieren, bedarf es einer stabilen Architektur für die Datenprozessierung. grandcentrix setzt hier unter anderem auf Pipelines mit Apache Airflow, welche in Azure ausgeführt werden. Darüber hinaus wurde in Zusammenarbeit mit unserem Competence Center S&I (Systems and Infrastructure) ein Device-Simulator entwickelt, welcher eine schnelle Simulation von Daten ermöglicht. Mit den Daten des Device Simulators lassen sich Lasttests von Infrastrukturen durchführen sowie Daten für neue Anwendungsfälle simulieren, für die noch nicht genug reale Daten vorliegen. Konkret wird im Service-Meister Kontext beispielsweise das Potenzial vernetzter Werkzeuge evaluiert.

Langfristige Ziele

Im letzten Jahr entwickelten und forschten die einzelnen Schnellboote an spezifischen Herausforderungen und Zielen der jeweiligen Industriepartner. Das Ziel von Service-Meister und damit auch der Grund der Förderung durch das BMWi ist der Transfer der gewonnenen Erfahrungen und Kompetenzen aus den jeweiligen Use Cases der Schnellboote auf generalisierte Ansätze und Lösungen, die dann im deutschen Mittelstand in verschiedenen Branchen zum Einsatz gebracht werden können.

Noch 2021 beginnt die Zusammenarbeit aller Partner des Service-Meister-Konsortiums um gemeinsam generische Services zu spezifizieren und diese unter einer Open-Source-Lizenz zu veröffentlichen. Die bereitgestellte Plattform soll KMUs kostenfrei zur Verfügung gestellt werden.

Technische Highlights

/references/images/icon-testing.svg

Hypothesentests

Mittels Hypothesentests werden Auffälligkeiten in Daten hinsichtlich ihrer statistischen Signifikanz geprüft.
/references/images/icon-anomaly.svg

Anomalieerkennung

Der parametrierbare Algorithmus zur Erkennung von Anomalien lässt sich auf beliebige Daten anwenden.
/references/images/icon-processing.svg

NLP

Natural Language Processing für die Klassifizierung von Tickets.
/references/images/icon-pipeline.svg

Datenpipeline mit Apache Airflow

Die Data Science Anwendungen werden in Airflow Pipelines angewendet und überwacht.