Inkonsistent, unvollständig oder veraltet: Trotz hoher Investitionen in die Bereinigung und Aktualisierung von Stammdaten ist deren Qualität in vielen Unternehmen nicht ausreichend. Der maßgebliche Grund hierfür ist der hohe manuelle Aufwand, der für ein erfolgreiches und kontinuierliches Stammdatenmanagement betrieben werden muss.
Um die Effizienz des Stammdatenmanagements zu steigern, bieten sich neuartige Verfahren der Datenanalyse an. Ein vielversprechender Ansatz ist der Einsatz intelligenter Datenanalyseverfahren, auch bekannt unter dem Schlagwort Künstliche Intelligenz (KI). Diese ermöglichen nicht nur die Analyse großer Datenmengen, sondern auch deren Interpretation. Mit Alexander Menges, Gruppenleiter in der Abteilung Innovationsmanagement am Werkzeugmaschinenlabor WZL der RWTH Aachen, haben wir über die Potenziale, Voraussetzungen und zukünftigen Entwicklungen von KI im Bereich Stammdatenmanagement gesprochen.
In Gesprächen und Projekten mit produzierenden Unternehmen stellen wir immer wieder fest, dass eine der größten Herausforderung in der Produktentwicklung das Finden bestehender Lösungen, beispielsweise von Bauteilen, Baugruppen oder Modulen, ist. Häufig ist es schneller, ein Teil neu zu konstruieren, statt die richtige Lösung zu suchen. Das Problem ist, dass mit jeder zusätzlichen Materialnummer einmalige und laufende Kosten entstehen. Durch Stammdatenmanagement lassen sich die laufenden Kosten eliminieren und die Entstehung neuer Materialnummern verhindern, da bestehende Lösungen schneller gefunden werden können. Heute besteht ein Großteil der Aufwände im Stammdatenmanagement aus manuellen, meist wenig kreativen und repetitiven Tätigkeiten – die macht eigentlich keiner gerne.
Der Begriff umspannt ein extrem breites Anwendungsfeld, das schwierig in einem Satz zusammenzufassen ist. Wir verstehen darunter u. a. die Möglichkeit, bisher nicht analysierbare Daten analysierbar und maschinell verarbeitbar zu machen, sodass auch große Datenmengen zugänglich und darin enthaltene Zusammenhänge transparent und verständlich gemacht werden können. Dies geschieht beispielsweise durch das Erkennen und die automatische Verarbeitung von Mustern in Daten. Künstliche Intelligenz umfasst noch weit mehr, aber das ist der Kern der für uns wichtig ist.
Wir differenzieren zwischen zwei Phasen: Die erste Phase dient der Transparenz in bestehenden Stammdaten, um hier Zusammenhänge zu identifizieren und eine Grundlage für die Analyse großer Datensätze zu schaffen. Somit können beispielsweise relevante Klassen identifiziert werden. Die zweite Phase überführt die Stammdaten in eine neue, einheitliche Struktur. Dies kann z. B. eine neue Benennungslogik nach der Sachmerkmalleisten-Logik sein. Hierdurch sollen zwei Ziele verfolgt werden: Komplexität zu reduzieren und insbesondere Komplexität zu vermeiden. Das ist die beste Möglichkeit, die Kosten der Variantenvielfalt gering zu halten.
In ersten Kooperationen mit Unternehmen haben wir Datensätze mit im Schnitt 500.000 Komponenten bzw. deren Stammdaten analysiert. Die Unternehmen hatten je nach Umsetzungsgrad des Stammdatenmanagements unterschiedliche Zielsetzungen. Die Ergebnisse haben wir im engen Austausch mit den Unternehmen analysiert. Ohne Selbstlob zu üben haben wir hier ausschließlich positive Rückmeldungen bekommen, was uns in der weiteren Erarbeitung des Themas bestärkt und motiviert. Im Vergleich zu früheren Projekten sparen wir durch die Unterstützung intelligenter Methoden viel Zeit und mühsamen Aufwand. Im Schnitt kann man sagen, dass man den manuellen Aufwand um etwa 80 % reduzieren kann und ganz gezielt dort eingreift bzw. den Algorithmus korrigiert, wo es erforderlich ist.
Der erste Schritt ist auf jeden Fall die Definition der Zielsetzung. Erfolg wird häufig unterschiedlich interpretiert. Unser Ziel ist es, Unternehmen die Einsparung unnötiger Kosten zu ermöglichen, indem wir gleiche und ähnliche Produktbestandteile zusammenfassen. In einem Projekt mit zunächst 10 produzierenden Unternehmen ermitteln wir die verschiedenen Zielstellungen in Bezug auf das Stammdatenmanagement, erarbeiten ein generisches Vorgehen und implementieren ein Tool, das dieses Vorgehen anhand von Verfahren der Künstlichen Intelligenz unterstützt. Dieses Vorgehen werden wir kontinuierlich erweitern und um spezifische Use-Cases erweitern, um ein generisches Set an Methoden zum Stammdatenmanagement zur Verfügung zu stellen und für verschiedene Anforderungen und Ziele die richtige Lösung zu haben.
Vollkommen nicht. Es wird immer Abkürzungen, unternehmensspezifisch geprägte Begrifflichkeiten etc. geben, die auch ein noch so intelligenter Algorithmus nicht kennt. Man kann sich das so vorstellen, als würde man einen unbekannten Begriff in eine Online-Suchmaschine eingeben. Die haben schon viel gesehen – aber sicher noch nicht alles. Wir hoffen, die Verfahren über die Zeit so zu verbessern, dass wir eine Vielzahl unterschiedlicher Daten verarbeiten können. Ein bisschen menschliche Intelligenz wird es aber immer brauchen.
Alexander Menges promoviert zum Thema Data Mining bei Prof. Günter Schuh am WZL der RWTH Aachen. Im Rahmen unterschiedlicher Projekte mit produzierenden Unternehmen stellte er fest, dass sich intelligente Algorithmen für die Analyse und Pflege von Stammdaten hervorragend eignen und hier eine Reduktion des manuellen Aufwands ermöglichen können. Mit einem Team entwickelt er ein Tool, das Verfahren der Künstlichen Intelligenz zum Stammdatenmanagement nutzt.
Lena Kriesel
lena.kriesel@schuh-group.com