Ganzheitliches Management der Produktkomplexität ist notwendiger denn je. Datenbasiertes Komplexitätsmanagement ermöglicht es, die Auswirkungen der Produktkomplexität entlang der Perspektiven Markt, Produkt und Produktion sichtbar zu machen und zu managen.
In mehr als 30 Jahren Branchenführerschaft im Bereich Komplexitätsmanagement beobachten wir weiter stetigen Anstieg der Produktkomplexität. Motiviert, den marktseitig wachsenden Bedürfnissen gerecht zu werden, und fokussiert auf Innovation und Differenzierung, begeben sich produzierende Unternehmen auf einen Pfad steigender Produktkomplexität. Der Zuwachs an Komplexität bedeutet an vielen Stellen im Unternehmen erhebliche Mehraufwände und somit Rentabilitätsverluste. Potenziale sind häufig nicht offensichtlich.
Für deren Aufdeckung und Freisetzung bedarf es einer ganzheitlichen Perspektive: vom Markt, über Produkt, bis hin zu Produktion. Es zeigt sich, dass erfolgreiche Unternehmen in der Lage sind, die genannten Perspektiven zusammenzuführen, Ursache- und Wirkzusammenhänge zu verstehen und schlussendlich zu managen. Doch wie lassen sich die Perspektiven auf ein ganzheitliches Management von Produktkomplexität vereinen? Ein Schlüssel hierzu ist, heute mehr denn je, datenbasiertes Komplexitätsmanagement.
Im Zuge der fortschreitenden Digitalisierung, liegen den Unternehmen heute eine Vielzahl von Daten vor. Vielfach bleiben diese bislang ungenutzt. Diese Daten zu nutzen, um damit nicht nur schneller, sondern auch präziser unternehmerische Entscheidungen zu finden, wird zunehmend zum Wettbewerbsvorteil. Vielversprechende Methoden der Data Science werden zugleich zugänglicher. Der Einsatz von lernenden Algorithmen ist längst nicht mehr nur Forschungseinrichtungen und High-Tech-Unternehmen vorbehalten.
Doch die Nutzbarkeit der vorhandenen Daten ist nicht selten mit Hindernissen verbunden. Grund dafür ist, dass die Daten in verschiedenen dezentralen, bereichsspezifischen IT-Lösungen und Systemen verborgen liegen. Die Herausforderung durch Systembrüche wird im Tagesgeschäft, bei sporadischen Analysen, in den seltensten Fällen gemeistert. Um auf Grundlage diverser Systemdaten, wie ERP & Co., fundierte Analysen durchzuführen und Informationen bereitzustellen, ist eine Verknüpfung der Daten und Systeme notwendig. In unserem ganzheitlichen Ansatz werden hierbei Systemdaten aus allen Perspektiven (Markt, Produkt, Produktion) in einem zentralen Datenmodell verknüpft, die Wirkzusammenhänge analysiert, und das Ergebnis zur Entscheidungsfindung bereitgestellt (Abb. 1).
Das zentrale Datenmodell ermöglicht dann die Formulierung spezifischer Fragestellungen, die bis dahin nur unter großem Aufwand und fehlender Reproduzier- und Aktualisierbarkeit realisierbar waren. Wirkzusammenhänge werden durch das Strukturieren und Verknüpfen der Informationen ungeahnt transparent.
Abb. 1: Systemdaten nutzen um entlang des gesamten Produktlebenszyklus Empfehlungen abzuleiten
Mit unserer digitalen Plattform Plexity haben wir eine leistungsstarke Basis geschaffen, um diese schnelle und flexible Verknüpfung verschiedener Datenquellen, wie in Abbildung 2 dargestellt, zu realisieren. Vielfältige Fragestellungen lassen sich hiermit einfach modellieren und reproduzierbar beantworten. Beispiele für solche nun beantwortbaren Fragestellungen können sein: Welche kundenrelevanten Produktmerkmale haben Auswirkungen auf welche Produktionsprozesse? Wo liegen die größten Kostenpotenziale der Standardisierung von Komponenten und Baugruppen? Bei welchen Lieferanten können Mengeneffekte einzelner Materialien zusätzliche Kostenpotenziale realisierbar machen? Schauen wir uns einen konkreten Anwendungsfall an.
Welche Bauteile weisen hohe konstruktive Ähnlichkeit auf und an welchen Stellen ließe sich der größte Kosteneinsparungseffekt, bei geringfügigster Auswirkung auf das Portfolio, durch die Reduzierung der Bauteilvielfalt, erzielen? Zur Beantwortung dieser Frage haben wir, zusammen mit einem Hersteller für Industriegüter, Methoden des digitalen Komplexitätsmanagements angewandt. Mithilfe von Systemdaten (ERP, CRM und PPS) konnten mehr als 1 Millionen Datenpunkte entlang der Wertkette einfach aus den Systemen ausgelesen und miteinander verknüpft werden. Dazu wurden Verkaufsdaten, wie Auftragsdaten und Kundendaten, mit den jeweiligen Informationen zu Produktkonfiguration, den Stücklisten und schlussendlich Arbeitsplänen in Plexity in einem Analysemodell zusammengeführt.
Im Projekt haben Szenarioanalysen gezeigt, dass gewisse Bauteilkategorien, in diesem Fall Gewindestücke, besonders hohes Standardisierungspotenzial aufwiesen. Durch spezifische Fallbetrachtungen konnten solche Bauteile identifiziert werden, die besondere Kapazitäten in der Fertigung beanspruchten, jedoch marktseitig nur einen geringfügigen Absatzbeitrag leisteten. Es zeigte sich beispielsweise, dass durch Standardisierung eine Reduktion von 30 % der aktuell geführten Gewindestücke möglich ist, ohne dass marktrelevante Produktvarianten davon beeinflusst wären. Die kommerziellen Effekte konnten anhand der Verknüpfung der Produktionsressourcen über Arbeitspläne, in Kürze abgeschätzt werden. Aufbauend auf dieser Analyse, wurden Fokusbauteile anhand der Daten, auf ihrer Ähnlichkeit bewertet – der erste wichtige Schritt zur Generierung von Skaleneffekten und Aufbau eines Baukastens. Auf dieser Basis konnten verschiedene Bauteile für eine Standardisierung identifiziert werden.
Abb. 2: Von Daten zu Informationen - Verschiedene produktrelevante Datenquellen werden zu einem komplexen Netzwerkmodell verknüpft
Die Korrektheit der Daten ist bei der Analyse von enormer Relevanz. Bei dem Auslesen von Bauteil-Sachmerkmalen und -Ausprägungen aus den Systemen haben wir, im beschriebenen Projekt, unterstützende Algorithmen, sogenanntes Text Mining, angewandt, um Informationen aus unstrukturierten Textfeldern nutzbar zu machen. Eine schlechte Datenqualität muss somit nicht immer das „Aus“ bedeuten. Eine gute Datenqualität erleichtert allerdings das Analyseergebnis und Performanz. Aus unseren Projekterfahrungen haben sich dabei die folgenden Erfolgsfaktoren herauskristallisiert, die die Modellierung signifikant erleichtern und Analyseprojekte beschleunigen:
Nicht selten geben Analyseprojekte den Impuls zu einer Verbesserung und nachhaltigen Verankerung des Datenmanagements. Im Projekt wurden im Anschluss systemseitig Lösungen implementiert, um unstrukturierte Bauteilsachmerkmale aus Freitexten, zukünftig strukturiert zu erfassen.
Produktkomplexität ist eine der Hauptursachen für geringere Rentabilität in Unternehmen. Die negativen Auswirkungen zu hoher Produktkomplexität bleiben oft verdeckt und wirken entlang aller Geschäftseinheiten und -prozesse. Eine Chance dieser Herausforderung zu begegnen, ist die Nutzung von Systemdaten und Data Analytics, um komplexe Strukturen zu verstehen und Handlungsoptionen abzuleiten. Hierbei liegt der Schlüssel zum Erfolg in der ganzheitlichen Vernetzung aller vorhandenen, produktbezogenen Daten. Damit lassen sich verschiedene Fragestellungen datenbasiert beantworten und das Wechselspiel zwischen Portfolio, Produkt und Wertschöpfung beherrschen. Mit Plexity haben wir ein leistungsstarkes Werkzeug zum datenbasierten Komplexitätsmanagement an der Hand.
Noch Fragen? Sprechen Sie uns an!