Ganzheitliches Management der Produktkomplexität ist notwendiger denn je. Datenbasiertes Komplexitätsmanagement ermöglicht es, die Auswirkungen der Produktkomplexität entlang der Perspektiven Markt, Produkt und Produktion sichtbar zu machen und zu managen.

Produktkomplexität als Schlüsselfaktor für Rentabilitätssteigerung

In mehr als 30 Jahren Branchenführerschaft im Bereich Komplexitätsmanagement beobachten wir weiter stetigen Anstieg der Produktkomplexität. Motiviert, den marktseitig wachsenden Bedürfnissen gerecht zu werden, und fokussiert auf Innovation und Differenzierung, begeben sich produzierende Unternehmen auf einen Pfad steigender Produktkomplexität. Der Zuwachs an Komplexität bedeutet an vielen Stellen im Unternehmen erhebliche Mehraufwände und somit Rentabilitätsverluste. Potenziale sind häufig nicht offensichtlich.

Für deren Aufdeckung und Freisetzung bedarf es einer ganzheitlichen Perspektive: vom Markt, über Produkt, bis hin zu Produktion. Es zeigt sich, dass erfolgreiche Unternehmen in der Lage sind, die genannten Perspektiven zusammenzuführen, Ursache- und Wirkzusammenhänge zu verStehen und schlussendlich zu managen. Doch wie lassen sich die Perspektiven auf ein ganzheitliches Management von Produktkomplexität vereinen? Ein Schlüssel hierzu ist, heute mehr denn je, datenbasiertes Komplexitätsmanagement.

Data Analytics und systemübergreifende Vernetzung von Daten zur Entscheidungsunterstützung

Im Zuge der fortschreitenden Digitalisierung, liegen den Unternehmen heute eine Vielzahl von Daten vor. Vielfach bleiben diese bislang ungenutzt. Diese Daten zu nutzen, um damit nicht nur schneller, sondern auch präziser unternehmerische Entscheidungen zu finden, wird zunehmend zum Wettbewerbsvorteil. Vielversprechende Methoden der Data Science werden zugleich zugänglicher. Der Einsatz von lernenden Algorithmen ist längst nicht mehr nur Forschungseinrichtungen und High-Tech-Unternehmen vorbehalten.

Doch die Nutzbarkeit der vorhandenen Daten ist nicht selten mit Hindernissen verbunden. Grund dafür ist, dass die Daten in verschiedenen dezentralen, bereichsspezifischen IT-Lösungen und Systemen verborgen liegen. Die Herausforderung durch Systembrüche wird im Tagesgeschäft, bei sporadischen Analysen, in den seltensten Fällen gemeistert. Um auf Grundlage diverser Systemdaten, wie ERP & Co., fundierte Analysen durchzuführen und Informationen bereitzustellen, ist eine Verknüpfung der Daten und Systeme notwendig. In unserem ganzheitlichen Ansatz werden hierbei Systemdaten aus allen Perspektiven (Markt, Produkt, Produktion) in einem zentralen Datenmodell verknüpft, die Wirkzusammenhänge analysiert, und das Ergebnis zur Entscheidungsfindung bereitgestellt (Abb. 1).

Das zentrale Datenmodell ermöglicht dann die Formulierung spezifischer Fragestellungen, die bis dahin nur unter großem Aufwand und fehlender Reproduzier- und Aktualisierbarkeit realisierbar waren. Wirkzusammenhänge werden durch das Strukturieren und Verknüpfen der Informationen ungeahnt transparent.

Abb. 1: Systemdaten nutzen um entlang des gesamten Produktlebenszyklus Empfehlungen abzuleiten

Plattform zum digitalen Komplexitätsmanagement – Complexity Studio

Mit unserer digitalen Plattform Complexity Studio haben wir eine leistungsstarke Basis geschaffen, um diese schnelle und flexible Verknüpfung verschiedener Datenquellen, wie in Abbildung 2 dargestellt, zu realisieren. Vielfältige Fragestellungen lassen sich hiermit einfach modellieren und reproduzierbar beantworten. Beispiele für solche nun beantwortbaren Fragestellungen können sein: Welche kundenrelevanten Produktmerkmale haben Auswirkungen auf welche Produktionsprozesse? Wo liegen die größten Kostenpotenziale der Standardisierung von Komponenten und Baugruppen? Bei welchen Lieferanten können Mengeneffekte einzelner Materialien zusätzliche Kostenpotenziale realisierbar machen? Schauen wir uns einen konkreten Anwendungsfall an.

Praxisbeispiel: Identifikation von Bauteilen mit Standardisierungspotenzial bei einem Hersteller für Industriegüter

Welche Bauteile weisen hohe konstruktive Ähnlichkeit auf und an welchen Stellen ließe sich der größte Kosteneinsparungseffekt, bei geringfügigster Auswirkung auf das Portfolio, durch die Reduzierung der Bauteilvielfalt, erzielen? Zur Beantwortung dieser Frage haben wir, zusammen mit einem Hersteller für Industriegüter, Methoden des digitalen Komplexitätsmanagements angewandt. Mithilfe von Systemdaten (ERP, CRM und PPS) konnten mehr als 1 Millionen Datenpunkte entlang der Wertkette einfach aus den Systemen ausgelesen und miteinander verknüpft werden. Dazu wurden Verkaufsdaten, wie Auftragsdaten und Kundendaten, mit den jeweiligen Informationen zu Produktkonfiguration, den Stücklisten und schlussendlich Arbeitsplänen im Complexity Studio in einem Analysemodell zusammengeführt.

Im Projekt haben Szenarioanalysen gezeigt, dass gewisse Bauteilkategorien, in diesem Fall Gewindestücke, besonders hohes Standardisierungspotenzial aufwiesen. Durch spezifische Fallbetrachtungen konnten solche Bauteile identifiziert werden, die besondere Kapazitäten in der Fertigung beanspruchten, jedoch marktseitig nur einen geringfügigen Absatzbeitrag leisteten. Es zeigte sich beispielsweise, dass durch Standardisierung eine Reduktion von 30 % der aktuell geführten Gewindestücke möglich ist, ohne dass marktrelevante Produktvarianten davon beeinflusst wären. Die kommerziellen Effekte konnten anhand der Verknüpfung der Produktionsressourcen über Arbeitspläne, in Kürze abgeschätzt werden. Aufbauend auf dieser Analyse, wurden Fokusbauteile anhand der Daten, auf ihrer Ähnlichkeit bewertet – der erste wichtige Schritt zur Generierung von Skaleneffekten und Aufbau eines Baukastens. Auf dieser Basis konnten verschiedene Bauteile für eine Standardisierung identifiziert werden.

Abb. 2: Von Daten zu Informationen - Verschiedene produktrelevante Datenquellen werden zu einem komplexen Netzwerkmodell verknüpft

Erfolgsfaktoren des Datenmanagements

Die Korrektheit der Daten ist bei der Analyse von enormer Relevanz. Bei dem Auslesen von Bauteil-Sachmerkmalen und -Ausprägungen aus den Systemen haben wir, im beschriebenen Projekt, unterstützende Algorithmen, sogenanntes Text Mining, angewandt, um Informationen aus unstrukturierten Textfeldern nutzbar zu machen. Eine schlechte Datenqualität muss somit nicht immer das „Aus“ bedeuten. Eine gute Datenqualität erleichtert allerdings das Analyseergebnis und Performanz. Aus unseren Projekterfahrungen haben sich dabei die folgenden Erfolgsfaktoren herauskristallisiert, die die Modellierung signifikant erleichtern und Analyseprojekte beschleunigen:

  • Konsistenz: widerspruchsfreie Verwendung von Schlüsseln zur Datenverwaltung erleichtert die Verknüpfung der einzelnen Datenbanken
  • Vollständigkeit: Datensätze, die alle notwendigen Attribute enthalten, gewährleisten den maximalen Analyseoutput
  • Einheitlichkeit: Eine Einheitliche Strukturierung der Datensätze erlaubt es, reproduzierbare Analyseergebnisse zu generieren
  • Korrektheit: Fehler in den Daten, beispielsweise aufgrund von manuellen Eingaben, sollten vorab bereinigt werden (z. B. mittels Text Mining)

Nicht selten geben Analyseprojekte den Impuls zu einer Verbesserung und nachhaltigen Verankerung des Datenmanagements. Im Projekt wurden im Anschluss systemseitig Lösungen implementiert, um unstrukturierte Bauteilsachmerkmale aus Freitexten, zukünftig strukturiert zu erfassen.

Komplexität datenbasiert managen durch ganzheitliches, digitales Komplexitätsmanagement

Produktkomplexität ist eine der Hauptursachen für geringere Rentabilität in Unternehmen. Die negativen Auswirkungen zu hoher Produktkomplexität bleiben oft verdeckt und wirken entlang aller Geschäftseinheiten und -prozesse. Eine Chance dieser Herausforderung zu begegnen, ist die Nutzung von Systemdaten und Data Analytics, um komplexe Strukturen zu verstehen und Handlungsoptionen abzuleiten. Hierbei liegt der Schlüssel zum Erfolg in der ganzheitlichen Vernetzung aller
vorhandenen, produktbezogenen Daten. Damit lassen sich verschiedene Fragestellungen datenbasiert beantworten und das Wechselspiel zwischen Portfolio, Produkt und Wertschöpfung beherrschen. Mit unserem Complexity Studio haben wir ein leistungsstarkes Werkzeug zum datenbasierten Komplexitätsmanagement
an der Hand.

Noch Fragen? Sprechen Sie uns an!

Teilen mit:




Diese Website nutzt Cookies, um bestmögliche Funktionalität bieten zu können.

Dazu gehören wesentliche Cookies, die für den Betrieb der Website erforderlich sind, sowie andere, die nur für anonyme statistische Zwecke, für Komforteinstellungen oder zur Anzeige personalisierter Inhalte verwendet werden. Sie können selbst entscheiden, welche Kategorien Sie zulassen möchten. Bitte beachten Sie, dass aufgrund Ihrer Einstellungen möglicherweise nicht alle Funktionen der Website zur Verfügung stehen.

Diese Website nutzt Cookies, um bestmögliche Funktionalität bieten zu können.

Dazu gehören wesentliche Cookies, die für den Betrieb der Website erforderlich sind, sowie andere, die nur für anonyme statistische Zwecke, für Komforteinstellungen oder zur Anzeige personalisierter Inhalte verwendet werden. Sie können selbst entscheiden, welche Kategorien Sie zulassen möchten. Bitte beachten Sie, dass aufgrund Ihrer Einstellungen möglicherweise nicht alle Funktionen der Website zur Verfügung stehen.

Ihre Auswahl wurde gesichert.