2,5 Trillionen1. Diese schier unvorstellbare Zahl repräsentiert die Menge an Bytes, die jeden Tag von Menschen rund um den Globus erzeugt wird. Tendenz steigend. Ob Kommunikation, Freizeit oder Weiterbildung – kaum ein Bereich, vor dem die rasant wachsende Digitalisierung Halt macht. Digitalisierung verändert alles. Auch das Komplexitätsmanagement.
In einer Welt, die von Dynamik und Ambivalenz geprägt ist, steigen auch die Anforderungen an das Management. Entscheidungsträger müssen immer schneller und unter hoher Unsicherheit handeln – und das nicht erst, seitdem uns Corona einmal mehr gezeigt hat, wie schnell sich in unserer vernetzten Welt fundamentale Rahmenbedingungen über Nacht verändern können.
Das häufig mit VUCA (Das Akronym VUCA steht für Volatility, Uncertainity, Complexity, Ambiguity) umschriebene Unternehmensumfeld verlangt nach neuen Lösungen, die die verantwortlichen Führungskräfte und Mitarbeiter in die Lage versetzen, mit der gestiegenen Komplexität und Geschwindigkeit Schritt zu halten. An dieser Stelle können Unternehmen auf einen Rohstoff zurückgreifen, der ihnen in exponentiell steigendem Maße zur Verfügung steht: Daten.
Mit Smart Complexity Management (SCoMa) bezeichnen wir unseren Themenbereich, welcher die in den Unternehmen zur Verfügung stehenden Daten verwendet, um komplexe Fragestellungen schnell und objektiv zu analysieren. Mit Hilfe modernster Verfahren des Data Analytics kann dabei eine bisher unerreichte Transparenz erzeugt und somit die Grundlage für faktenbasierte Entscheidungen gelegt werden.
Dabei ist – und dieser Umstand behält auch in digitalen Zeiten seine Gültigkeit – ein ganzheitlicher Ansatz des Komplexitätsmanagements von essenzieller Bedeutung. Die Verfahren und Methoden mögen sich geändert (und glücklicherweise auch verbessert) haben; unser grundlegender Beratungsansatz hatte und hat jedoch weiterhin Bestand. Nur, wer das Wechselspiel aus Kundenanforderungen, Produktportfolio und -struktur sowie der internen Wertschöpfung berücksichtigt, kann auch wirkungsvolle und nachhaltige Verbesserungen erzeugen. Wir unterscheiden und behandeln daher in unseren Projekten die nachfolgenden Komplexitätsdimensionen.
Abb. 1: SCoMa steht für ein ganzheitliches, datenbasiertes Komplexitätsmanagement zur Steigerung der Transparenz und Effizienz von Analysen sowie der Ableitung faktenbasierter Entscheidungen
Dimension 1: Portfoliokomplexität
Individualisierung, kürzere Produktlebenszyklen, gestiegener Kundenanspruch: Die Themen sind bekannt, die sich daraus ergebenen Herausforderungen spüren Unternehmen jeden Tag. Zum einen wäre da die gestiegene Markt- und Anforderungskomplexität. Um überhaupt eine Chance im Umgang mit den gestiegenen Herausforderungen zu haben, sind Unternehmen gezwungen, ihre Märkte in einzelne Segmente zu unterteilen. Doch nach welchen Kriterien sollte die Segmentierung erfolgen? Und wie viele Segmente sollten es sein?
Datenbasierte Verfahren können hier behilflich sein, indem sie basierend auf Ähnlichkeitsanalysen sowohl bezogen auf die möglichen Segmentierungskriterien als auch hinsichtlich der zu wählenden Marktsegmente einen ersten Vorschlag erstellen. Dieser automatisch generierte Entwurf kann dann als Grundlage für weitergehende Diskussionen verwendet werden. Zum anderen leiden Unternehmen unter einer historisch gewachsenen Produktportfoliokomplexität. Das Portfolio an den richtigen Stellen zu bereinigen, ist eine anspruchsvolle und mitunter kontrovers diskutierte Aufgabenstellung. Unterschiedliche Unternehmensfunktionen haben verschiedene Sichtweisen und verfolgen divergierende Zielstellungen. Zudem ist häufig unklar, welche Potentiale sich durch eine Anpassung der Portfolios ergeben oder welche Kundengruppen in welcher Weise durch die Abkündigung von Produktvarianten betroffen sind. Teilweise fehlt auch ganz einfach der Überblick, wie viele Produktvarianten überhaupt angeboten werden. In unserem Artikel Data Driven Portfolio Quick Check zeigen wir Ihnen auf, wie bereits innerhalb weniger Wochen komplexe Produktportfolios visualisiert, Schwachstellen aufgedeckt und Optimierungspotentiale identifiziert werden können.
Dimension 2: Produktkomplexität
Sind Marktsegmente und das daraus abgeleitete Produktportfolio definiert, gilt es, dieses mit einer möglichst geringen internen Komplexität abzubilden. Die Wahl der richtigen Produktarchitektur beeinflusst hierbei maßgeblich die Teile- und Komponentenkomplexität. Häufig verfügen Unternehmen über eine riesige Anzahl von Teilen oder Komponenten, welche eine hohe Ähnlichkeit hinsichtlich ihrer Merkmale aufweisen. Inwiefern diese wirklich benötigt werden, ist im Einzelfall zu entscheiden. Mögliche Einsparungen zwischen 20 und 30 Prozent sind allerdings eher die Regel, als die Ausnahme.
Auch hier können – z. B. ausgehend von Verwendungsnachweisen und Stücklisten – Ähnlichkeitsanalysen eingesetzt werden, um Standardisierungspotentiale innerhalb des Teile- und Komponentenportfolios zu identifizieren. Diese und weitere Beispiele finden Sie in unserem Artikel Produktkomplexität datenbasiert managen.
Dimension 3: Produktionskomplexität
Durch die Globalisierung der Märkte ist die Produktionsnetzwerkkomplexität in viele Unternehmen rasant gestiegen. Zahlreiche Produktionsstandorte mit unterschiedlichen Produktportfolios, unzureichende Spezifizierung der Werksrollen und fehlende Standards erschweren es, den Überblick zu behalten. An dieser Stelle hilft die Analyse von Transaktionsdaten aus ERP-Systemen. Durch die Visualisierung logistischer Warenströme kann das Produktionsnetzwerk hinsichtlich seiner Lieferverflechtungen und Wirtschaftlichkeit analysiert werden. Ausgehend von der Ist-Analyse können im Anschluss verschiedene Szenarien für die Anpassung des bestehenden Produktionsnetzwerks erstellt und simuliert werden.
Auch kann die Wertschöpfungskomplexität im Produktionsverbund oder bezogen auf einzelne Werke betrachtet werden: Wie wirkt sich das Produktportfolio auf die Produktionsprozesse aus? Welche Produkt- und Prozesstechnologien kommen für welche Teile und Komponenten zum Einsatz? An welcher Stelle ergeben sich Potentiale zur Senkung der Durchlaufzeiten?
In unserem Artikel zur Produktionskomplexität thematisieren wir darüber hinaus, wie durch die Identifizierung bisher unbekannter Zusammenhänge in der Produktion mittels Data Analytics Produktivitätssteigerungen erreicht werden können.
Dimension 4: Organisationskomplexität
Durch die Anwendung datenbasierter Verfahren ergibt sich zum ersten Mal überhaupt die Möglichkeit, einen sogenannten „digitalen Zwilling“ der Organisation zu kreieren. Basierend auf den digitalen Fußspuren, die Mitarbeiter bei der Verwendung von IT-Systemen hinterlassen, können Geschäftsprozesse rekonstruiert und die bestehende Prozesskomplexität detailliert analysiert werden: Wo liegen die Bottlenecks? An welcher Stelle werden Prozesse umgangen? Wie viele Prozessvarianten existieren? Welche Durchlaufzeiten haben Entscheidungen? Und wie viele Hierarchieebenen sind involviert? Fragen, die in der betrieblichen Praxis täglich diskutiert werden und hinter denen sich hohe Rationalisierungspotentiale verstecken.
In Verbindung mit Kommunikationsanalysen, die basierend auf Kommunikationsdaten (z. B. E-Mails) Schnittstellen zwischen Funktionsbereichen identifizieren und quantifizieren, kann die organisatorische Strukturkomplexität detailliert analysiert werden.
Die genannten Punkte helfen auch, die ausufernde IT-Komplexität in Unternehmen proaktiv zu gestalten. Durch die genaue Kenntnis der Abläufe sowie der darin involvierten Personen und deren Anforderungen, können die IT-Architektur und die abgeleitete IT-Roadmap sehr viel zielgerichteter geplant und umgesetzt werden.
In unserem Artikel Process Mining+ stellen wir Ihnen unseren datenbasierten Ansatz zur Analyse von Geschäftsprozessen anhand eines Projektbeispiels zum Änderungsmanagement eines Automobilherstellers vor.
Die Möglichkeiten datenbasierter Verfahren sind enorm. So auch die Herausforderungen, die sich mit ihnen ergeben. Daten werden zunehmend zu einem kritischen Wettbewerbsfaktor. Sie helfen, Kundenanforderungen besser zu verstehen, die eigenen Aktivitäten zielgerichtet auszurichten und die Effizienz interner Abläufe zu verbessern. Der richtige Umgang mit dem „Rohstoff“ Daten ist daher von entscheidender Bedeutung. Es gilt jetzt
sicherzustellen, dass sowohl Datenquantität als auch Datenqualität in ausreichendem Maße gewährleistet sind.
Dabei geht es in erster Linie nicht um „mehr“, sondern um die „richtigen“ Daten. Welche Daten werden an welcher Stelle in welchem Maße benötigt? Wie können Datenredundanzen durch eine Single-source-of-Truth Strategie reduziert werden? Und welche konkreten Potentiale bieten die neuen Technologien im spezifischen Einzelfall? Fragestellungen, welche Kernbestandteil einer jeden Digitalisierungsstrategie sein sollten und auf die Agenda einer jeden Führungskraft gehören.
An dieser Stelle möchten wir Sie auf unseren Artikel Künstliche Intelligenz in der F&E sowie unser Interview mit Alexander Menges vom WZL zum Thema Stammdatenbereinigung mittels Künstlicher Intelligenz verweisen. Während ersterer ein Startpunkt für die strategische Auseinandersetzung mit den o. g. Fragestellungen sein kann, nimmt letzterer eine operative Perspektive ein. Thematisiert wird die automatisierte Verbesserung bestehender Stammdaten in unterschiedlichen IT-Systemen.
In den von Unsicherheit und Dynamik geprägten Marktbedingungen sind die vorgestellten Inhalte wichtiger denn je. Unternehmen, welche die enormen Potentiale neuer, digitaler Technologien mit einem ganzheitlichen Komplexitätsmanagement verbinden, sind hervorragend aufgestellt, um auch unter herausfordernden Rahmenbedingungen zu prosperieren.
Quelle
1 https://blog.wiwo.de/look-at-it/2015/04/22/big-data-25-trillionen-byte-daten-jedentag-
wachst-vier-mal-schneller-als-weltwirtschaft/