Schneller, objektiver, transparenter: Die digitale Analyse und Optimierung von Geschäftsprozessen verspricht immenses Potenzial. Doch wie und wo sollte man anfangen? Welche Daten werden benötigt? Und welche Rolle kann Künstliche Intelligenz spielen?
Unklare Verantwortlichkeiten, intransparente Abläufe, häufige Abstimmungen, über-dimensionierte Gemeinkostenbereiche und aufgeblähte Prozessdokumentationen – die Ursachen organisatorischer Komplexität sind vielfältig. Nicht zuletzt deshalb haben Unternehmen in der Vergangenheit gewaltige Aufwände zur Optimierung ihrer Geschäftsprozesse betrieben. Zur zielgerichteten Verbesserung der ausgewählten Prozesse waren eine zeitintensive Schaffung von Transparenz und eine detaillierte Analyse des Ist-Zustands von Nöten. Die einzelnen Aktivitäten des Prozessablaufs wurden manuell, meist in mehreren Interviews und/oder Workshops erfasst und zu einem Prozessmodell rekonstruiert. Das Ergebnis war genau das: Eine modellhafte Abbildung des jeweiligen Prozesses, wie er von den an der Modellierung beteiligten Personen wahrgenommen wurde.
Die Nachteile eines solchen Vorgehens sind offensichtlich: An vorderster Stelle steht der hohe personelle und zeitliche Aufwand. Insbesondere in komplexen Prozessen wie der Produktentwicklung oder der Auftragsabwicklung sind zahlreiche Abteilungen und Mitarbeiter involviert, welche jeweils nur einen Teilausschnitt des zu optimierenden Prozesses aktiv begleiten. Einen ganzheitlichen (oder: End-to-End) Überblick, haben – wenn überhaupt – die Wenigsten. Eine steigende Varianz der Prozesse aufgrund eines dynamischen Umfelds erschwert die Schaffung von Transparenz über den Ist-Zustand zusätzlich.
Um diesen Nachteilen zu begegnen, wurde bereits vor mehreren Jahren die Methode Process Mining entwickelt. Mit ihr ist es möglich, Prozesse erstmals so darzustellen, wie sie in der Realität durch die Mitarbeiter auch tatsächlich durchgeführt werden. Basierend auf digitalen Fußspuren, die Mitarbeiter bei der systemgestützten Ausführung von Aktivitäten u.a. in ERP-, PLM-, CRM- oder MES- Systemen hinterlassen, können die jeweiligen Prozesse rekonstruiert und zu einem ganzheitlichen Prozessmodell zusammengesetzt werden. Sämtliche Prozessvarianten sowie umfangreiche Performance-Parameter und Abweichungen vom Soll-Prozess werden ebenso erfasst, wie die involvierten Rollen und Schnittstellen zwischen den Abteilungen. Auf diese Weise wird ein sogenannter Digitaler Zwilling – ein virtuelles Modell – der Organisation generiert, welcher Ineffizienzen offenlegt und damit die Grundlage für die effektive und effiziente Realisierung von Verbesserungspotenzialen darstellt. Einmal aufgebaut, kann das digital erzeugte Prozessmodell jederzeit auf Knopfdruck dazu dienen, ad hoc Analysen über die aktuelle Prozessperformance durchzuführen und somit zu einer kontinuierlichen Prozessverbesserung genutzt werden.
Abb. 1: Prozesstransparenz auf Knopfdruck
Unser Ansatz des Advanced Process Mining (APM) geht sogar noch einen Schritt weiter. Über den Einsatz von Künstlicher Intelligenz können, basierend auf den Erkenntnissen der Process Mining Analyse, weiterführende, detaillierte Aussagen über die Prozesse und Organisationsstrukturen abgeleitet werden. Die Möglichkeiten in diesem Bereich sind mannigfaltig und reichen von klassischen Data-Analytics-Methoden bis hin zu intelligenten Machine-Learning-Algorithmen, die automatisch nach Mustern oder Gesetzmäßigkeiten zur Identifikation von Optimierungspotenzialen suchen. So können beispielsweise durch Korrelationsanalysen die relevanten Einflussgrößen auf die Prozessperformance identifiziert, mittels Sensitivitätsanalysen mögliche Auswirkungen quantifiziert und durch Clusteranalysen bisher unbekannte Strukturen in den Prozessen transparent gemacht werden.
Neben den technischen Voraussetzungen ist ein systematisches Vorgehen entscheidend für den effektiven und effizienten Einsatz von APM. Basierend auf den Erfahrungen aus zahlreichen Projekten haben wir ein 5-Phasen Modell entwickelt, welches als methodische Grundlage dient. Im Folgenden stellen wir Ihnen dieses sowie ausgewählte Ergebnisse anhand eines Projektbeispiels aus der Automobilindustrie vor.
Abb. 2: Vorgehensmodell des Advanced Process Mining (APM)
Phase 1: Projektvorbereitung
Zunächst wurden die Ziele und der Betrachtungsumfang des Verbesserungsprojekts definiert. Da in Abhängigkeit der jeweiligen Fragestellungen auch unterschiedliche Datenquellen in Betracht kommen, lohnt es sich, ein klares, gemeinsames Zielbild über den Projektinhalt zu generieren. Im betrachteten Projektbeispiel sollte ein APM-Pilotprojekt durchgeführt werden, um die spezifischen Potenziale der Technologie für den Automobilhersteller zu bewerten. Als Referenzprozess wurde das Änderungsmanagement innerhalb der F&E und Produktion gewählt, welches sich im konkreten Fall durch eine hohe Fragmentierung und komplexe Abwicklung kennzeichnete. Da der Prozess zudem häufig durchlaufen wurde und einen hohen Anteil an digital durchgeführten Aktivitäten aufwies, konnte auf eine breite Datenbasis zurückgegriffen werden.
Phase 2: Datenextraktion
Der zweite Schritt des Projektes widmete sich der Datenextraktion. Gemeinsam mit Prozess- und IT-Experten des Unternehmens wurden relevante Quellsysteme identifiziert und notwendige Datenattribute zur Beschreibung der Abläufe und Bewertung der Prozessperformance definiert. Diese umfassten neben der Änderungsnummer, die als Identifizierungskriterium für die jeweilige Prozessinstanz fungierte, die Zeitstempel, Namen und involvierten Ressourcen der durchgeführten Aktivitäten. Als ergänzende Informationen wurden die Priorität, der Status und die Kategorie der jeweiligen Änderung aufgenommen. Im Folgenden konnten über 10.000 Datenpunkte aus dem verwendeten PLM-System extrahiert und als Excel-Datei exportiert werden. Was sich zunächst als größerer Aufwand anhört, konnte im Projekt aufgrund der frühzeitigen Einbindung der zuständigen IT-Experten innerhalb weniger Stunden realisiert werden.
Phase 3: Datenaufbereitung
Obwohl sich die generierten Rohdaten grundsätzlich für Process Mining eigneten, mussten diese für eine effiziente Analyse initial bewertet und bereinigt werden. Diesem Schritt kommt insbesondere deshalb eine entscheidende Bedeutung zu, da fehlende Informationen, unvollständige Prozesssequenzen oder Ausreißer zu einer Verzerrung der Analyseergebnisse und folglich falschen Entscheidungen führen können. Entsprechend wurden u.a. sämtliche Prozessinstanzen aus den Daten entfernt, die aufgrund ihres Status noch nicht vollständig erfasst bzw. noch nicht abgeschlossen waren. Zudem wurden Aktivitäten- und Ressourcennamen angeglichen.
Phase 4: Mining und Analyse
Das Herzstück von APM bildet die digitale Nachbildung des Prozesses, sowie die Visualisierung und Analyse großer Mengen an prozessbezogenen Daten. Während das eigentliche Mining – die Erzeugung des Digitalen Zwillings – nahezu vollständig automatisiert durch Software-Tools von Systemanbietern wie beispielsweise Fluxicon erfolgt, ist die fundierte Prozessdatenanalyse alles andere als trivial. Hierzu gilt es den Prozess in seiner digitalen Form mithilfe geeigneter KI-Lösungen zu analysieren und aus einer riesigen Datenmenge aussagekräftige Informationen abzuleiten. Entsprechend bedarf es erfahrener Data Scientists, welche die Ereignisdaten u.a. in Bezug auf folgende Fragestellungen auswerten können:
Im Rahmen des Pilotprojektes konnten beispielsweise intelligente Clusteralgorithmen genutzt werden, um drei Hauptprozessvarianten zu identifizieren. Hierbei war die zweite Prozessvariante durch eine nachgelagerte Klärung der Änderungsanfrage gekennzeichnet. Eine genaue Analyse konnte zeigen, dass durch einen zusätzlichen Klärungsschritt in dieser Variante die Durchlaufzeit um ca. 30 % erhöht und folglich fehlende Informationen zu einer erheblichen Verzögerung innerhalb des Prozess-ablaufs führten.
Abb. 3: Aus den insgesamt 157 Prozessvarianten konnten mit Hilfe innovativer KI-Methoden drei Prozess-Cluster identifiziert werden. Durch weitergehende Analysen konnte die Ursache für die signifikant höheren Durchlaufzeiten der Prozessvarianten im Cluster 2 bestimmt und kurzfristig wirksame Verbesserungsmaßnahmen abgeleitet werden.
Phase 5: Maßnahmen
Der fünfte und abschließende Schritt bestand in der Ableitung konkreter Handlungsempfehlungen. Durch die genauere Spezifizierung der notwendigen Informationen zur Bearbeitung der Änderungsanfragen konnte beispielsweise die o.g. Prozessvariante fast vollständig eliminiert und bereits mit einfachen Mitteln eine drastische Reduzierung der Durchlaufzeit erreicht werden. Weitere Handlungsempfehlungen bezogen sich u. a. auf Anpassungen von Verantwortlichkeiten sowie des Reportings.
Es konnte zudem gezeigt werden, dass sich die Datenbasis des PLM-Systems grundsätzlich für den Einsatz von Advanced Process Mining eignet und sich mit einem vergleichsweise geringen Aufwand von wenigen Tagen bereits immense Potenziale zur Optimierung des Änderungsprozesses ableiten lassen. In Folge wurde der Ansatz auf weitere Geschäftsprozesse als elementarer Bestandteil einer kontinuierlichen Prozessverbesserung ausgerollt.
Obwohl bereits viele Unternehmen die Chancen durch Process Mining erkannt haben, fehlt oftmals der richtige Ansatz, die vorhandenen Daten optimal zu nutzen. Durch die Kombination von Process Mining und Künstlicher Intelligenz zu einem Advanced Process Mining (APM) Ansatz kann nicht nur der Aufwand für die Analyse und Optimierung von Prozessen reduziert werden, sondern auch weiterführende, detailliertere Aussagen über Ineffizienzen in den Abläufen und Organisationsstrukturen abgeleitet werden. Dabei muss es für Unternehmen nicht zwangsläufig darum gehen, die gesamte Prozesslandschaft auf einmal mittels Digitaler Zwillinge abzubilden. Es sollte dort begonnen werden, wo hohe Potenziale vermutet werden und bereits die grundlegenden Voraussetzungen erfüllt sind. Besonders geeignet sind Prozesse, die häufig durchgeführt und systemseitig unterstützt werden. Die Ergebnisse von APM sprechen für sich: ganzheitliche, objektive und kontinuierliche Prozessverbesserungen (nahezu) auf Knopfdruck.