Alle reden immer von »Prozessen«. Aber habt ihr schon mal genauer überlegt, was das eigentlich ist, ein »Prozess«? Und wer oder was macht, dass ein »Prozess« läuft? „Ein Prozess kann als Verlauf, Entwicklung oder ganz allgemein als ein System von Bewegungen bezeichnet werden“, das sagt zumindest Wikipedia. „Ein System von Bewegungen“, diese Erklärung gefällt mir. Das stelle ich mir dann wie bei einer Tanzaufführung vor, bei der eine Abfolge von verschiedenen Tanzschritten, unter Anleitung eines Coaches zu einer gesamten Choreografie wird.
Aber wie ist das denn zum Beispiel in einem Produktionsunternehmen? Wenn zum Beispiel vom Eingang einer Bestellung über die Produktion der Ware bis zum Eintreffen der Ware beim Kunden gedacht werden muss? Noch dazu geht es ja oft um viele Bestellungen, die zu vielen Kunden gelangen müssen. Und das alles auch noch just in time und vor allem DIGITAL. Ist da nicht ein gewisses Fehlerpotential… ja, „vorprogrammiert“?
Abhängigkeiten erkennen
Uns Menschen ist es ja durchaus möglich, Kausalzusammenhänge und Abhängigkeiten, wie zum Beispiel „Wenn eine Bestellung aufgeteilt wird, werden zwei unterschiedliche Lieferscheine erstellt“ richtig einzuschätzen. Aber ist es das auch für digitale Systeme? Nein, leider nicht! Daher ist die Optimierung von Geschäftsprozessen für Firmen auch ein ständiges Thema. Im marktorientierten Wettbewerb können nur die Unternehmen bestehen, die effizient und effektiv arbeiten. Um Effizienzprobleme zu erkennen, braucht man aber die notwendigen Tools.
Process Mining als Lösung?
Es gibt tatsächlich schon ein Tool, das in vielen Unternehmen bereits durchaus eine gängige Methode des Prozessmanagements ist. Es nennt sich »Process Mining« und läuft auf Basis digitaler Informationen der IT–Systeme. So werden Geschäftsprozesse rekonstruiert und ausgewertet. Also können Schwachstellen und Hindernisse im Prozessablauf so erkannt und letztendlich optimiert werden? Ja, das wäre der Plan. Aber leider hakt es hier oft noch im Betrieb. Zwar sind Process Mining-Tools wirklich hilfreiche Werkzeuge zur Prozessoptimierung, jedoch stößt diese Technologie offenbar immer wieder an Grenzen. Da sie lediglich auf Ereignisprotokolle (Event Logs) zugreift und damit nur augenscheinliches Wissen nutzen kann, bleiben viele weitere Zusammenhänge unberücksichtigt.
KI-Unterstützung hilft
Gemeinsam mit dem Deggendorfer Unternehmen DAB (Daten, Analysen & Beratung GmbH) und der Universität Bamberg wurde das Forschungsprojekt »KIGA« (KIGA – KI-unterstützte Geschäftsprozess Analyse)“ ins Leben gerufen. Ein Forschungsteam der Fakultät Angewandte Informatik unter der Leitung von Prof. Andreas Fischer wird zukünftig zusammen mit seinen Partnern an einer Verbesserung von Process-Mining-Algorithmen und an der Transparenz ihrer Ergebnisse arbeiten. Wir wollen Informationen aus ERP-Systemen [ERP = Enterprise Ressource Planning] mit dem Hintergrundwissen von Fachexperten unter Zuhilfenahme von erklärbarer künstlicher Intelligenz zusammenfügen. Erhalten Process Mining-Tools Zugriff auf diese Erkenntnisse, können sie Event Logs besser „einschätzen“ und Kontextwissen in ihrer Analyse berücksichtigen. Interaktive Dashboards machen dabei die Ergebnisse für den Betrieb transparent und nachvollziehbar. Und damit sollte dann auch den Geschäftsführungen der zukünftigen User klar werden, wo‘s im Betrieb aktuell gegebenenfalls hakt. Das KIGA- Projekt ist zunächst auf 3 Jahre angelegt.
Andreas Fischer und Carolin Pankofer
Andreas Fischer ist Professor der Fakultät für Angewandte Informatik und CIO der THD.
Carolin Pankofer ist seine Assistentin und seit September 2021 an der THD beschäftigt. Ebenfalls im Projekt KIGA arbeitet Bernhard Haderer.