40 Jahre Geschäftsprozessmanagement
Eine Zeitreise durch die Prozessoptimierung
Wolfram Jost, Scheer GmbH
(Titelbild: © AdobeStock | 209988678 | pingebat)
Kurz und Bündig
Der eigentliche Durchbruch von Business Process Management (BPM), kam mit dem Megatrend der Digitalisierung. Wesentliches Ziel der Digitalisierung ist die Optimierung und Transformation bestehender Geschäftsmodelle durch den Einsatz cloud-basierter Softwaretechnologien. Die digitale Geschäftstransformation ist aber ohne die Einbeziehung von Geschäftsprozessen zum Scheitern verurteilt. BPM steht auch in der Zukunft im Fokus: Die neuesten Entwicklungen im Bereich BPM befassen sich mit der Frage, wie und ob das BPM-Konzept durch den Einsatz von Methoden der künstlichen Intelligenz (KI) ergänzt,
erweitert oder gar neu erfunden wird.
Das Thema Business Process Management (BPM) existiert in seiner heutigen Definition etwa seit Beginn der 1990er Jahre. Obwohl derBegriff während dieser Zeit kontinuierlich an Bedeutung gewonnen hat und seither viele Unternehmen weltweit BPM-Strategien erfolgreich umgesetzt haben, kam der eigentliche Durchbruch mit dem Megatrend der Digitalisierung. Wesentliches Ziel der Digitalisierung ist die Optimierung und Transformation bestehender Geschäftsmodelle durch den Einsatz cloudbasierter Softwaretechnologien. Innerhalb kurzer Zeit wurde deutlich, dass die digitale Geschäftstransformation ohne die Einbeziehung von Geschäftsprozessen zum Scheitern verurteilt ist. Erst durch die integrierte Betrachtung von Technologie und Geschäftsprozessen können die enormen Potentiale der Digitalisierung freigesetzt werden. Digitalisierung und BPM sind somit zwei Seiten der gleichen Medaille. Oder, etwas anders formuliert: Ohne Geschäftsprozessinnovation kein „Digital Enterprise“.
BPM - Was und Warum?
Business Process Management (BPM) bezeichnet eine Managementdisziplin, in der es grundsätzlich darum geht, die Geschäftsprozesse eines Unternehmens ganzheitlich zu managen. Der Begriff „Management“ umfasst in diesem Zusammenhang vier wesentliche Bereiche: Analyse, Design, Ausführung und Überwachung. Ziel dieses BPM-Lifecycles ist die Optimierung der unternehmensspezifischen Geschäftsprozesse mit dem Ziel der kontinuierlichen Verbesserung. Neben der Optimierung befasst sich BPM aber auch mit der kompletten Transformation von Geschäftsprozessen. Im Gegensatz zur Optimierung geht es bei der Transformation weniger darum, bereits bestehende Geschäftsprozesse zu verbessern, zu erweitern oder anzupassen, sondern vielmehr darum, diese komplett neu zu gestalten. Ziel der Transformation ist somit die Implementierung neuer innovativer Geschäftsprozesse. Die Qualität von Geschäftsprozessen hat einen wesentlichen Einfluss auf den wirtschaftlichen Erfolg und somit die Wettbewerbsfähigkeit von Unternehmen. Wobei der Qualitätsbegriff in diesem Zusammenhang etwas weiter zu fassen ist. Er umfasst unter anderem Dimensionen wie Effizienz, Effektivität, Kosten, Zeit und Innovation. Geschäftsprozesse beschreiben, ganz allgemein gesprochen, die zeitlich-logische Reihenfolge, in der die einzelnen Funktionen und Tätigkeiten eines Unternehmens ausgeführt werden, und zeigen auf welche IT-Systeme, Daten, Rollen und Organisationseinheiten an dieser Funktionsausführung beteiligt sind. Sie stellen somit im Wesentlichen den Arbeitsfluss (Workflow) dar. Beispiele für wesentliche Geschäftsprozesse sind Hire-to-Retire, Order-to-Cash oder Procure-to-Pay. Wichtig ist hierbei festzustellen, dass Geschäftsprozesse immer End-to-End betrachtet werden. Das heißt, über Abteilungs- und Unternehmensgrenzen hinweg.
Die Entwicklung
Während erste Systeme zur Workflowsteuerung bereits in den 1970er Jahren entwickelt wurden, hat BPM als Managementdisziplin seinen Ursprung zu Beginn der 1990er Jahren. Der wesentliche Grund für diese Entwicklung war die Tatsache, dass die Geschäftsprozesse der Unternehmen durch Globalisierung, Unternehmenszukäufe und Vernetzung immer komplexer und vielschichtiger wurden. Die fehlende Prozesstransparenz führte zu einer immer schlechter werdenden Prozessqualität, welche sich zunehmend negativ auf wichtige Unternehmenskennzahlen wie Umsatz und Gewinn auswirkte.
Um diesem Trend entgegenzuwirken, wurde Anfang der 1990er Jahre damit begonnen, in die methodische und technologische Entwicklung des BPM-Konzeptes zu investieren. Beschleunigt wurde diese Entwicklung mit dem Erscheinen der ersten ERP-Systeme (beispielsweise SAP R3) zu Beginn der 1990er Jahre. Es wurde nämlich schnell klar, dass die Einführung dieser hochintegrierten aber deshalb auch sehr komplexen ERP-Systeme zu wesentlichen Veränderungen in den unternehmensspezifischen Geschäftsprozessen führen werden und es deshalb absolut notwendig ist, diese Veränderungen im Vorfeld zu analysieren und in der Gestalt von Prozessmodellen abzubilden. Die Kombination von BPM und ERP führte dann später zu dem Konzept der „prozessorientierten ERP-Einführung“, welches heute aktueller ist denn je zuvor.
Ein wesentlicher Treiber und Innovator in diesem Bereich war (und ist) Prof. Dr. August-Wilhelm Scheer, der zur damaligen Zeit den Lehrstuhl für Wirtschaftsinformatik an der Universität des Saarlandes inne hatte und gleichzeitig auch wissenschaftlicher Leiter des Instituts für Wirtschaftsinformatik an der Universität des Saarlandes war. Mit dem von ihm entwickelten ARIS-Konzept legte er als Erster die wissenschaftlichen und methodischen Grundlagen für ein ganzheitliches Management von Geschäftsprozessen. In seinem 1991 veröffentlichten Buch ARIS – Architektur integrierter Informationssysteme entwickelte er sowohl ein umfangreiches semantisches Datenmodell für Geschäftsprozesse als auch eine neue Notation zu ihrer grafischen Beschreibung (ereignisgesteuerte Prozesskette). Das Buch gilt noch heute als Standardwerk des Geschäftsprozessmanagements. Das 1984 eben-
falls von Prof. Scheer gegründete IT Unternehmen IDS Scheer AG veröffentlichte kurz darauf das Produkt ARIS Toolset, das die technische Umsetzung des ARIS-Konzeptes in einem Softwarewerkzeug darstellte. Das ARIS Toolset war das weltweit erste Softwarewerkzeug zur (grafischen) Beschreibung und Analyse von betriebswirtschaftlichen Geschäftsprozessen. Es entwickelte sich in kurzer Zeit zu einem weltweiten Standard und wurde 1995 von der Gartner Group als Weltmarktführer eingestuft. Die Idee, ERP-Systeme und Geschäftsprozesse auf Grund ihrer wechselseitigen Beziehungen enger miteinander zu verzahnen, führte dann zu einer strategischen Partnerschaft zwischen SAP und der IDS Scheer AG. Im Rahmen dieser Partnerschaft entstand das „SAP R/3 Referenzmodell“. Dieses Modell war das weltweit erste werkzeugbasierte Modell, das eine umfassende Beschreibung der in einem ERP-System abgebildeten Geschäftsprozesse darstellte. Als Basis für die Erstellung und Anwendung dienten sowohl die ARIS-Methode als auch das ARIS Produkt. Die damals von Prof. Scheer entwickelte Idee der prozess- und modellbasierten Einführung von ERP-Systemen hat sich bis zum heutigen Zeitpunkt weiterentwickelt und ist heute quasi State of the Art. Bestätigt unter anderem auch durch den Kauf der Firma Signavio durch die SAP AG im Jahr 2020. In den folgenden Jahren wurde das BPM-Konzept kontinuierlich weiterentwickelt. So wurde zu Beginn der 2000er Jahre die Idee des Process Performance Management (Process Mining) geboren. Das erste Produkt dieser Art wurde Anfang der 2000er Jahre wiederum durch die IDS Scheer AG auf den Markt gebracht (ARIS PPM). Im Gegensatz zum Ansatz der Prozess-
modellierung, wo es darum geht, bestehende fachliche Prozesse auf mögliche organisatorische und technologische Schwachstellen zu untersuchen und darauf aufbauend neue, verbesserte Soll-Prozesse zu entwickeln, verfolgt das Process Mining einen anderen Gedanken. Hierbei geht es darum, bereits softwaretechnisch implementierte Geschäftsprozesse (Systemprozesse) durch einen „Reengineering“-Ansatz modellhaft darzustellen und dabei gleichzeitig relevante Prozesskennzahlen wie Zeiten oder Kosten zu messen. Anschließend werden diese Messergebnisse dann auf potenzielle Schwachstellen untersucht. Während sich die Prozessmodellierung auf der sogenannten Typ-Ebene (Blaupause) bewegt und sowohl systemgestützte als auch manuelle Prozesse auf unterschiedlichen Aggregationsebenen umfasst, konzentriert sich das Process Mining ausschließlich auf systemgestützte Prozesse und erfolgt auf der sogenannten Instanzenebene (Einzelprozessebene). Somit ist die Prozessmodellierung als ein strategischer Ansatz zu sehen, in dem es primär darum geht, zukünftige Prozessinnovationen zu definieren. Das Process Mining dagegen betrachtet eher die Vergangenheit und fokussiert sich auf operative Schwachstellen der Systemunterstützung. Beide Ansätze ergänzen sich jedoch und sollten insofern integriert betrachtet werden.
Die nächsten Entwicklungen – und diese halten bis heute an – fokussierten sich immer stärker auf den sogenannten ganzheitlichen Prozess-Lifecycle. Dabei ging es darum, wie die einzelnen Phasen des BPM Konzept (Analyse, Design, Implementierung, Ausführung und Überwachung) so miteinander verzahnt werden können, dass dabei wiederum ein ganzheitlicher Prozess entsteht. Die Idee des Process of Process war geboren. Das Konzept geht davon aus, dass das Prozessmanagement selbst wiederum als Prozess definiert werden kann, den es ganzheitlich zu unterstützen und auch weitestgehend zu automatisieren gilt. Auch hier war Prof. Scheer mit der IDS Scheer AG ein Vorreiter. Bereits Ende der 1990er Jahre wurde der HOBE (House of Business Engineering) Ansatz vorgestellt. Bei HOBE handelte es sich um ein ganzheitliches Framework zur Abbildung eines geschlossenen BPM-Regelkreises. Es umfasste die vier Ebenen Analyse/Design, Implementierung, Ausführung und Controlling/Monitoring. Alle Ebenen waren sowohl methodisch als auch technologisch miteinander integriert. Im Rahmen dieser Entwicklungen lag ein besonderes Augenmerk auf der (automatischen) Transformation der fachlichen Prozessmodelle in technische und damit implementierbare Prozessbeschreibungen. Die zentrale Frage, die in diesem Zusammenhang zu beantworten war, lautete: Ist es möglich – und wenn ja wie – fachliche Prozessmodelle automatisch in technische Implementierungsmodelle zu überführen. Unter dem Schlagwort „Strategy to Execution“ ist diese Problemstellung auch heute noch höchst relevant. Ein weiterer Schwerpunkt heutiger Entwicklungen liegt in der Frage, wie BPM und EAM (Enterprise Architecture Management) stärker miteinander verzahnt werden können. In beiden Bereichen werden Modelle zur Beschreibung unternehmensspezifischer Architekturelemente verwendet. Während es bei BPM jedoch eher um Aspekte der Modellierung und Analyse geht und eher die Prozesse, Daten und Organisation im Betrachtungsmittelpunkt stehen, fokussiert sich das EAM mehr auf die Bereiche Planung und Portfolio-Management mit dem Betrachtungsschwerpunkt auf Projekte und Applikationen (IT Systeme). Im Gegensatz zum BPM-Konzept beinhaltet der EAM-Ansatz auch eine zeitliche Betrachtungsdimension. Trotz dieser Unterschiede besitzen die Meta-Modelle beider Konzepte einige Überschnei-
dungen. So werden im Bereich BPM je nach Use Case auch Applikationen und IT Systeme betrachtet und im Bereich EAM häufig auch Prozesse und Rollen. Diese Überlappung „schreit“ quasi nach einer stärkeren methodischen und technischen Integration.
Ein weiterer Begriff, der derzeit auf dem Gebiet des Process Managements diskutiert wird, ist der Begriff des „Digital Twin“. Im Allgemeinen versteht man unter einem Digital Twin eine digitale (virtuelle) Repräsentation eines physischen Objektes der realen Welt. Der Twin spiegelt die charakteristischen Eigenschaften und den Status des realen Objektes eins-zu-eins wider. Im technologischen Sinne handelt es sich hierbei um eine mehr oder weniger komplexe Datenstruktur, die die Realität in einem Softwaremodell abbildet. Ein Unternehmensweites Prozessmodell ist im Prinzip nichts anderes. Es ist ein Softwaremodell (Datenstruktur), das die physische Realität (Geschäftsprozesse) in digitaler Form abbildet. Was derzeit noch fehlt, ist die 1:1-Verbindung zur physischen Welt. Ein Digital Twin ist nämlich direkt mit dem realen Objekt verbunden und kann somit jeder Zeit über den aktuellen Status Auskunft geben. Würde es nun gelingen, ein Prozessmodell mit den physischen Prozessen im Unternehmen direkt zu verbinden, so könnte dieser Digital Process Twin zu jedem Zeitpunkt die aktuelle Situation in den Unternehmensprozessen widerspiegeln. Quasi wie ein Echtzeit-Navigationssystem. Jede Veränderung in den realen Prozessen würde sich unmittelbar in dem Digital Twin widerspiegeln. Dies würde den Unternehmen völlig neuartige Möglichkeiten geben, Schwachstellen in den Prozessen zu erkennen und sofort zu reagieren. Auch könnten unterschiedliche Prozessszenarien simuliert und Entscheidungen über Prozessveränderungen somit schneller und mit weitaus höherer Qualität getroffen werden. Mit anderen Worten, die Prozesse eines Unternehmens könnten in Echtzeit überwacht und gesteuert werden. Modell und Realität würden sozusagen zu einer Einheit verschmelzen.
Die Zukunft
Die neuesten Entwicklungen im Bereich BPM befassen sich mit dem Thema der künstlichen Intelligenz. Im Mittelpunkt steht hierbei die Frage, wie und ob das BPM-Konzept durch den Einsatz von Methoden der künstlichen Intelli-
genz (KI) ergänzt, erweitert oder gar neu erfunden wird. Mit dem Erscheinen der auf neuronalen Netzen basierenden Large Language Models (LLMs) kann man ohne Zweifel von einem Durchbruch im Bereich der künstlichen Intelligenz reden. Auch wenn diese LLMs sicherlich noch ihre Schwachstellen (Halluzination) und Limitierungen (Context Window) haben, so ist ihre Performance, was das Generieren von natürlicher Sprache angeht, als außerordentlich zu bewerten. Gerade durch die Kombination von (unsupervised) pre-training mit (supervised) human feedback training ist es gelungen, bisher nicht für mögliche gehaltene Resultate zu erzielen. Die Möglichkeit, diese LLMs lokal einzusetzen und auf eigene, spezifische Datenbestände anzuwenden ( „Retrieval Augmentation“) führt zu gänzlich neuen Einsatzgebieten in den Unternehmen, weil hierdurch die Nachteile des reinen „Pre-Training-Ansatzes“ wie Datenqualität, Data Privacy, Data Ownership und Datenaktualität abgemildert werden.
Out of the box verstehen diese LLMs ausschließlich textuelle Daten, die zu ihrer Verarbeitung in mathematische Zahlen (Vektoren) umgewandelt werden. Das heißt, diese Basis-modelle (foundational models) verstehen aus sich heraus keine BPM-Methoden, weil sie darauf nicht trainiert wurden. Deshalb ergeben sich derzeit folgende Fragen: Wie können die LLMs auf Prozesse trainiert werden? Braucht es hierzu ein Fine Tuning? Reicht der „In Context Learning“-Ansatz? Oder liegt die Lösung vielmehr im Bereich des „Retrieval Augmentation“, (RAG) ? Welche Rolle spielen Vektordatenbanken in diesem Zusammenhang? Liegt das Ziel darin, auf Grund eines textuellen Inputs automatisch grafische Prozessmodelle zu erzeugen, oder liegt es umgekehrt darin, aus grafischen Modellen Text zu erzeugen? Gelingt es, durch den Einsatz von entsprechend trainierten LLMs Prozessschwachstellen automatisch aufzuzeigen? Können Nutzerfragen zur Erläuterung von Prozessmodellen automatisch beantwortet werden? Können bestehende Prozessmodelle automatisch optimiert werden?
All diese Fragen werden derzeit sowohl in der Wissenschaft als auch in der Praxis diskutiert und untersucht. Einiges wird zukünftig sicherlich machbar sein, anderes wiederum wird sich als doch eher schwierig erweisen. Egal, wie die Zukunft des BPM sich entwickeln wird, die künstliche Intelligenz wird bei dieser Entwicklung sicherlich eine tragende Rolle spielen.
Zum Schluss noch eine – subjektive – Einschätzung des Autors. Die Zukunft der KI im Bereich des BPM liegt in der Kombination von LLMs, Retrieval (Search) und spezifischen in Vektordatenbanken abgebildeten Prozessmodellen (Large Process Models). Hierdurch werden die Datenqualität sichergestellt und auch Fragen wie Security, Data Privacy und Data Ownership beantwortet. Lediglich die Frage, wie LLMs in die Lage versetzt werden, Modellierungsmethoden wie beispielsweise BPMN zuverstehen, braucht noch etwas Zeit. Auch wenn diesen BPM-orientierten KI-Ansätzen einiges zuzutrauen ist, wird man weiterhin kreative Prozessexperten benötigen. Denn wirklich disruptive Prozessansätze entstehen nicht durch die Analyse von Bestehendem, sondern durch Kreativität, Intuition und ein gutes Maß an Glück. Alles Eigenschaften, die KI Systeme – zumindest bis zum heutigen Zeitpunkt – nicht wirklich besitzen.