Künstliche Intelligenz (KI) hat das Potenzial, die Unternehmensabläufe zu revolutionieren, aber ihre Effektivität hängt von der Qualität der Daten und dem Kontext ab, auf die sie Zugriff hat. Denn ohne ein tiefgreifendes Verständnis der Geschäftsprozesse fällt es der KI schwer, die einzigartige Arbeitsweise eines Unternehmens zu verstehen. Celonis überbrückt mit dem Process Intelligence Graph und KI-gesteuerten Lösungen wie AgentC diese Lücke, indem es KI-Tools mit dem entscheidenden Input versorgt: kontextbezogener Prozessintelligenz in Echtzeit.
Im folgenden Interview spricht Manuel Haug, Field CTO bei Celonis, mit Lucky Kuffer von D1g1tal Agenda darüber, wie Process Intelligence KI-Tools ermöglicht, Unternehmensprozesse zu optimieren. Sie diskutieren über die Integration von Large Language Models (LLMs), die Rolle des Process Intelligence Graphs und die Zukunft des objektzentrierten Process Minings. Lesen Sie weiter, um zu erfahren, wie KI und Process Intelligence im Zusammenspiel Unternehmen effizienter, resilienter und nachhaltiger machen.
d1g1talLOOPs: Herr Haug, bei der Opening Keynote der Celosphere 2024 ist mir ein Statement besonders im Gedächtnis geblieben: „No AI without PI”, also keine künstliche Intelligenz ohne Prozessintelligenz. Was ist damit gemeint?
Mit „AI” meinen wir in diesem Kontext Unternehmens-KI. Die Aussage ist ein Ergebnis der Erfahrungen, die wir in den letzten beiden Jahren rund um die KI-Welle und Large Language Models (LLMs) gesammelt haben. Viele unserer Kunden sind beim Versuch, Unternehmensprozesse in Eigeninitiative mittels KI zu verbessern, nicht weit gekommen, um nicht zu sagen: gescheitert.
Im gleichen Zeitraum ist durch die intensive Zusammenarbeit mit unseren Kunden die Erkenntnis gereift, was gut und was schlecht in einem Prozess ist. Der Kontext ist ein kritischer Faktor, wenn es darum geht, ob KI überhaupt helfen kann, faktenbasierte Entscheidungen zu treffen. Daher haben wir diese Aussage formuliert. Der Blick in die KI-Praxis lehrt, wie richtig wir damit liegen.
Apropos Praxis: Die neuen Produkt-Features, die in dieser Keynote vorgestellt wurden, basieren auf dem neuen Process-Intelligence-Graphen, richtig?
Ja. Wir reden oft darüber, dass wir mit dem PI-Graph eine neue gemeinsame Sprache formuliert haben – für die IT und das Business – mit der wir artikulieren können, wie ein Prozess funktioniert.
Das Interessante an diesen Sprachmodellen ist ja, dass sie mit Sprache funktionieren. Und das ist schon etwas sehr Bemerkenswertes: Ein System zu orchestrieren und zu bedienen, indem man es natürlichsprachlich beschreibt. Die weitere Konsequenz ist dann sehr naheliegend: Dadurch, dass wir einen Prozess und all das, was ihn umfasst, in einer für alle Stakeholder verständlichen Sprache ausdrücken, sind wir in der Lage, die unterstützende KI sinnvoll zu instrumentalisieren. Zum Beispiel dahingehend, wie ein Prozess im Rechnungswesen oder in der Produktion abläuft. Die passende Formulierung ermöglicht es uns, KI-Produkte effizient anzuwenden.
Ist dieser PI-Graph statisch und wird nur ab und zu mal verändert? Oder verändert er sich ständig?
Sowohl als auch: Er hat ein „Kern-Korsett“. Rechnungen im Finanzwesen bestehen ja auch aus grundlegenden Bausteinen, die sich nicht ändern. Aber was mit ihnen geschieht, kann sehr dynamisch sein. Nehmen wir BMW als Beispiel: Dort haben sich die Produktionslinien infolge der Elektromobilität deutlich verändert. Natürlich werden weiterhin Produktionsaufträge vergeben. Aber der Prozess, der mit dem Produktionsauftrag für Elektrofahrzeuge in Beziehung steht, hat sich natürlich im Vergleich zu einem Verbrennerfahrzeug deutlich verändert. Und die Einbindung neuer Zulieferer führt auch zu Veränderungen. Ich würde sagen: Die Objekte sind mehr oder weniger sehr statisch, aber was mit ihnen passiert, also die sogenannten Events, die uns erlauben, zu rekonstruieren, wie der Prozess abläuft, sind hochdynamisch. Die Daten selbst sind nicht statisch: Über eine Live-Anbindung an die Systeme aber sind wir immer up-to-date und haben den aktuellen Status-quo der Prozesse im Zugriff
Aber: Der gesamte PI-Graph ist frei modellierbar, wobei die Kernobjekte stets die gleichen sind. Natürlich unterscheidet sich der PI-Graph im Detail für jeden Kunden. Kein Wunder, haben doch die Produktionslinien von BMW und Pfizer von außen betrachtet wenig gemein.
Ich gehe davon aus, dass auch das neue Feature AgentC in unserer Celonis-Plattform auf dieser Technik aufbaut?
Völlig richtig. AgentC gehört zu unserem KI-Portfolio, das auf dem PI-Graph aufsetzt. AgentC zeichnet sich aber auch durch die starke Integration in unser Ökosystem aus, das sich gerade etabliert. Es existieren ja bereits Communities, wie jene um Microsoft und deren Entwicklungsumgebung Copilot Studio. Mit AgentC integrieren wir derartige Fremdanwendungen in unsere Celonis-Plattform.
Mit welchen Ergebnissen?
Mit dem Ergebnis, dass wir in der Lage sind, verschiedene KI-Anwendungen mit Celonis kommunizieren zu lassen und Informationen über Prozesse abzufragen. Damit können über eine API Prozess-Kontexte abgerufen werden, zum Beispiel unter welchen Umständen die Entscheidung getroffen wird, ob eine Expresslieferung notwendig ist oder die Standardlieferung ausreicht.
Es ist also zu erwarten, dass es ein Ökosystem an Entwicklern geben wird, die KI-Apps auf Basis von AgentC-APIs kreieren?
Genau das geschieht bereits, wie wir auf der diesjährigen Celosphere gezeigt haben. Unser eigener Copilot folgt einem Baukastenprinzip, mit dem derartige Expertensysteme erstellt werden können: Experten für den Einkauf, fürs Beladen von Trucks und so weiter. Diesem Experten gebe ich Zugriff auf bestimmte Teilprozesse und lasse sie mit ihnen interagieren. So etwas lässt sich mit Celonis-Technologie und unseren Technologie-Partnern bereits jetzt abbilden.
Eine Frage zu den eingesetzten Sprachmodellen: Kann ich mich frei entscheiden, welches LLM ich einsetze? Habe ich also die Wahl zwischen GPT- und Open-Source-Modellen wie Llama?
Theoretisch ja, praktisch würde ich es aktuell nicht empfehlen. Faktisch ist das einzige Modell, das derzeit industriell anwendbar ist, ChatGPT – und zwar weniger aus Gründen der Modellqualität oder der Performance, sondern wegen dem Tool-Support und der infrastrukturellen Reife, zum Beispiel über Azure OpenAI. Das kann sich natürlich schnell ändern. Celonis ist da flexibel. Die einsetzbaren Modelle sind zwar alles Sprachmodelle, aber sie funktionieren durchaus unterschiedlich. Ein Prompt, den ich für ein ChatGPT-Modell optimiere, funktioniert nicht genau gleich gut mit Llama. Das trifft übrigens auch fürs interne Reasoning zu. Die unterschiedlichen LLMs haben zudem unterschiedliche Stärken bei verschiedenen Use Cases.
Für die Zukunft heißt das: Es ist vorstellbar, verschiedene miteinander interagierende Copiloten zu implementieren – ein Experte greift auf ChatGPT zu, einer auf Llama und wiederum ein anderer auf Anthropic/Claude oder ein anderes LLM.
Aber das eigentliche Prompting selbst passiert dann außerhalb von Celonis?
Das kommt darauf an: Für die Copiloten, die in Celonis konfiguriert werden, macht Celonis auch das Prompting. Ein Copilot ist ja im Grunde genommen nichts anderes als ein Chat-Interface. Der „Experte“ entsteht durch den Zugriff auf die richtigen Daten, folglich durch Konfiguration, bei der festgelegt wird, auf welchen Teil des Prozesses er zugreifen soll. Hinzu kommt die Definition der Rolle, die der System-Prompt haben soll. Wie soll er sich verhalten? Mit welcher Zielgruppe soll er interagieren? Wir können ein derartiges optimiertes Expertensystem passgenau auf den jeweiligen Use Case konfigurieren.
Dient der PI-Graph dabei als Wissensquelle fürs sogenannte Retrieval Augmented Generation (RAG)?
Ja, das ist eine der Techniken, um auf Informationen zuzugreifen. Aber es gibt verschiedene Möglichkeiten der Interaktion. Eine andere Interaktion wäre, Trigger-Punkte zu setzen und damit zu definieren, wann der Copilot starten soll. Wir definieren ein Signal in Celonis, das wir berechnen können. Und wenn dieser Alarm ausgelöst wird, übergeben wir den Use Case ans KI-System zur weiteren Bearbeitung.
Man darf nicht vergessen, dass diese Systeme probabilistisch arbeiten: Sie verhalten sich selbst bei mehrfach ausgeführten identischen Aufrufen stets etwas anders. Deshalb ist es sehr wichtig, diese Outputs ins Monitoring zu integrieren und die Aussagen so zu behandeln, als wenn sie von menschlichen Teams kämen. So ist es möglich, gegebenenfalls nachzujustieren und unter Umständen weitere Agenten in die „Diskussion" einzubeziehen.
In der Tat beobachten wir das in der Praxis bei unseren Kunden, denn sie gehen bei der Prozessoptimierung genau so vor. Auf den Punkt gebracht: Man hat ein weiteres – eben virtuelles – Team, das an einem Teilprozess arbeitet, um einen bestimmten Output, zum Beispiel bezogen auf eine höhere Kundenzufriedenheit, zu erzielen.
Ein sehr beliebtes Thema auf der Celosphere war das sogenannte Object-centric Process Mining – der Andrang auf Sessions zur neuen Datenmodellierung war ja enorm.Wie lange wird es noch dauern, bis diese Art von Process Mining Stand der Technik sein wird?
Ah, das ist eine gute Frage. Zumindest sehen wir heute schon, dass Object-centric Process Mining zu einem Muss bei all unseren Kunden geworden ist. Jeder, der heute neu mit Process Mining anfängt, nutzt es. Aber wir haben eine große Kundenbasis. Deshalb wird es dauern, bis es über alle Process-Mining-Aktivitäten hinweg ausgerollt sein wird. Wir betrachten Object-centric Process Mining inzwischen als De-facto-Standard, denn es gibt keinen Grund, die Technologie in ihrem früheren Entwicklungsstadium zu verwenden.
Zuerst erschienen in D1g1tal Agenda - das junge Fachmagazin für Open Minds in der Industrie: https://d1g1tal.de/