Planet BPM

February 09, 2016

Thomas Allweyer: 3. IT-Radar: Prozessmanager ignorieren Innovationen

Chart-aus-IT-Radar1516Sicherheit steht ganz oben auf der Agenda der Prozessmanagement- und IT-Experten, die sich an der jüngsten Befragung zum „IT-Radar für BPM und ERP“ beteiligt haben. Bemerkenswert daran ist, dass das Thema Sicherheit in den beiden vorangehenden Studien aus den Jahren 2012 und 2013 überhaupt nicht unter den zwölf wichtigsten Themen aufgetaucht war. Hier haben wohl die verschiedenen bekannt gewordenen Sicherheitsvorfälle zu einem Umdenken geführt. Auch das Thema Governance landete als Neueinsteiger in den Top zwölf auf Platz vier. Herausgerutscht aus dem oberen Dutzend sind hingegen Master Data-Management, SOA, Automatisiertes Testen und EAM.

Es gibt aber auch Aspekte, die in allen drei Befragungen als wichtig erachtet wurden, wie Compliance, Integration von Prozessen und IT, BPMN und Prozessautomatisierung. Nach wie vor liegt der Schwerpunkt also vor allem auf den klassischen Themen, wohingegen es kein aktueller Trend wie Big Data, Industrie 4.0, Cloud Computing und Digitalisierung unter die ersten zehn geschafft hat. Hier sehen die Autoren der Studie die Gefahr, dass sich Prozess- und IT-Experten zusehends von den Prioritäten der Unternehmensleitung entfernen. Während sich die Führungsebene mit innovativnen Ansätzen wie Digitalisierung und Big Data beschäftigt, konzentieren sich IT- und Prozessverantwortliche fast nur auf die sichere Beherrschung der aktuellen Prozesse und Systeme.

Immerhin prognostizieren die Studienteilnehmer eine zukünftig wachsende Bedeutung dieser Innovationsthemen. Aber auch auf längere Sicht schätzen sie diese als weniger bedeutend ein als Sicherheit, Compliance und Prozessautomatisierung. Hierin sind sich Anwender, Software-Anbieter und Wissenschaftlicher weitgehend einig.

Informationen zur Studie finden sich unter it-radar.info. Dort kann auch der gerade fertiggestellte Ergebnisbericht angefordert werden.

by Thomas Allweyer at February 09, 2016 10:48 AM

February 08, 2016

Sandy Kemsley: Bruce Silver Now Stylish With DMN As Well As BPMN

I thought that Bruce Silver’s blog had been quiet for a while: turns out that he moved to a new, more representative domain name, and my feed reader wasn’t updating from there. He’s rebranding his...

[Content summary only, click through for full article and links]

by sandy at February 08, 2016 04:35 PM

February 04, 2016

Thomas Allweyer: Prozess- und Adaptive Case Management auf kiwiw-Workshop

kiwiw-logoEine interessante Gelegenheit, einen etwas anderen Ansatz zur Automatisierung von weniger stark strukturierten Prozessen live zu erleben, bietet sich auf einem Workshop der Firma kiwiw am 26.2. in Hamburg. Es werden Neuerungen und Anwendungen der kiwiw-Plattform vorgestellt, deren Einsatz an der Universität Hannover in diesem Beitrag beschrieben wird. Auf dem Programm stehen unter anderem Vorträge zu Qualitätsmanagementsystemen gemäß ISO 9001 nach der Novelle von 2015, einer Lösung zur Vermietung von Maschinen und ein Workshop „Von der Prozesstapete zur Prozessdynamik“ mit Professor Jablonski von der Universität Bayreuth. An dem Workshop können neben kiwiw-Partnern auch interessierte Berater und Anwender teilnehmen. Die Anmeldung ist über die kiwiw-Homepage möglich.

by Thomas Allweyer at February 04, 2016 07:28 AM

February 02, 2016

Thomas Allweyer: Business Analyse einfach und effektiv – zweite Auflage

Cover Hanschke Business Analyse 2. AuflageDas Buch „Business Analyse einfach und effektiv“ mit einem starken Focus auf Demand Management und Best Practices ist in der zweiten Auflage erschienen. Die Struktur und wesentlichen Inhalte des Buchs sind gleich geblieben (hierzu wird auf diese Besprechung der ersten Auflage verwiesen).

In der neuen Auflage werden die verschiedenen Planungsebenen stärker berücksichtigt, zudem kamen weitere Best Practices hinzu, wie z. B. die Erstellung von Business Cases, sowie Ausführungen zur Werkzeugunterstützung.


Inge Hanschke, Gunnar Giesinger, Daniel Goetze:
Business Analyse einfach und effektiv.
Geschäftsanforderungen verstehen und in IT-Lösungen umsetzen.
2. Auflage. Hanser 2016.
Das Buch bei amazon.

by Thomas Allweyer at February 02, 2016 02:42 PM

January 28, 2016

Thomas Allweyer: Digitalisierung im Fokus der MID Insight

MIDInsight50 € Rabatt für Leser dieses Blogs Die Digitalisierung von Unternehmen steht im Fokus der diesjährigen Konferenz Insight, die am 12.4.2016 in Nürnberg stattfindet. Dabei werden besonders die gewandelten Rollen der IT und des Geschäftsprozessmanagements betrachtet, die zentral für die Entwicklung und die erfolgreiche Umsetzung neuer Geschäftsmodelle sind. Die Eröffnungs-Keynote hält der Innovationsforscher Nick Sohnemann zum Thema „The New Technology Wave – How Digitalization Disrupts Industries“. Markus Grimm von der GEMA spricht über die Nutzung von Musik und die Konsequenzen der Digitalisierung für Verwertungsgesellschaften. Zum Abschluss beschäftigt sich der bekannte Fernsehjournalist Ranga Yogeshwar über die Auswirkungen der Informationsexplosion auf den Umgang mit Wissen.

Das umfangreiche Fachprogramm bietet insgesamt sieben Vortrags-Tracks zu Themen wie Digitalisierung, Prozessmanagement, Business Intelligence, Agile Entwicklung und Modellierung. Dabei kommen sowohl Anwender als auch Vertreter von IT-Firmen und Forscher zu Wort. Selbstverständlich wird es auch die Möglichkeit geben, sich über die Modellierungs-Werkzeuge und methodischen Ansätzen des Veranstalters MID zu informieren.

Mit dem Aktionscode „KUPR“, den man bei der Online-Anmeldung auf der Veranstaltungshomepage eingeben kann, erhält man 50 € Rabatt auf den Eintrittspreis. Außerdem lohnt es sich schnell zu sein, denn nur noch bis zum Ende dieser Woche (31. Januar) gibt es zudem einen reduzierten Early Bird-Tarif.

by Thomas Allweyer at January 28, 2016 07:12 AM

January 27, 2016

BPM-Guide.de: Camunda Roadshow – [x] done

This and last week we did a roadshow through 7 German speaking cities (Berlin, Hamburg, Düsseldorf, Frankfurt, Munic, Zurich and Vienna). Even if we knew beforehand that there is a lot of interest in Camunda we were surprised by the big amount of people showing up at every single meeting. In total we had more that 550 people in 7 cities! It was an even mixture between business focused roles (like Business Analysts or Project Managers) and technical ones (like Developers). We got a lot of good feedback and so much concrete requests, so I think we will do a …

by Bernd Rücker at January 27, 2016 02:49 PM

January 25, 2016

Thomas Allweyer: Praxiserfahrungen und Innovationen auf CPO-Kongress

BPMO-KongressEinen spannenden Mix aus Praxisberichten und Vorträgen zu neuen Entwicklungen im Prozessmanagement bietet der diesjährige Kongress der BPM&O, der am 10. und 11. März in Köln stattfindet. Im ersten Teil berichten Referenten der Karlsruher Stadtwerke, des Messgeräteherstellers Diehl Metering und des Frankfurter Nahverkehrsdienstleisters traffiQ von ihren Prozessmanagement-Initiativen und Erfahrungen. Im Fokus stehen dabei unter anderem die Einführung eines systematischen Prozessmanagements, das Veränderungsmanagement, die prozessorientierte Organisation und ihre Weiterentwicklung mit Hilfe des Reifegradmodells „eden“.

Uwe Federn und Thilo Knuppertz vom Gastgeber BPM&O erläutern, wie sich das Prozessmanagement weiterentwickeln muss, um die digitale Transformation von Unternehmen zu unterstützen. In eine ähnliche Richtung geht der Vortrag von Professor Mevius, der u. a. über die agile Entwicklung von Prozessen und die Gestaltung der „Process Experience“ für die Kunden spricht. Der Zukunftsforscher Walter Matthias Kunze geht auf den Wertewandel im Zeitalter des Internets ein und wie man diesen für die Veränderung von Prozessen nutzt. Innovation und Lernen werden künftig eins mit dem Tagesgeschäft – das ist die These von Lars Büning, der Unternehmen zum Thema Lernen berät und hierfür unter anderem „LEGO Serious Play“ einsetzt.

Weitere Informationen und die Möglichkeit zur Anmeldung finden sich auf der Homepage der Veranstaltung.

by Thomas Allweyer at January 25, 2016 09:21 AM

January 15, 2016

Sandy Kemsley: Smarter Mobile Apps Webinar with Me and @jamet123

I wrote a paper last year with James Taylor on smarter mobile apps that leverage process and decision management technologies, and we’re giving a webinar on the topic next Tuesday, January 19, at 1pm...

[Content summary only, click through for full article and links]

by sandy at January 15, 2016 04:09 PM

January 11, 2016

Thomas Allweyer: Erfolgreich im Internet der Dinge

Enterprise-IoT-CoverÜberall ist derzeit die Rede vom „Internet of Things“ (IoT). Doch welche konkreten Anwendungen gibt es bereits? Und vor allem: Was bedeuten die aktuellen Entwicklungen für das eigene Unternehmen, und wie kann man im Internet der Dinge erfolgreich sein? Wer sich mit diesen Fragen beschäftigt, kommt an dem englischsprachigen Buch „Enterprise IoT“ nicht vorbei. Das umfassende Werk dürfte für verschiedene Zielgruppen gleichermaßen interessant sein: Sowohl für Einsteiger in die Thematik, als auch für Manager und Projektleiter, aber auch für Software- und System-Architekten.

Einsteiger in das Thema dürften vor allem vom ersten Teil des Buchs profitieren, in dem die Grundlagen des IoT, wichtige Anwendungsgebiete und ausführliche Fallstudien beschrieben werden. Letztere stammen aus den Bereichen Energie, Industrie, Autos und Verkehr sowie „Smart Cities“. An den untersuchten Beispiele wird die Vielfalt des Themengebiets deutlich. So wird das Internet der Dinge in der Energieversorgung nicht nur für die automatische Verbrauchserfassung und -optimierung genutzt, sondern z. B. auch für die Überwachung und Diagnose von Kraftwerken oder die Koordination verschiedener Energie-Erzeuger und -Verbraucher. Ein Beispiel aus dem industriellen Umfeld ist die Demonstrationsanlage „Smart Factory“ in Kaiserslautern, wo individuelle Produkte mit der Losgröße 1 hergestellt werden. Die Produktionsanlage besteht dort aus autonomen Modulen, die innerhalb von Minuten neu konfiguriert und zusammengestellt werden können. Weitere Fallstudien beschreiben die intelligente Chargenverfolgung in einer Chipfabrik, das Flottenmanagement für Reinigungsmaschinen und das Management der Kühlkette in der Lebensmittel-Logistik. Ein etwas außergewöhnliches Beispiel ist die Erfassung und Auswertung riesiger Datenmengen am Teilchenbeschleuniger des Europäischen Kernforschungszentrums CERN.

Im Bereich Auto und Verkehr ist eine spannende Frage, wann mit selbstfahrenden Autos im breiten Einsatz zu rechnen ist. Doch bereits jetzt gibt es viele weitere Einsatzbereiche, bei denen das Internet der Dinge eine wichtige Rolle spielt, z. B. in den Bereichen Car Sharing, Elektro-Mobilität oder Flottenmanagement. Die vorgestellten IoT-Szenarien im kommunalen Bereich unterscheiden sich ebenfalls sehr stark voneinander. Hauptanwendungsgebiete sind zur Zeit Parkplatz-Management sowie Licht- und Wasserversorgung. Aber auch in der Müllentsorgung sind neue Konzepte möglich, z. B. Mülltonnen, die selbständig die Müllabfuhr rufen, wenn sie voll sind. Die Ausführlichkeit der Fallstudien ist unterschiedlich. Insbesondere in den Bereichen Energie und Industrie finden sich zahlreiche sehr umfassende Beschreibungen. Darin werden das jeweilige Szenario mit den verwendeten Komponenten und Technologien erläutert sowie besondere Herausforderungen und gewonnene Erkenntnisse diskutiert. Abgerundet wird dies in vielen Fällen durch Interviews mit Projektverantwortlichen.

Basierend auf den untersuchten Fallstudien entwickeln die Autoren im zweiten Teil des Buchs ihre IoT-Methodik „Ignite“. Diese Methodik ist zweigeteilt. In der ersten Phase, „Strategy Execution“, geht es um die Verortung des Themas IoT in der Unternehmensstrategie, die Identifikation und Ausarbeitung von Marktchancen, und die Initiierung von Projekten. Hierfür werden verschiedene Instrumente vorgestellt, z. B. ein Framework zur Entwicklung eines IoT-Business Models. In größeren Unternehmen, bei denen das Thema IoT an vielen Stellen eine Rolle spielen kann, ist es hilfreich, ein IoT-Kompetenzzentrum aufzubauen, das das betreffende Know-how bündelt. Zudem sollte eine einheitliche technische IoT-Plattform aufgebaut werden, die in verschiedenen Projekten verwendet werden kann.

Im Gegensatz zur Strategie-Phase, die vor allem für das Management interessant ist, richten sich die Ausführungen zur zweiten Phase, „Solution Delivery“, vorrangig an Projektleiter und System-Architekten. Darin geht es um die Planung und Implementierung konkreter Projekte sowie den Betrieb der entwickelten Lösung. Dies stellt eine große Herausforderung dar, da so verschiedene Disziplinen wie Produktentwicklung, Produktion, Unternehmens-IT, eingebettete Systeme, Telekommunikation usw. einbezogen werden müssen. Insbesondere das Aufeinandertreffen so unterschiedlicher Kulturen wie die der Internet-Entwicklung und die des Maschinenbaus macht die Zusammenarbeit schwierig. Die Ignite-Methodik beschreibt den gesamten Lifecyle für eine Lösung und stellt für die einzelnen Disziplinen verschiedene Hilfsmittel zur Verfügung. Dabei wird von einer groben Grundstruktur „Plan – Build – Run“ ausgegangen, doch kann auch ein agiles Vorgehen gewählt werden.

Schließlich werden die verschiedenen Bausteine einer IoT-Lösung beschrieben. Zur Charakterisierung des jeweiligen IoT-Projektes wird ein Kriterienkatalog verwendet, der zum Vergleich mit anderen Projekten und zur Auswahl der geeigneten Lösungsarchitektur genutzt werden kann. Die grundlegende Architektur kann mit Hilfe eines „Asset Integration Architecture“-Schemas dokumentiert werden. Anschließend werden die verschiedenen Technologien erläutert, die in einer IoT-Lösung zum Einsatz kommen, z. B. Gateways und Sensor-Netzwerke, unterschiedliche Kommunikationsmöglichkeiten, Cloud-Dienste und Anwendungsplattformen. Weitere besprochene Themen sind Benutzerinteraktionen, Sicherheit und der Zusammenhang des IoT mit den Themen Big Data und Prozessmanagement.

Auch wenn man für den konkreten Einsatz der vorgestellten Technologien Spezialisten mit tiefergehendem Know-how benötigt, wird doch ein guter Überblick über die prinzipiell zur Verfügung stehenden Technologien gegeben, sowie ein grundsätzliches Verständnis über ihre Möglichkeiten und Grenzen.

Im dritten Teil des Buchs wird die Ignite-Methodik in einem konkreten Projekt angewandt. Dabei handelt es sich um ein „Testbed“ des Industrial Internet Consortiums, d. h. eine experimentelle Anwendung für eine konkrete Problemstellung aus der Praxis. Dabei handelt es sich um die Konfiguration, das Management und die Überwachung des Einsatzes tragbarer Elektrowerkzeuge in der Montage.

Die Inhalte des Buchs wurden im Sinne des Open Publishing-Gedankens während ihres Entstehens nach und nach auf der Webseite enterprise-iot.org veröffentlicht. Sie stehen dort nach wie vor zur Verfügung, so dass man vor Erwerb des Buches bereits wesentliche Teile in einer Vorabversion lesen kann.


Dirk Slama, Frank Puhlmann, Jim Morrish, Rishi Bhatnagar:
Enterprise IoT: Strategies and Best Practices for Connected Products and Services.
O’Reilly 2015.
Das Buch bei amazon.

by Thomas Allweyer at January 11, 2016 12:31 PM

December 30, 2015

BPM-Guide.de: Camunda Review 2015

For anyone interested in Camunda, here is my 2015 review.

Revenue

Our total company revenue grew by 79%.

We have grown our subscription volume (the amount of money we can expect as a recurring revenue) by 87%.

The renewal rate of our existing customers is 100%. Since 2012, when we started our offering, we have not lost a single customer. I cannot believe it will stay like this forever, but right now this means:

They keep using our product and therefore still want the support. Our customer service is pretty good.

We’re still profitable.

Customers

We have almost doubled our customer base and signed up pretty impressive …

by Jakob Freund at December 30, 2015 12:32 PM

December 21, 2015

BPM-Guide.de: Free DMN Online Simulator

We have created an online simulator that allows you to execute DMN decision tables with exemplary data. it is available here: https://camunda.org/dmn/simulator/

What can I do with it?

You can edit the decision table and add, remove or change the rules, as well as add, remove or change the inputs and outputs. You can also upload and execute your local DMN file.

The simulator should help you to

learn DMN in a try-and-error fashion validate if your DMN table is sound see what’s possible with DMN (in Camunda) How does it technically work?

In the frontend, it combines dmn-js with a little bit of custom Javascript. In the …

by Jakob Freund at December 21, 2015 06:06 AM

December 18, 2015

Thomas Allweyer: Business-Objekte, Verträge und Web-basierte Formulare in Bonita 7

Generiertes InitialisierungsformularBei dem BPM-System Bonita, dessen kostenfreie Community Edition ich in der Lehre einsetze, gab es dieses Jahr einen größeren Releasewechsel auf die Version 7. Glücklicherweise funktionieren die zahlreichen, mit Bonita 6 erstellten Beispielprozesse aus meinem BPMS-Buch weiterhin, die man hier herunterladen kann. Zwischenzeitlich hatte ich Gelegenheit, mir die neuen Features näher anzusehen und sie an einem Beispielprozess auszuprobieren. Die wichtigsten Neuerungen sind:

  • Business-Objekte auf Grundlage eines prozessübergreifenden Business-Daten-Modells
  • Contracts (Verträge) zur losen Kopplung der Benutzungsoberfläche
  • Nutzung des REST-API zur Anbindung der Benutzungsoberfläche
  • UI-Designer (Oberflächen-Editor) auf Basis der Web-Frameworks AngularJS und Bootstrap
  • Applications (Anwendungen), die unabhängig vom Bonita-Prozessportal genutzt werden können

Eine Beschreibung und Einschätzung dieser Neuerungen und ein ausführliches Tutorial zur Entwicklung eines Beispielprozesses finden sich in diesen Artikeln:

 

by Thomas Allweyer at December 18, 2015 12:21 PM

December 17, 2015

BPM-Guide.de: New Camunda Modeler already plays in BPMN Champions League

The brand-new Camunda Modeler based on bpmn.io just proved that it can already play in The Champions League of BPMN modeling. What is The Champions League of BPMN modeling? Well there are dozens if not hundreds of tools that can draw BPMN and produce the process diagrams that we have all come to love in the last 13 years. That is not really a challenge in 2015. The Champions League in terms of BPMN is represented by the Model Interchange Working Group (MIWG) at the OMG. It provides a test suite for training the tools and also organizes live demonstrations …

by Falko Menge at December 17, 2015 10:11 AM

December 14, 2015

Thomas Allweyer: Camunda unterstützt nun den kompletten Dreiklang aus BPMN, CMMN und DMN

BPMN Heatmap in CamundaMit dem jüngsten Release 7.4 unterstützt die Plattform des Berliner Open Source BPM-Spezialisten Camunda neben den Standards BPMN für strukturierte Prozesse und CMMN für das Case Management nun auch DMN (Decision Model and Notation) zur Modellierung komplexer Entscheidungen. Dabei wurde bislang nicht die grafische Notation implementiert, sondern die Entscheidungstabellen als zentrales Element zur Definition von Regeln. Die von Camunda entwickelte Decision Engine kann sowohl standalone genutzt, als auch aus BPMN-Prozessen und CMMN-Fällen heraus aufgerufen werden. Dabei wird eine Historie mitgeführt, so dass sich später nachvollziehen lässt, wie bestimmte Entscheidungen zustande kamen. In der kostenpflichtigen Enterprise Edition ist es außerdem möglich, Regeln live während der Prozessausführung zu editieren.

Eine weitere Neuigkeit ist der BPMN-Modeler, ein komplettes Modellierungswerkzeug, das auch separat von der BPM-Plattform genutzt werden kann. Dieses Tool wurde auf Basis der bereits seit einiger Zeit verfügbaren Web-Modellierungsumgebung bpmn.io entwickelt. Im Gegensatz zu bpmn.io handelt es sich beim BPMN-Modeler jedoch um ein Offline-Werkzeug, das nicht auf eine Internet-Anbindung angewiesen ist. bpmn.io ist auch für Entwickler interessant, die eine BPMN-Modellierung in ihre eigenen Anwendungen und Webseiten integrieren möchten. Dabei ist auch eine Anpassung möglich. Die Modellierungskomponente wird bereits von einigen unabhängigen Softwareherstellern als Tool zur Konfiguration ihrer prozessgesteuerten Anwendungen genutzt, z. T. mit einer gezielt für den Anwendungszweck eingeschränkten Modellierungspalette.

Zur Analyse der abgelaufenen Prozesse steht in der Enterprise Edition nun eine „BPMN Heatmap“ zur Verfügung. Dabei kann man sich in einem grafischen Prozessmodell durch entsprechende Farbmarkierungen anzeigen lassen, welche Pfade besonders häufig durchlaufen worden sind (vgl. die obige Abbildung). Auch unter der Haube der Process Engine hat sich einiges getan, z. B. Verbesserungen hinsichtlich Performance und Skalierbarkeit.

Weitere Neuerungen werden in dieser Webinar-Aufzeichnung vorgestellt.

by Thomas Allweyer at December 14, 2015 10:21 AM

December 08, 2015

BPM-Guide.de: Camunda BPM 7.4 Roadshow

Berlin 18.01. | Hamburg 19.01. | Düsseldorf 20.01. | Frankfurt (M) 21.01. | München 22.01. | Zürich 26.01. | Wien 27.01.

In Zusammenarbeit mit

Die wichtigsten Neuigkeiten zu Camunda BPM 7.4

Im Januar haben Sie die einmalige Gelegenheit, die neuen Features in Camunda BPM 7.4 direkt live zu erleben. An insgesamt 7 Terminen in Deutschland, der Schweiz und Österreich werden folgende Fragen beantwortet:

Was bietet der neue Camunda Modeler? Wie können Business Analysten mit DMN ihre Geschäftsregeln abbilden? Wie können Entwickler mit der neuen DMN-Engine diese Regeln automatisieren? Welche Praxisprobleme lassen sich mit DMN lösen?

Die Camunda-Gründer Bernd Rücker und Jakob Freund werden persönlich vor Ort sein …

by Jakob Freund at December 08, 2015 10:42 AM

December 01, 2015

Thomas Allweyer: Die tatsächlich abgelaufenen Prozesse analysieren

Screenshot Disco Process MiningDie Analyse von Geschäftsprozessen wird meist auf Grundlage von Prozessmodellen durchgeführt, die mit Hilfe von Interviews und Workshops erhoben wurden. Diese Modelle stellen somit dar, wie der Prozess nach Ansicht der involvierten Mitarbeiter abläuft. Der tatsächliche Ablauf kann sich jedoch in vielen Fällen deutlich von dieser Idealvorstellung der Beteiligten unterscheiden. Beim Process Mining wertet man daher die Daten der tatsächlich durchgeführten Prozesse aus. Dies setzt voraus, dass der Prozess IT-gestützt abläuft und entsprechende Daten in den verwendeten IT-Systemen vorliegen. Mit Hilfe spezieller Algorithmen und Auswertungstools lassen sich daraus Schwachstellen, Probleme und Abweichungen von den vorgegebenen Prozessen analysieren.

Trotz nachweisbarer Potenziale und Einsparmöglichkeiten ist der Markt für Process Mining bisher recht überschaubar. Die Firma Fluxicon ist einer der Anbieter, die sich auf dieses Thema spezialisiert haben. Die Gründer des Unternehmens, Anne Rozinat und Christian Günter, bieten mit ihrer Software „Disco“ ein Process Mining-Tool an, das sich durch gute Benutzbarkeit auszeichnet und auch von Nicht-Experten genutzt werden kann. Hier spielen intuitiv verständliche Darstellungen in Form von Prozessmodellen und interaktiv anpassbare Visualisierungen eine wichtige Rolle. Voraussetzung dafür sind schnelle Auswertungsalgorithmen, damit die Benutzer etwa für den Vergleich unterschiedlicher Szenarien nicht lange warten müssen – auch bei großen Datenmengen.

Daten über die tatsächlich abgelaufenen Prozesse benötigt

Diese Eigenschaften unterscheiden „Disco“ als kommerzielles Produkt von den Process Mining-Werkzeugen der akademischen Forschung, die z. T. als Open Source verfügbar sind. Fluxicon entstand ursprünglich selbst als Spin-Off der Process Mining-Forschungsgruppe an der Technischen Universität Eindhoven. Deren Leiter, Professor Wil van der Aalst, ist der führende Experte im Bereich Process Mining. Er sitzt auch im Fluxicon-Beirat, so dass ein ständiger Austausch mit der Forschung gegeben ist.

Wie funktioniert die Prozessanalyse mit Fluxicon? Zunächst müssen die Daten über die tatsächlich abgelaufenen Prozesse bereitgestellt werden. Wird der Prozess durchgängig von der Process Engine eines BPMS gesteuert oder etwa über eine Adaptive Case Management-Plattform abgewickelt, die sämtliche Ereignisse als Audit Trail speichert, so ist dies vergleichsweise einfach, da die Daten bereits in einer recht gut auswertbaren Form vorliegen. Wesentlich schwieriger wird es, wenn herkömmliche, funktionsorientierte IT-Systeme eingesetzt werden, die beispielsweise über keinen einheitlichen Identifizierer für einen kompletten Prozessdurchlauf verfügen. Verläuft der Prozess gar über mehrere unterschiedliche Systeme hinweg, wird es noch mühsamer, die zu einem bestimmten Prozess gehörenden Daten zuzuordnen. Fluxicon bietet keine vorgefertigen Standardadapter zur Datenextraktion an. Diese muss ggf. individuell realisiert werden.

Interaktive Visualisierungen

Disco benötigt als Input ein Event Log, das mindestens eine Case-ID (Identifzierer der Prozessinstanzen) und die aufgetretenen Ereignisse (z. B. Beginn und Ende von Aktivitäten) mit Zeitstempeln enthält. Es lassen sich aber auch zugeordnete Ressourcen und weitere Attribute verarbeiten. So kann es beispielsweise hilfreich sein, Prozesskennzahlen hinsichtlich unterschiedlicher Produkte, Kundengruppen, Vertriebskanälen, Organisationseinheiten oder Auftragswerten auszuwerten.

Für die Analyse der importierten Prozessdaten stehen drei verschiedene Ansichten zur Verfügung: Ein grafisches Prozessmodell, eine Statistik-Ansicht und eine Darstellung der einzelnen Cases, d. h. Prozessinstanzen. Im grafischen Prozessmodell werden die durchgeführten Aktivitäten angezeigt sowie alle Übergänge, die zwischen den Aktivitäten vorgekommen sind. Dabei werden die Aktivitäten entsprechend der Häufigkeit ihrer Durchführung unterschiedlich eingefärbt. Die Dicke der Pfeile zwischen den Aktivitäten zeigt an, wie häufig ein bestimmter Übergang stattgefunden hat. Somit lässt sich schnell erkennen, wo sich das hauptsächliche Geschehen in dem Prozess abgespielt hat. Neben den Häufigkeiten lassen sich auch die Durchlaufzeiten visualisieren. Die Darstellung kann auf verschiedene Weise angepasst werden, z. B. kann man nur selten durchgeführte Aktivitäten oder Pfade ausblenden, wenn man sich auf die typischen Fälle konzentrieren möchte. Die Prozessmodell-Ansicht bietet zudem eine grafische Animation. Darin kann man beispielsweise gut erkennen, vor welchen Aktivitäten sich lange Warteschlangen gebildet haben.

Drill-Down bis auf einzelne Prozessinstanzen

In der Statistik-Ansicht stehen zahlreiche Prozesskennzahlen-Charts und Tabellen zur Verfügung. Neben unterschiedlichen Auswertungen zu Häufigkeiten und Dauern von Prozessinstanzen und einzelnen Aktivitäten kann man auch den Ressourcen-Einsatz und die Werte beliebiger anderer, mit den Prozessdaten importierter, Attribute analysieren. Für gezielte Auswertungen können die Prozessdaten nach diversen Kriterien gefiltert werden. So kann man etwa eine Einschränkung auf die Prozessinstanzen vornehmen, bei denen eine bestimmte Aktivität übersprungen wird, oder auf die, die mit einer bestimmten Aktivität enden. Die gefilterten Datensätze können für weitere Auswertungen gesondert abgespeichert werden.

Möchte man in den Statistik-Charts gefundene Auffälligkeiten näher analysieren, so kann man per Drill-Down bis auf einzelne Prozessinstanzen herunter navigieren. Diese werden in der Case-Ansicht dargestellt. Hier kann man sich für jede Prozessinstanz die durchgeführten Aktivitäten mit sämtlichen Details ansehen, wie Beginn, verwendete Ressourcen und die Werte weiterer Attribute. Diejenigen Prozessinstanzen, die dieselben Aktivitäten in derselben Reihenfolge durchlaufen haben, werden zudem zu Case-Varianten zusammengefasst. So kann man z. B. alle Instanzen untersuchen, bei der bestimmte Rücksprünge zu früheren Aktivitäten stattgefunden haben.

Problemursachen identifizieren, die mit herkömmlichen Methoden nicht gefunden werden

Das Versprechen der intuitiven Bedienbarkeit haben die Disco-Entwickler erfüllt. Man findet sich sehr schnell in der Oberfläche zurecht, und die verschiedenen Analyse- und Interaktionsmöglichkeiten erschließen sich meist auch ohne die direkt in die Oberfläche einblendbaren Hinweise der Online-Hilfe. Um gute und sinnvolle Ergebnisse zu erzielen genügt jedoch die Beherrschung des Werkzeugs noch nicht. Man muss sich vielmehr mit der Methodik des Process Minings auseinandersetzen. So spielt etwa die Auswahl geeigneter Attribute und Identifizierer beim Datenimport eine wichtige Rolle.

In verschiedenen Fallstudien konnten mit Hilfe des Process Mining Ursachen für Probleme gefunden werden, die sich mit herkömmlichen Prozessanalyse-Methoden nicht ermitteln ließen. Voraussetzung sind aber wie gesagt eine durchgängige IT-Unterstützung der Prozesse und die Möglichkeit einer prozessbezogenen Datenextraktion aus den eingesetzten Informationssystemen.

by Thomas Allweyer at December 01, 2015 03:23 PM

November 24, 2015

Thomas Allweyer: Forrester untersucht BPM-Plattformen für das Digital Business: Geschwindigkeit ist alles

Der neueste BPMS-Marktüberblick aus dem Hause Forrester zielt vor allem auf das Potenzial der BPM-Plattformen zur Umsetzung der viel beschworenen Digitalisierung des Business. Im Fokus steht nicht mehr die Effizienzverbesserung operativer Prozesse, sondern die schnelle Umsetzung von Innovationen, die ein verbessertes Kundenerlebnis ermöglichen. Aus diesem Grund prognostizieren die Analysten auch ein deutliches Wachstum des BPM-Marktes. Laut einer Umfrage sehen die meisten Unternehmen bei der Umsetzung ihrer Digitalisierungsstrategien als schwierigste Herausforderungen die Qualifikation der Mitarbeiter und den Aufbau geeigneter Prozesse. Bei Letzerem können BPM-Systeme eine wichtige Rolle spielen. Als wichtigste Differenzierungsmerkmale für BPM-Systeme werden die damit mögliche Entwicklungsgeschwindigkeit, leistungsfähige Funktionalitäten zum User Interface Design und das Case Management gesehen.

Mehrfach wird in dem Report das Thema Geschwindigkeit angesprochen. Das herkömmliche Vorgehen zur Prozessoptimierung sei oftmals zu schwerfällig. Zugunsten einer schnellen Umsetzung von Innovationen werde oft auf bekannte Ansätze wie Six Sigma oder die Prozessmodellierung verzichtet. Stattdessen setzten die Unternehmen auf Design Thinking und „Lean Experimentation“ um schnell neue Ideen ausprobieren und weiterentwickeln zu können. BPM-Systeme sollen die erforderliche Geschwindigkeit bei der Anpassung der Prozesse an Digitale Strategien ermöglichen. Hierbei müssen verschiedene Vorgangstypen unterstützt werden, wie strukturierte Workflows, komplett automatisierte Abwicklungen (Straight-Through Processing) und flexibles Fallmanagement. Oftmals kommen diese unterschiedlichen Typen auch gemeinsam innerhalb eines Gesamtprozesses vor. Im Fokus stehen nicht mehr die Back-end-Prozesse, sondern Abläufe im gesamten Unternehmen und auch über Unternehmensgrenzen hinweg. Hierbei sind verschiedenste Endgeräte und Kanäle zu unterstützen, wie klassische Webseiten, Social Media und auch das Internet of Things (IoT).

In die Untersuchung einbezogen wurden insgesamt zwölf BPMS-Anbieter, wobei der Schwerpunkt auf weltweit tätigen Firmen lag, die umfangreiche Installationen bei Großkonzernen nachweisen können. Insofern ist der Überblick für Unternehmen des deutschsprachigen Raums zwar interessant, aber keineswegs ausreichend, da viele leistungsfähige Anbieter aus Europa komplett durch das Raster fielen. Umgekehrt sind manche der bewerteten Anbieter in Mitteleuropa wenig aktiv. Von den zwölf BPMS-Herstellern der Forrester-Studie beteiligte sich auch nur ein einziger bei der auf den deutschsprachigen Raum fokussierenden BPMS-Studie, die ich dieses Jahr gemeinsam mit BPM&O erstellt habe.


The Forrester Wave: BPM Platforms for Digital Business, Q4 2015
Download bei Pegasystems (Registrierung erforderlich)

by Thomas Allweyer at November 24, 2015 07:51 AM

November 20, 2015

Sandy Kemsley: HoHoTO 2015: be a sponsor, or just come for the party

HoHoTO is a fundraiser event put on each year by Toronto’s digital community: a great party with dancing, raffles and a chance to catch up with your friends (at the top of your lungs to be heard over...

[Content summary only, click through for full article and links]

by sandy at November 20, 2015 05:52 PM

November 13, 2015

Thomas Allweyer: Universität Hannover automatisiert die Prozesse des Veranstaltungsmanagements mit kiwiw

Screenshot kiwiwBereits vor längerer Zeit wurde an dieser Stelle über das System kiwiw berichtet, das sich mit seinem auf Zuständen basierenden Ansatz von den aus herkömmlichen BPM-Systemen bekannten Konzepten unterscheidet. Jetzt hatte ich Gelegenheit, mich mit dem kiwiw-Gesschäftsführer Christof Langer über den Einsatz von kiwiw für das Veranstaltungsmanagement an der Leibniz Universität Hannover zu unterhalten.

Neben dem gewöhnlichen Vorlesungsbetrieb finden an jeder Hochschule auch zahlreiche andere Veranstaltungen statt, wie z. B. Vorträge oder Weiterbildungskurse für die Hochschul-Mitarbeiter. Zur Planung und Abwicklung derartiger Veranstaltungen nutzten die verschiedenen Bereiche in der Vergangenheit ganz unterschiedliche Software-Systeme. Diese waren meist funktional ausgerichtet. So gab es etwa unterschiedliche Systeme für die Buchung von Räumen, die Ausstellung von Dozenten-Verträgen oder die Verwaltung der Teilnehmer. Hinzu kamen die üblichen Excel-Listen und Word-Dokumente für Anwesenheitslisten, Teilnahmebestätigungen und vieles mehr.

Um eine einheitliche und durchgängige Lösung für das Veranstaltungsmanagement zu schaffen, führte die Universität letztes Jahr eine Ausschreibung durch. Es beteiligten sich über 30 Anbieter. Dabei reichte das Spektrum von Anbietern fertiger Standardsoftware bis zu Softwareentwicklungsfirmen, die eine komplette Individualentwicklung anboten. Dass das noch recht junge Unternehmen kiwiw den Zuschlag bekam, lag vor allem daran, dass sich die Plattform schnell an die individuellen Prozesse der Universität anpassen ließ und man Änderungen sehr leicht umsetzen kann. Von großem Nutzen ist die Möglichkeit, Prozessvarianten anzulegen, mit denen die individuellen Besonderheiten der einzelnen Universitätsbereiche abgebildet werden können.

Gesamter Lebenszyklus von Veranstaltungen abgedeckt

Das System ermöglicht die komplette Abwicklung des gesamten Veranstaltungs-Lebenszyklus von Anfang bis Ende. Dies reicht von der Planung über die Durchführung bis zur Auswertung und dem Ausstellen von Teilnehmerzertifikaten. Die Verwaltung von Dozenten, Angeboten und Verträgen gehören ebenso dazu wie die Buchung von Räumen, der Verleih mobiler Geräte, die An- und Abmeldung von Teilnehmern und die Erstellung von Teilnehmerlisten. Selbst die Wegweiser zum Veranstaltungsraum werden von dem System erstellt, so dass wirklich keinerlei zusätzliche Listen mit Excel o. ä. mehr erstellt werden müssen. Die Anmeldefunktionalität ist in das Intranet der Universität integriert. Wird eine geplante Veranstaltung dafür freigegeben, so wird sie automatisch im Intranet veröffentlicht, wo sich Universitätsangehörige selbst anmelden können. Selbstverständlich werden auch die E-Mails mit Anmeldebestätigungen u. ä. automatisch durch das System erzeugt.

Bei diesem Funktionsumfang erstaunt es, dass die Umsetzung des voll funktionsfähigen Referenzprozesses nur zwei Monate dauerte und der reine Implementierungsaufwand auf Seiten des Herstellers lediglich zwölf Personentage betrug. Möglich war dies deshalb, weil sich die Prozesse zum größten Teil rein durch Konfiguration des Systems implementieren ließen. Zudem ist kiwiw keine rein steuernde Plattform im Sinne eines BPMS. Das System bringt viel mehr bereits eine Reihe von generischen Anwendungsmodulen mit, die sich ebenfalls weitgehend durch Konfiguration an die individuellen Anforderungen anpassen lassen. So ist beispielsweise eine CRM-Komponente enthalten, die bei der Universität Hannover u. a. für die Teilnehmer- und Dozentenverwaltung eingesetzt wird.

Zur Generierung und Verwaltung der für eine Veranstaltung benötigten Dokumente und Verträge wird das vorhandene Dokumentenmanagement-Modul genutzt. Die für das Verantaltungsmanagement benötigten Funktionen zur Raumverwaltung und zum Geräteverleih basieren auf einer Ressourcenmanagement-Komponente. Letztere wurde zur Umsetzung von Anforderungen der Universität erweitert. Diese Erweiterungen wurden direkt als Weiterentwicklung des Produktes realisiert. Sie stehen nun auch anderen Kunden zur Verfügung und wurden bereits in weiteren Projekten genutzt.

Regeln für flexible Fallbearbeitung lassen sich leicht anpassen

Die Nutzung von Standardmodulen bedeutet dabei nicht, dass auf ausgefeilte Funktionen verzichtet werden muss. So können z. B. Wartelisten für ausgebuchte Veranstaltungen geführt werden, wobei man die Anmeldungen nach verschiedenen Kriterien priorisieren kann. Auch lassen sich für das Ausstellen von Zertifikaten und Zeugnissen verschiedene Regeln anwenden. Beispielsweise kann man die Vergabe einer Bestätigung davon abhängig machen, dass ein Teilnehmer eine Mindestzahl an Tagen anwesend war.

Bei der Planung und Durchführung von Veranstaltungen handelt es sich weniger um einen komplett durchstrukturierten Prozess als vielmehr um eine flexible Fallbearbeitung im Sinne des „Adaptive Case Management“. Zu jedem Zeitpunkt können die Mitarbeiter in der Regel eine Vielzahl möglicher Aktionen durchführen. Sie entscheiden selbst auf Basis der jeweiligen Situation, was sie als nächstes tun. Ein klassisches Ablaufmodell ist für eine solche Fallbearbeitung schlecht geeignet, da dort die Reihenfolge der Aktivitäten relativ starr vorgegeben ist. Der Ansatz von kiwiw basiert demgegenüber auf Zuständen. Je nachdem, in welchem Zustand sich eine geplante Veranstaltung befindet, sind nur bestimmte Aktionen sinnvoll. Das System bietet dann auch nur diese sinnvollen Aktionen zur Auswahl an. So ist es z. B. nicht sinnvoll, Teilnehmer zu einer Veranstaltung anzumelden, für die noch gar kein endgültiger Termin festliegt.

Ein Prozess wird in kiwiw dadurch definiert, dass man einerseits die verschiedenen Zustände und Aktionen festlegt, andererseits die Regeln, bei welchen Zuständen welche Aktionen möglich sind. Dabei muss es nicht nur einen einzelnen Zustand für den Gesamtprozess geben. Es können auch mehrere Zustandsvariablen verwendet werden. Beispielsweise könnte man für eine Veranstaltung unterschiedliche Zustände nutzen, die etwa den Status bzgl. der Raumbuchung, der Dozentenakquisition oder der Freigabe für die Teilnehmeranmeldung repräsentieren. Mitarbeiter der Universität führen selbst auch Änderungen solcher Regeln durch.

Prozessvarianten ermöglichen es, individuelle Anforderungen zu realisieren

Zwar laufen die Planung und die Abwicklung von Veranstaltungen in den verschiedenen Bereichen der Hochschule ähnlich ab, doch gibt es meist einige Besonderheiten. Beispielsweise werden in einigen Bereichen Veranstaltungen auch von mehreren Dozenten gemeinsam durchgeführt, wogegen anderswo immer nur ein Dozenten aktiv wird. Solche Unterschiede lassen sich mit Hilfe von Varianten abbilden. Als Grundlage wurde zunächst ein Referenzprozess entwickelt. Für jeden Bereich lässt sich hiervon eine eigene Prozessvariante ableiten, in der individuelle Anpassungen durchgeführt werden.

Die Universität betreibt das Produktivsystem im eigenen Rechenzentrum. Daneben nutzt sie ein von kiwiw gehostetes System als Entwicklungs- und Testsystem. Nach der Abnahme von Änderungen werden diese über einen Konnektor in das Produktivsystem eingespielt. Dort steht der geänderte Prozess als neue Version zur Verfügung. Bereits laufende Instanzen werden aber noch gemäß der bisherigen Version weitergeführt.

Die Realisierung des Veranstaltungsmangement-Systems in der kiwiw-Plattform war laut Langer unproblematisch. Die wesentlichen Herausforderungen hätten darin bestanden, gemeinsam mit den Anwendern herauszuarbeiten, wie die Abläufe aus fachlicher Sicht im Detail funktionieren sollen.

Nachdem die bisherigen Erfahrungen durchweg positiv sind, soll die Lösung für das Veranstaltungsmanagement in weitere Hochschulbereiche ausgerollt werden. Zudem ist daran gedacht, auch weitere Prozesse mit kiwiw zu unterstützen, etwa das Management von Software-Lizenzen.

by Thomas Allweyer at November 13, 2015 10:45 AM

November 09, 2015

BPM-Guide.de: New BPM Poster available now

Many business processes consist of rule driven decisions, structured workflows and unstructured case handling. By integrating the OMG standards DMN (decisions), BPMN (processes) and CMMN (cases), you can model and automate such business processes in an end-to-end fashion.

The brand-new BPM poster visualizes this concept with a simple yet practical example from the insurance industry: When someone requests a car insurance, the BPMN process is triggered. The first step is a business rule task that should automatically determine whether we can provide that insurance right away (no risks), need to look at the application in detail (yellow risks) or will definetely …

by Jakob Freund at November 09, 2015 01:55 PM

November 04, 2015

Sandy Kemsley: Join the AIIM paper-free pledge

AIIM recently posted about the World Paper-Free Day on November 6th, and although I’m not sure that it’s recognized as a national holiday or anything, it’s certainly a good idea. I blogged almost...

[Content summary only, click through for full article and links]

by sandy at November 04, 2015 01:43 PM

November 03, 2015

Thomas Allweyer: BPM-Systeme: Große Unterschiede bei Lizenzmodell und Preisen

Cover BPM Toolmarktmonitor BPMSSysteme zur Prozessausführung stehen im Mittelpunkt des neuen BPM-Toolmarktmonitors der BPM&O, an dem ich ebenfalls mitwirken durfte. Im Unterschied zu anderen Studien stellten wir darin nicht die Funktionalitäten oder die Eignung für bestimmte Szenarien in den Vordergrund. Stattdessen konzentrierten wir uns auf Themen wie Technologien, Skalierbarkeit, Lizenzmodelle und Preise. An der Studie beteiligten sich insgesamt 16 BPMS-Hersteller, die im deutschsprachigen Raum aktiv sind.

Bei den eingesetzten Technologien dominieren Java und JavaScript. Da man bei der Automatisierung von Prozessen meist nicht komplett um etwas Programmierarbeit herumkommt, ist es nützlich, wenn man Entwickler im Haus hat, die die für das BPMS benötigten Sprachen beherrschen. Zwar verfolgen sieben Hersteller einen Zero Coding-Ansatz, doch sehen auch sie in der Regel Möglichkeiten vor, komplexe, nicht im Standard abgedeckte Problemstellungen mittels Programmcode zu lösen. Alle Hersteller bieten eine On Premise-Installation ihrer Software an, die meisten auch verschiedene Arten von Cloud-Lösungen.

Deutliche Unterschiede gibt es bei der Skalierbarkeit. Bis zu einer Million Prozessinstanzen pro Jahr können fast alle Systeme laut Herstellerangaben bewältigen. Die größte Kundeninstallation, von der berichtet wurde, bedient viele tausend Nutzer und wickelt jährlich Milliarden von Prozessinstanzen ab. Hier können nicht mehr alle Systeme mithalten.

Die Lizenzmodelle der Hersteller sind sehr unterschiedlich und daher nicht so leicht vergleichbar. Meist lassen sich die Systeme kaufen, vielfach auch nach verschiedenen Modellen mieten. In der Regel spielt die Anzahl der Benutzer eine Rolle, zum Teil aber auch die Zahl der abgewickelten Prozessinstanzen oder die genutzte Hardware. Meist werden Kombinationen aus festen jährlichen Beträgen und zusätzlichen nutzungsabhängigen Gebühren verwendet. Oftmals ist es nicht leicht zu durchschauen, mit welchen Kosten im Endeffekt zu rechnen ist. So kann ein System, das bei anfänglich kleinen Szenarien kostengünstig ist, bei steigender Nutzung unter Umständen sehr teuer werden.

Um zumindest einen gewissen Kostenvergleich zu ermöglichen, wurden die über fünf Jahre entstehenden Kosten für zwei vorgegebene Szenarien verglichen. Hierbei zeigten sich gewaltige Preisunterschiede. So reicht die Spanne der Kosten für Lizenzen und Wartung bei fünf wenig komplexen Prozessen, drei Prozessentwicklern und 50 Nutzern von 14.000 € bis zu 490.000 €. Aufgrund unterschiedlicher Funktionsumfänge und Leistungsfähigkeit mag es sich um einen Vergleich handeln, der dem zwischen einem Moped und einem Mercedes ähnelt. Dennoch lohnt es sich angesichts dieser Preisunterschiede, genau zu überlegen, welche Features tatsächlich benötigt werden. Dabei sollten auch die voraussichtlichen Bedarfe der nächsten Jahre mit berücksichtigt werden.

Zum Download der Studie bei BPM&O (Registrierung erforderlich)

by Thomas Allweyer at November 03, 2015 09:48 AM

November 02, 2015

Sandy Kemsley: Avoiding a surfeit of conferences

This time of year, I’m usually flying back and forth to Las Vegas to engage in the fall conference season: software vendors hold their annual user conferences, and invite me to attend in exchange for...

[Content summary only, click through for full article and links]

by sandy at November 02, 2015 10:37 PM

October 28, 2015

BPinPM.net: BPM Acceptance: Insights into our current BPM research

Business Process Standardization Research ModelIncreasing acceptance of BPM by employees and management of an organization is one of the core targets of our initiative. To build-up relevant knowledge, we are constantly performing various research activities.

This year, members of the BPinPM.net team visited several academic conferences to present and discuss our latest research.

With regards to acceptance of BPM, Janina Kettenbohrer presented her research about the impact of different job characteristics on employees’ attitude toward their job on the acceptance of standardized business processes. Together with Prof. Dr. Daniel Beimborn and Prof. Dr. Andreas Eckhardt, she could empirically show that two job characteristics – namely skill variety and autonomy – significantly influence acceptance of standardized business processes. This means that process standardization is perceived to lead to higher work efficiency because routine tasks can be standardized. Due to these standardized tasks, employees are able to focus on more complex tasks where they can use their various skills.

In contrast to the positive effect of skill variety, autonomy has a negative effect on process standardization acceptance. Jobs with high autonomy (e.g., knowledge-intensive jobs or creative jobs) need a more flexible handling regarding inputs, outputs, and procedures. The success of processes which consist of highly autonomous jobs depend on creativity and the detailed sequence of tasks is not predictable. So, this kind of processes is not suitable for standardization which is supported by the employees’ attitude towards BPS. Besides these two characteristics, age is also one of the most important drivers. Janina and her colleagues could show that older people are more likely to accept process standardization. If you are interested in Janina’s research, you can find her latest paper here.

If you would like to test the model in your organization and to find out how to successfully implement process standards, please feel free to contact Janina.

by Mirko Kloppenburg at October 28, 2015 08:44 PM

October 27, 2015

Sandy Kemsley: Appian Around The World – Toronto

Appian was recently doing a round of road-show conferences, and when they landed in my backyard, I decided to stop in for the day and see what was new. I missed Appian World this year and was looking...

[Content summary only, click through for full article and links]

by sandy at October 27, 2015 08:10 PM

Keith Swenson: On A Role, Sticky or Otherwise

We talk about something called a “Role”.  We all know what it means — or do we?  There are a number of meanings to this term, and there is a kind of sleight-of-hand which is used to sometimes trick the unwary.  Here I expose some of that trickery. 

What is a Role?

Everyone has an intuitive grasp of a role, but before you read any further, find a scrap of paper, and write down your definition, and hold on to that for a moment.

Usually people will say that a role is kind of like a job.  A role is a name that we give to a set of activities that someone might be responsible for.  Some examples of roles are: driver of a car; or passenger in a car; a teacher in a classroom; and a student there as well; a chef in a restaurant; a waiter/waitress; a host/hostess; a manager; a goalie in a soccer game; a pitcher in a baseball game; a quarterback in a football game.

A role defines a set of activities abstracted from the person.  No matter who the driver is, there are things that the driver is expected to do to safely drive a car.  Some roles are exactly like jobs, and indeed most jobs are roles.  “CEO” is both a role and a job title.  A manager is a job title, and it is a role within a certain team of people.

As individuals, hatswe can play many roles: maybe someone plays the driver role until arriving at work, and then plays the “worker” role, or the “teacher” role, and at other times the “bill-payer” role.  We even play multiple roles at the same time.  Using a hat metaphor, we say that we are changing hats when we change our active role.  Think of the the number of hats that you wear on a daily basis.  You might play a different role in every work situation you are involved in.

Using Role in BPM

In the case of a business process, the use of roles is pretty obvious.  If you are modeling the process for managing newspapers articles, you are going to have a role for “writer” and a bunch of activities that the writer is expected to do, a role for “editor” and activities that they will do, a role for “typesetter” and the jobs that they are expected to do, and probably many more roles.  The nice thing about a role is that you can define it once, and use it like a kind of variable.  For article XYZ the writer will be Billy-Bob, the editor will be Dorothy, and so on.  Roles are often represented as a swim lane on a BPMN diagram, and that swim lane contains the activities performed by that role.

So What’s the Problem?

The problem comes right at the point where people describe how you will map people to playing the role.  They will say: the roles are defined in the organizational directory.  Pay attention because this is where the science gets a little tricky.

They will have a simple process like a purchase order, that goes through a “department head” for review, a “CEO” if the amount is high enough, and a “purchasing agent” to place the actual order.   They will then say that department head, CEO and purchasing agent are defined in the organizational directory.  This is very cool, because if the CEO changes and a new person is put in the position of CEO, then the process does not need to be changed — it just continues to work.  The role might be tied to a specific title, or maybe another attribute like a specific skill.  In some cases you might have a pool of people with the required skill, and then one person from the group steps up and does the job.

So what is wrong?  That example is a special case because it is small.  A given organization has one directory server, and it has one CEO.  One entry in the directory will do fine.  Such an organization might have one purchasing agent and so again one entry might be fine.  Even if multiple purchasing agents, it doesn’t really matter which one does the job.  But most readers should have realized right away that in such a process can not just be any department head in the organization.  It must be the head of the department of the person making the request.  Yes, all the heads of all the departments might be in the organizational directory, but it should be clear that some more complicated logic is needed to get the requester department and the locate the leader.  But in a quick demo, they make a directory entry called “department head” and it works.

A More General Example

Consider a better example: creating an article for a newspaper.  The organization will have lots of writers.  They might all be listed in a group called “writers” in the organizational directory.  The organization might also have lots of editors and typesetters who are listed in groups for “editors” and “typesetters.”  When you draw that process, the swimlane can not be simply associated with the group of all writers. The organizational directory can tell you all the people who have the title of writer, or have the skill of writer, but it can not tell you who the writer of a particular article is.

Each article has a very specific individual writing it.  One person is expected to do all the tasks around writing.  Changing the writer for a particular article is non-trivial.  The fact that changing the writer is extraordinary, indicates the assumption that the writer will not be changed arbitrarily in the middle of the process.  The writer role is sticky.  The editor role is also sticky; the activities for an editor are designed for one person doing all of them.

A teacher is also a sticky role.  The same person remains a teacher of a given course, and the students remain students.  Those roles might be reversed in a different class.  You can put all the teachers in a group called “teachers” and all the students in a group called “students” and there very well may be people in both groups.  If you designed a process for the class, you would not simply assign tasks to any teacher in the teachers group.  The process must assign tasks to the teacher of that particular class — something that is not likely to be found in the organizational directory.

Not all roles are sticky.  The tasks for a fork-lift-driver, a tire mechanic, or a bank teller can be done by anyone who happens to be available with the requisite skills.  In those cases, it is possible to use a pool of people defined by the organizational directory. The task can be completed by anyone in the pool.

Another special case is when there is a single activity from a role:  when there is only a single activity, it does not matter whether it is sticky or not.

It is about Relationship

Go back and look at the list of example roles above.  In every case you will see that a role is actually a relationship to a particular context.  The writer is a writer of a particular article.  The driver is the driver of a particular car (or group of people) at a particular time.  The editor is editing a particular article.  The teacher teaches a particular class.  (In your definition, did you get the part about the context or situation?)

The simplified examples use roles as if they were global.  The CEO is a relationship to a particular organization.  It just happens that there is one directory for the organization, and one CEO, so it looks like it a global setting.  A small example organization might have just one teacher, and one group of students, making both groups appear to be global.

In every role, it is important to recognize the context that the role is in a relationship to.   In many cases, it is a relationship to the business process itself.  The process of writing an article has a writer for that article, an editor for that article, and a typesetter for that article.  The process of delivering a class has a teacher for that class, maybe teaching assistants for that class, and students for that class.

In general, a role is a property of the process instance, not a property of the organizational directory.  The organizational directory can provide information which leads to a potential role player, but it does not have the specific context needed for most roles.   You might think of the organizational directory as being useful to the calculation that initializes the role, but after that if the role is sticky the process needs to remember who the role player is and offer future activities from that role to that person who is playing the role.

What do we do?

Most commercial BPM suites have figured this out — because they would not work otherwise — but at the BPM 2015 conference I noticed a couple of papers making this overly simplified assumption that the roles would be defined in the organizational directory.  They assumed that the roles were in the organizational directory, and then went on to discuss the effectiveness of the process modeling.  How can we trust results of these studies?

I also regularly see slick vendor demos doing the same thing.  Next time you see a BPM demo, ask the presenter where the roles are defined, and I will bet you will get the answer that “the roles are defined in the organizational directory.”  (Or worse, they are defined in a global table mapping role names to people.)  The simplistic demo scenario usually makes that look like a good idea, but in the real world it is not.

Confusion over this is widespread.  I have even seen customer RFPs that request that roles be defined in the organizational directory.  If they are roles for the entire organization, like CEO and CFO this works.  For non-sticky roles like “bank teller” that might work.  But most sophisticated roles that involve more than one action require that the process instance remember the role player.

We talk about changing hats all the time, and everyone knows that everyone wears many hats.  It should be obvious that the organizational directory will NOT include all the hats you wear.  Nor all the hats that anyone wears.  The organizational directory will have your job title, and maybe some skills, but it can’t possibly have the specific roles you are playing in every work context you are involved in.

True Roles

In Interstage BPM, we implemented what we call true roles to distinguish them from  organizational roles that you see in the organizational directory.  A true role uses a process variable to track the role player for that process instance.  The variable would be named “writer” or “teacher” to match the role.  The set of activities done by the role (and typically displayed in a swim lane) are associated with that variable such that when an activity is started, the assignee is taken from the variable, and when completed, the ID of the actual person who completed the activity is placed into the variable.  The variable can be initialized a number of ways.  In some cases it is initialized with a group of people, from the organizational directory, but as soon as one of them responds, the role is claimed by them, and they get the joy of doing all the other activities.  It is not simple, but once set up, modeling the processes becomes much more effective.  Don’t be fooled by simplistic approaches.

The biggest challenge remains the conceptual leap to understanding that a role is a relationship with a specific context that defines a set of activities that might be performed in that context.  Don’t forget the context!


by kswenson at October 27, 2015 10:26 AM

October 22, 2015

Thomas Allweyer: Was verdient man im Prozessmanagement?

Knapp 70.000 € pro Jahr beträgt das durchschnittliche Grundgehalt der Teilnehmer an der BPM Gehaltsstudie 2015. Hinzu kommt ein Bonus von gut 8000 €. Die meisten Prozessmanagement-Profis verfügen über einen Hochschulabschluss. 42% von ihnen arbeiten im zentralen Prozessmanagement, häufig sind sie als Prozessmanagement-Berater oder Prozessmanager tätig. Besonders hohe Gehälter werden in der Branche Gesundheit und Pharma gezahlt. Die männlichen Teilnehmer verdienen mehr als ihre weiblichen Kolleginnen, und erwartungsgemäß steigt das Einkommen mit der Berufserfahrung. Interessanterweise verdienen Hochschulabsolventen weniger als Studienteilnehmer mit einer Berufsausbildung. Und es spielt auch keine wesentliche Rolle, ob man eher mit strategischen oder mit operativen Aufgaben zu tun hat. Die von BPM&O herausgegebene Studie kann hier kostenfrei heruntergeladen werden.

by Thomas Allweyer at October 22, 2015 10:01 AM

October 20, 2015

Thomas Allweyer: 3. IT-Radar-Umfrage gestartet

Im etwa zweijährigem Rhythmus führen die Professoren Gadatsch (Hochschule Bonn-Rhein-Sieg) und Komus (Hochschule Koblenz) die Umfrage „IT-Radar für BPM und ERP“ durch. Untersucht wird, welche Rollen unterschiedliche Einzelthemen aus Sicht von Anwendern, Anbietern und Wissenschaft haben. Welche in der Presse diskutierten Hype-Themen werden als wirklich wichtig betrachtet? Welche sind schon wieder out? Oder bestimmen eher klassische Dauerbrenner-Themen den Alltag von Prozess- und IT-Managern? Mitmachen kann jeder, der sich beruflich mit Prozessmanagement, IT- oder ERP-Management beschäftigt. Die Teilnehmer erhalten als erste den ausführlichen Ergebnisbericht sowie Sonderauswertungen. Zur Umfrage, deren Beantwortung nur wenige Minuten dauert, geht es hier.

by Thomas Allweyer at October 20, 2015 11:41 AM

October 14, 2015

Thomas Allweyer: EAM-Tools erweitern ihren Fokus

Die meisten Tools für das Enterprise Architecture Management (EAM) haben ihren Fokus in den vergangenen Jahren deutlich erweitert, u. a. in Richtung Strategie und Portfolio Management. In den Bereichen Modellierung, Visualisierung und methodischen Frameworks gibt es kaum noch Differenzierungsmöglichkeiten. Diese Einschätzung findet sich in einer aktuellen Studie der Firma Forrester. Angesichts zunehmender Anforderungen hinsichtlich der Digitalisierung von Unternehmen und einer aktiven Gestaltung der Kundenerfahrung benötigen Enterprise Architekten neue Tools, um mit wichtigen Stakeholdern zusammenzuarbeiten und nützliche Erkenntnisse zu gewinnen.

Waren EAM-Tools ursprünglich darauf ausgerichtet, die Systemlandschaft eines Unternehmens zu dokumentieren, so haben sie sich zwischenzeitlich zu umfangreichen Plattformen weiterentwickelt, die u. a. auch betriebswirtschaftliche Aspekte umfassen (z. B. Kostensimulationen) und andere Aufgaben des IT-Managements unterstützen, insbesondere das Management des IT-Portfolios. Damit geraten sie in Konkurrenz zu strategischen Planungswerkzeugen und Portfolio-Management-Tools. Hersteller solcher Systeme bewegen sich ihrerseits in Richtung Enterprise Architecture Management, teilweise durch Eigenentwicklungen, aber auch durch Firmenübernahmen.

Auf den ersten Blick scheint sich der Funktionsumfang der meisten EA-Tools zu ähneln. Dennoch haben die einzelnen Systeme bestimmte Schwerpunktbereiche, die sie besonders gut abdecken. Von daher empfiehlt Forrester vor der Toolauswahl die eigene Ausrichtung der Enterprise Architecture-Aktivitäten genau zu untersuchen und auch abzuschätzen, in welche Richtung sie sich entwickeln werden. Welche Rolle spielt die Enterprise Architecture auf dem Weg von der Strategie bis zur technischen Ausführung? Welche Informationen werden hierbei von welchen Stakeholdern benötigt?

Da sich die eigenen Enterprise Architecture-Aktivitäten weiterentwickeln dürften, ist eine möglichst flexible Konfigurierbarkeit des ausgewählten Tools von Bedeutung. Zudem sollte ein EA-System Werkzeuge zur Unterstützung in Bereichen wie Digitalisierung des Unternehmens, Customer Experience und Datenanalyse bereitstellen.

Untersucht wurden insgesamt zehn weltweit tätige Anbieter, die u. a. über ein erweiterbares Metamodell verfügen sollten. Die beste Positionierung erreichten dabei die Software AG mit ihrem Tool „Alfabet“ und der britische Anbieter Orbus Software.


G. Barnett:
The Forrester Wave: Enterprise Architecture Management Suites, Q3 2015
Download bei der Software AG

by Thomas Allweyer at October 14, 2015 12:43 PM

October 08, 2015

Thomas Allweyer: BPMN – 3. Auflage als eBook

BPMN 2.0 - 3. Auflage - Bild 183pxEs hat etwas gedauert, aber mittlerweile liegt die 3. Auflage meines BPMN-Buchs auch als eBook vor und kann über die Online-Buchhändler bezogen werden. Auch beim Printbuch liefert BoD nur noch die neueste Auflage aus. Da aber einige Online-Stores noch Exemplare der zweiten Auflage haben, muss man trotzdem auf das Erscheinungsjahr oder die ISBN achten. Neu in der dritten Auflage ist ein Kapitel mit Modellierungsmustern zu typischen Sachverhalte und häufig auftretenden Problemstellungen.
Weitere Infos zum Buch.

by Thomas Allweyer at October 08, 2015 09:05 AM

October 05, 2015

Thomas Allweyer: Case Management-Anwender brauchen gar nicht so viel Adaptivität

Gartner untersucht Case Management Frameworks auf Basis von BPM-Plattformen

Nach dem Hype um „Adaptive Case Mangement“ (ACM) vor einigen Jahren ist es etwas ruhiger um das Thema Case Management geworden. Doch jenseits der Schlagzeilen spielt die IT-Unterstützung für schwach strukturierte, wissensintensive Prozesse in immer mehr Branchen eine zunehmende Rolle. So verfügen zahlreiche BPM-Plattformen über Case Management-Funktionalitäten, die auch bei vielen Kunden im Einsatz sind. Derartige Case Management-Frameworks auf BPMS-Basis standen im Mittelpunkt einer Untersuchung von Gartner. Daneben gibt es noch andere Systeme für das Case Management, z. B. Standardsoftware für bestimmte Einsatzgebiete (z. B. die Fallbearbeitung in Krankenhäusern oder in Versicherungen), dedizierte Lösungen für Adaptive Case Management (ACM) oder Case Management-Funktionalitäten von Content Management-Plattformen.

Gartner empfielt BPMS-basierte Case Management-Frameworks als Alternative zu spezialisierten Standardsoftware-Systemen, wenn es wichtig ist, die implementierte Lösung leicht ändern zu können. Es lassen sich zwei Extreme von Prozesstypen unterscheiden: Einerseits komplett vordefinierbare Abläufe, andererseits vollständig unvorhersehbarer Fälle, deren Bearbeitung ausschließlich durch Improvisation erfolgen kann. Da sich die meisten realen Anwendungsfälle zwischen diesen beiden Extremen befinden, ist die Verbindung von herkömmlicher BPM-Technologie mit Fallmanagement häufig sinnvoll.

Die von den Herstellern verwendeten Begriffe und Ansätze sind recht uneinheitlich. Unter Bezeichnungen wie „ad hoc“, „dynamisch“ oder „emergent“ werden oftmals ganz verschiedene Konzepte verstanden. Das macht es für die Anwender nicht unbedingt einfach. Auch Standards wie CMMN (Case Management Model and Notation) haben hier bislang noch keine Abhilfe geschaffen.

In der Untersuchung werden vier verschiedene Arten der Fallbehandlung unterschieden, die ein Case Management-System unterstützen sollte. Hierbei handelt es sich um investigative Fälle, die Bearbeitung von Störungen (Incident Management), die Bearbeitung von Service-Anforderungen und Prozesse mit komplexen Entscheidungen.

Je nach Typ stehen unterschiedliche Case Management-Funktionalitäten im Vordergrund. So sind investigative Fälle eher datenlastig, wohingegen beim Incident Management vor allem gute Kollaborationsmöglichkeiten wichtig sind. Für die Bearbeitung von Service-Anforderungen ist die Workflow-Steuerung von Bedeutung, und für entscheidungsintensive Prozesse spielt die Verarbeitung von Regeln eine große Rolle.

Bei den BPMS-basierten Case Management-Lösungen unterscheiden die Analysten fünf Ebenen:

  1. Die BPM-Plattform
  2. Die Case Management-Basis mit allgemein verwendbaren Features
  3. Horizontale, d. h. branchenübergreifende Geschäftslogik. Z. B. können Funktionen zur Verarbeitung von Beschwerden in vielen Branchen eingesetzt werden.
  4. Vertikale, d. h. branchenspezifische Geschäftslogik, z. B. spezielle Funktionalitäten für Versicherungen, Justizbehörden oder Technologieunternehmen.
  5. Komplettlösungen für bestimmte Arten der Fallbearbeitung. Im Gegensatz zu herkömmlicher Standardsoftware basieren derartige Komplettlösungen auf der flexiblen BPM-Plattform und können so leicht und auch vom Kunden selbst angepasst und erweitert werden.

Die Möglichkeit zur Änderung der Fallbearbeitung stellt somit eine zentrale Fähigkeit eines Case Management-Frameworks dar. Häufig kommen hierfür grafische Modelle zum Einsatz. Auch sollten Änderungen noch zur Laufzeit möglich sein.

Weitere wichtige Fähigkeiten eines solchen Systems sind die Nutzung verschiedener Arten von Content, Kollaborationsmöglichkeiten, die Fähigkeit zur Integration von Drittsystemen sowie Datenerfassung und Output Management. Ferner sollten verschiedene unterstützende Komponenten zur Verfügung stehen, wie Wizards, Muster und Anleitungen. Updates der Falldefinitionen sollten leicht durchzuführen sein. Und schließlich sollten die Benutzungsoberflächen zur Fallbearbeitung ebenso wie bereitgestellte Analysemöglichkeiten rollenbasiert anpassbar sein und auch mobile Geräte unterstützen.

Im Case Management spielt der Fallbearbeiter eine zentrale Rolle. Er soll häufig selbst entscheiden können, was als nächstes getan wird. Die extreme Flexibilität, die im Zusammenhang mit dem Konzept des „Adaptive Case Management“ (ACM) häufig gefordert wird, sieht Gartner hingegen kritisch. Bei den meisten Anwendern gebe es beispielsweise keinen Bedarf dafür, dass während der Fallbearbeitung komplett neue Ziele und Meilensteine modelliert werden können.

Man solle den Benutzern keine vollkommene Freiheit einräumen, sondern festlegen, wem man zu welchem Zeitpunkt welche Spielräume gibt. Klare Begrenzungen sorgen dafür, dass kein Chaos entsteht. Es ist aber nicht einfach, die richtige Balance zwischen Einschränkungen und Freiheit zu finden.

Die zwei Gartner-Reports lassen sich bei einigen der untersuchten Anbieter kostenfrei herunterladen, z. B. bei Pegasystems (Registrierung erforderlich):

by Thomas Allweyer at October 05, 2015 12:19 PM

September 28, 2015

BPM-Guide.de: Why BPMN is not enough

At this year’s BPMCon, some people asked me about CMMN and DMN, and how they are related to BPMN. They were not yet aware that CMMN and DMN are no substitutes for BPMN, but supplements. I have tried to put this in a nutshell here:

BPMN is the right tool if you want to describe business processes that have a certain degree of predictability (or should become more predictable as a result of your process improvement project). If you really know BPMN, you can create process diagrams that are easy to read and directly executable in a BPMN process engine. That …

by Jakob Freund at September 28, 2015 07:34 AM

September 19, 2015

Thomas Allweyer: BPMCon 2015 – Teil 3: Aus der camunda-Entwicklung

Hier noch die Nachlese zu den weiteren Punkten der gestrigen BPMCon. Im Mittelpunkt standen neue Entwicklungen und Prototypen von camunda, die zum Teil direkt von jedermann genutzt werden können. So ist der von Robert Gimbel und Nico Rehwaldt vorgestellte webbasierte BPMN-Modellierer bpmn.io nicht nur ein Werkzeug, sondern auch ein Toolkit, das jeder Entwickler in seine Anwendung zur Modellierung oder Visualisierungen von Prozessmodellen einbauen kann. Das Modellierungstool basiert direkt auf dem BPMN-Metamodell und unterstützt den User bei der syntaktisch richtigen Modellierung. Zieht man z. B. eine Aktivität von einem Pool in einen anderen, so verwandelt sich der Sequenzfluss in einen Nachrichtenfluss, wie er für die Kommunikation zwischen Pools vorgeschrieben ist.

Mit Hilfe von Javascript lässt sich die Anwendung leicht erweitern. Nico Rehwaldt zeigte ein Beispiel, bei dem eine Kommentarfunktion in den Modellierer eingebaut wurde. Der Kommentar wird in der BPMN XML-Datei mit gespeichert.

Zwischenzeitlich gibt es den Modeler auch als Chrome-App, mit der man auch lokal auf dem Rechner modellieren kann. In Planung sind u. a. ein DMN- und ein CMMN-Editor sowie ein richtiger Desktop Modeler, mit dem die Offline-Modellierung auch unabhängig vom Chrome-Browser erfolgen kann. Im nächsten Jahr soll ein Repository-basierter Web Modeler entstehen, mit dem viele Modellierer gemeinsam modellieren können. Es wurden noch ein paar Beispiele für die einfache Erweiterbarkeit gezeigt, z. B. wurden animierte Grafiken als Elemente in den BPMN-Sequenzfluss eingebaut.

Als letzte Session stand ein Blick in das Camunda-Labor auf dem Programm. Vorgestellt wurden Ergebnisse eines Hack Days, bei dem die Entwickler die verschiedensten Ideen ausprobierten. Es handelt es sich um Entwicklungen, die verschiedene Möglichkeiten und Optionen aufzeigen, aber nicht unbedingt in die Produkte übernommen werden. Gezeigt wurden:

  • Ein CMMN-Import und -Export. Bei dessen Entwicklung entstand gleich noch ein erster Prototyp für einen kleinen CMMN-Modeler auf Basis von BPMN.io.
  • Nutzung von Camunda als Cloud Service, wobei die eingebundenen Services in verschiedensten Programmiersprachen geschrieben sein können und auch im eigenen Unternehmen laufen können.
  • Ein Framework zur Visualiserung der Ergebnisse automatisierter Tests im grafischen Prozessmodell.
  • Ein WordPress-Plugin, mit dem man bpmn-Dateien wie herkömmliche Medien per Drag and Drop in ein Blog oder eine WordPress-basierte Webseite einfügen kann.
  • Eine Webapp zum automatisierten Erstellen und Konfigurieren von intern bei Camunda genutzten Testumgebungen
  • Eine erweiterte Validierungsfunktion für die zur ausführungsnahen Modellierung verwendeten camunda Workbench, bei der aus den angezeigten Problemen direkt auf die entsprechenden Dokumentationsinhalte verlinkt wird. Dabei wird eine kontextbasierte Suche verwendet.
  • BPMN Quest: Ein liebevoll gestaltetes Computerspiel, bei dem die Process Engine als Spiel-Engine eingesetzt wird. Das sollte man sich auf jeden Fall selbst ansehen. Hier der Link: bpel.de/game.

Vor dem Abschluss mit der traditionellen spitzenmäßigen Grillparty stand dann noch eine Runde „Speed Geeking“ auf dem Programm. Dabei wechselten die Teilnehmer nacheinander zu verschiedenen Kurzpräsentationen der in der Begleitausstellung vertretenen Partner. Eine ganze Reihe von ihnen hatte bereits konkrete Beispiele zum Decision Management mit DMN dabei.

Interessant war unter anderem der Ansatz von Holisticon. Sie haben die camunda-Engine so erweitert, dass man prinzipiell jedem Task Entscheidungstabellen zur Bestimmung der jeweils geeigneten Bearbeiter hinterlegen kann. Man muss somit keine separaten Business Rules-Tasks modellieren und kann auch eine Neu-Zuordnung vornehmen lassen, wenn sich die Regeln geändert haben.

by Thomas Allweyer at September 19, 2015 05:39 PM

September 18, 2015

Thomas Allweyer: BPMCon 2015 – Teil 2: Anwendervorträge

bpmcon-db-vortragUwe Koch von den Talanx Versicherungen stellt ein konkretes Beispiel für die Anwendung von DMN vor. Die Service-orientierterientierte Architektur des Konzerns basiert auf einer einheitlichen Daten- und Service-Modellierung. Die Architektur umfasst einen zentralen Enterprise Service Bus und eine Proces Engine zur Orchestrierung von ESB-Services. Die Process Engine wird derzeit auf camunda migriert. Koch zeigt einen Beispiel zur Bearbeitung von Stornos, bei dem in mehreren Prüfungen entschieden werden soll, welche Stornos automatisch verarbeitet werden können und welche zu einem Mitarbeiter weitergeleitet werden müssen. Die hierfür erforderlichen Regeln wurden in Zusammenarbeit mit camunda in Form von Entscheidungstabellen modelliert.

Aus Sicht des Fachbereichs ergibt sich der Vorteil, die Regeln klarer und eindeutiger formulieren zu können. Die IT-Entwicklung profitiert davon, dass es keinen Medienbruch gibt und die Regeln nicht falsch interpretiert werden können. Die DMN-Regeln lassen sich außerde separat deployen und testen. Kleinere Regeländerungen kann man somit schnell und auch außerhalb von den Terminen für größere Releases deployen. Herausforderungen besetehen insbesondere im Bereich der Governance. Die Verantwortung für die Regeln verschiebt sich in Richtung Fachbereich.

Customer Experience Engineering bei der australischen Post

Zu den internationalen Kunden von camunda zählt auch die australiche Post. Rob Parker spricht darüber, wie man im Zeitalter der Digital Disruption ein herausragendes Kundenerlebnis schaffen kann. Ein zentraler Punkt ist die Bereitstellung von Informationen. Diese Informationen müssen relevant sein. So interessiert es den Kunden nicht, in welchem Verteilzentrum sich eine Sendung befindet, sondern wann die Sendung bei ihm ankommen wird. Er soll die Möglichkeit haben, auf die Informationen zu reagieren (z. B. einen anderen Lieferzeitpunkt zu vereinbaren). Und schließlich erwartet e,r dass die Leistungen stets zuverlässig erbracht wird.

Das BPM-System spielt bei der australischen Post eine zentrale Rolle im Customer Experience Engineering. Systemfunktionen werden kurz gesagt im Process Layer neu zu Kundenerlebnissen zusammengestellt. Funktionalitäten aus Silo-Systemen können zu neuen Produkten kombiniert werden. Z. B. kann man eine Rechnungsverarbeitung mit einer Zahlungsanwendung verbinden, um dem Kunden beim Eingang einer Rechnung direkt die Möglichkeit zum Auslösen einer Zahlung anzubieten.

BPMN wird hierbei weniger für klassische Ablaufmodelle eingesetzt, sondern eher im Sinne eines hierarchischen Zustandsmodells. Im Frontend kommt u. a. ein Personal Activity Stream zum Einsatz, in den die verschiedenen Prozesse Aktivitäten einstellen können. Zur Personalisierung dieses Frontends sind Regeln erforderlich. Hier sieht Parker interessante Einsatzmöglichkeiten für DMN.

Prozessplattform bei Allianz Indonesien

Ein weiterer internationaler Kunde ist die Allianz Indonesien. Indonesien stellt für Versicherungen einen starken Wachstumsmarkt dar. Die Ausgangssituation bei der Allianz bestand aus einer Reihe von nicht miteinander verbundenen Silo-Anwendungen. 2011 wurden einige Process Engines evaluiert. Der Standard für Prozessmanagement-Systeme im Allianz-Konzern war eher teuer und schwergewichtig. Daher wurde eine leichtgewichtige Lösung auf Basis von Java und Open Source gesucht.

Die Implementierung des als erstes automatisierten Underwriting-Prozesses erfolgte innerhalb von drei Monaten. Dabei wurden 30 Stunden Beratung in Anspruch genommen. Das User-Feedback war positiv.

Das zweite Projekt befasste sich mit dem Versicherungsschein-Management. Dies war aufwändiger, da eine Vielzahl von Prozessen und Varianten konsolidiert werden musste und kein einheitliches Bestandssystem für die Datenbereitstellung zur Verfügung stand. Für dieses Projekt und weitere entstand eine umfassende Plattform. Herausforderungen waren u. a. fehlende Integrationsstandards und Thmen wie Rollbacks und Kompensationen. Die camunda Engine ist mittlerweile Bestandteil aller neu entwickelten Systeme. Wichtige Themen für die nächste Zeit sind insbesondere Skalierbarkeit und Hochverfügbarkeit.

Deutsche Bahn – Kompensation für Eingriffe in die Natur

Der letzte Anwendervortrag befasst sich mit Prozessmanagement im Umweltschutz der Deutschen Bahn. Referenten sind Henry Hübler von DB System und Ingo Rau von den econauten. Bei ihnen geht es um den Umgang mit Kompensationsverpflichtungen, d. h. den erforderlichen Ausgleichsmaßnahmen bei Eingriffen in die Natur. Der betreffende Prozess war bisher nur implizit bekannt. Künftig muss jährlich revisionssicher berichtet werden, weshalb ein klar definierte Prozess erforderlich ist.

Die Laufzeit des Gesamtprozesses mit der Pflege aufgeforsteter Bäume u. ä. kann bis zu 30 Jahre dauern. Daher wurden nur die einzelnen Phasen als Einzelprozesse modelliert und dazwischen definierte Übergaben festgelegt.

Das Projekt bedeutete für die Deutsche Bahn, dass in mehrerer Hinsicht Neuland betreten wurde: Der Einsatz von BPM und BPMN 2.0, die Nutzung von Open Source und eine Einführung einer agilen Vorgehensweise waren neu für den Konzern.

Der verwendete Technology Stack umfasst neben der camunda BPM-Engine die Rules Engine Drools, das Portal Liferay und als Basistechnologien Linux, Apache und JBoss. Das entwickelte System, das im Rahmen eines Proof of Concept ausführlich von Anwendern getestet wurde, wird in den nächsten Tagen live gehen. Die Rules Engine dient zur automatischen Prüfung der Datenqualität, die erforderlich ist, bevor der Prozess fortgesetzt werden kann.

by Thomas Allweyer at September 18, 2015 03:41 PM

Thomas Allweyer: BPMCon 2015 – Entscheidungen über Entscheidungen (Teil 1)

bpmcon-eingangEntscheidungen in Geschäftsprozessen – dieses Thema steht im Fokus der diesjährigen BPMCon, zu der micht der Veranstalter camunda eingeladen hat. Insbesondere steht somit der neue OMG-Standard DMN (Decision Management Notation) im Fokus. Zunächst steht aber eine Keynote von Marko Lehn über die Umstrukturierung des Modeversandhändlers Zalando auf der Agenda. Zalando hat mit den Folgen eines extrem starken Wachstums zu kämpfen. Marko Lehn berichtet über die Entwicklung der Unternehmens-IT. 2008 gegründet, beschäftigte die Firma im Jahr 2009 gerade einmal 5 Entwickler. Diese Zahl wuchs bis im Jahr 2014 auf 600. In dieser Zeit wurden zahlreiche Systeme eingeführt und häufig auch wieder ersetzt – zumeist durch Eigenentwicklungen, um die notwendige Skalierbarkeit für die explodierende Zahl an Transaktionen zu gewährleisten.

2015 steht ein Umbau des Geschäftsmodells an, u. a. mit eigenen Shops. Um die notwendige Agilität in der Entwicklung zu erreichen wurden die Organisation der Teams und das Anreizmodell verändert. U. a. gibt es keine variablen Gehaltsbestandteile mehr, stattdessen eine „Tour of Mastery“, bei der es um die Entwicklungsmöglichkeiten für die einzelnen Mitarbeiter geht. Ziel ist es, Spaß zu haben – nicht irgendwelchen Boni nachzujagen. Die Teams, die ein großes Maß an Entscheidugnsfreiheit haben, bestehen typischerweise aus etwa sechs Mitarbeitern. Zu den angewandten Prinzipien gehört u. a. das Motto „Wenn Dein Chef falsch liegt, mach es richtig …“.

„Die Ära des Model-Driven Development geht zu Ende“

Nun übernimmt camunda-Geschäftsführer Jakob Freund die Bühne. Auch wenn die Zahl der Anfragen nach „BPM“ bei Google sinkt, geht das Thema nicht weg. Ein Unternehmen benötigt „Genie“, also motivierte Mitarbeiter, und Struktur – wozu ganz zentral die Prozesse gehören. Als Beispiel stellt er den camunda-eigenen Lead-Bearbeitungsprozess vor, der aufgrund einer steigenden Zahl von Kundenanfragen zu einem großen Teil standardisiert werden musste. Die Herausforderung besteht darin, die richtige Balance zwischen Skalierbarkeit und der Motivation und Kreativität der Mitarbeiter zu finden. Freunds eigene Definition von BPM lautet: „BPM ist die Kombination von Genie mit zusätzlicher Struktur für ein skalierbares Geschäftsmodell“.

Getragen wird das eher abstrakte Thema BPM eher durch konkrete Themen, wie Technologien und Standards. Konkret nennt er die OMG-Standards BPMN, DMN (Decision Model and Notation) und CMMN (Case Management Model and Notation), auf die camunda verstärkt setzt. „BPM wird vom Dreiklang DMN – BPMN – CMMN profitieren“.

Schließlich geht er auf das Thema BPM-Systeme ein. Die von Analysten prognostizierten jährlichen Markt-Wachstumsraten von sechs bis sieben Prozent sind nicht gerade aufregend. camundas eigenes Wachstum betrug letztes Jahr hingegen 92%. Freund führt dies darauf zurück, dass der zumeist verfolgte Ansatz der rein modellgetriebenen Entwicklung nicht funktioniert. In diesem Sinnn ist camunda gar kein „richtiges“ BPM-System, sondern eher eine Entwicklungsumgebung für Prozessanwendungen. „Die Ära des Model-Driven Development geht zu Ende“, so Freund.

Von großer Bedeutung ist die Prozessagilität. Hier geht es einerseits um „akute“ Änderungen während der Prozessausführung, wie User Task Management, Case Management, oder „Token Beaming“, d. h. die Änderung des Status einer Prozessinstanz. Zum anderen geht es um den Einbau von struktureller Agilität, unter anderem durch Entscheidungstabellen oder Workflow Custoimizing.

„Entscheidung“ klingt besser als „Regel“

Bernd Rücker, ebenfalls Geschäftsführer von camunda, geht nun auf das Thema des Tages ein: Entscheidungsmodellierung mit DMN. Entscheidungen liegen heute oftmals in Form von Arbeitsanweisungen vor, oder sie sind hart ausprogrammiert. Eine Alternative stellten Rules Engines – oder moderner „Decision Engines“ – dar. Allerdings sind Rules Engines nicht neu, und die meisten Anwender sind mit ihren Business Rules-Lösungen nicht sonderlich zufrieden. Einen neuen Impuls hat die Veröffentlichung der DMN durch die OMG geliefert.

Zu den Inhalten der DMN gehören u. a. standardisierte Entscheidungstabellen. Sie lassen sich den Aktivitäten in BPMN-Prozessmodellen zuordnen, wodurch eine Trennung zwischen den tendenziell stabilieren Prozessen und den Regeln, die sich öfter ändern, erreicht wird. Auch in Case Management-Modellen gemäß CMMN gibt es zahlreiche Stellen, an denen Bedingungen benötigt werden, die ebenfalls in DMN formuliert werden können. Camunda treibt zunächst die Entwicklung der DMN-Unterstützung voran, da hierfür im Markt ein großes Interesse besteht. Auch wenn Entscheidungstabellen nicht neu sind, sieht Rücker die Change, dass das Thema Decision Management mit der DMN nun richtig abhebt.

Neben Entscheidungstabellen enthält die DMN eine Expression Language sowie grafisch dargestellte Decision Requirements Diagramme, mit denen die Zusammenhänge von Entscheidungen und den erforderlichen Inputs dargestellt werden können. Rücker stellt ein Beispiel dar, wo bei einer Versicherung die Regeln zur Aufgabenverteilung erarbeitet wurden.

Camunda bietet derzeit die Möglichkeit zur Modellierung von Entscheidungstabellen und zur Ausführung mit einer DMN Engine. Rücker weist darauf hin, dass es besser ist, das Thema unter der Bezeichung „Decision Management“ zu führen als unter „Business Rules Management“. Grund: Der Betriff „Regel“ ist negativ besetzt, wohingegen Entscheidungen als etwas Positives angesehen werden.

by Thomas Allweyer at September 18, 2015 01:18 PM

September 16, 2015

BPinPM.net: Invitation to free online course on Fundamentals of Business Process Management

MOOC - Fundamentals of Business Process ManagementWe would like to draw your attention to a promising Massive Open Online Course (MOOC) on Business Process Management held by four well-respected Professors:

Marlon Dumas, Marcello La Rosa, Jan Mendling, and Hajo Reijers, authors of the successful textbook “Fundamentals of Business Process Management”, will guide you through this course in person. During 7 weeks, starting on 12 October, you will watch videos and do online quizzes along the business process management lifecycle. You can watch the videos/do the quizzes at your own pace within each week, with a workload of 2-4 hours per week.

Processes are everywhere and the course will show you how to systematically model, analyze, redesign, automate and monitor them. The techniques you get to know are generally applicable in any domain that you can think of – let it be public organizations, schools, banks, logistics, healthcare or production companies, to name but a few. Not to forget, it will be great fun!

Just enroll here: https://moocs.qut.edu.au/learn/fundamentals-of-bpm-october-2015

Several members of the BPinPM.net community have already enrolled to this MOOC and I am quite sure that you will also benefit from this new course. – And you can even earn a certificate! :-)

Best regards,
Mirko

by Mirko Kloppenburg at September 16, 2015 07:13 PM

BPM-Guide.de: New BPMN Plugin for WordPress

Wanna show some BPMN?

Do you run a blog, and would you like to to display BPMN diagrams in your posts?

You could draw those diagrams somewhere, export them as PNG or whatever and insert them in your post. But that is not very handy, especially when the diagrams are a bit bigger and people can’t read them anymore. Zooming and out would be nice.

Thanks to Neville Lugton, there is a solution!

You’re a WordPress User?

If yes, read on. If not, get lost.

Install bpmn.io for WordPress

You can install “bpmn.io for WordPress” directly from the WordPress Plugin Store. Just search for bpmn, …

by Jakob Freund at September 16, 2015 12:50 PM

September 10, 2015

Tom Baeyens: Workflow For Dataflow?

Adrian Colyer is writing some really insightful commentaries on research papers on distributed computing at blog.acolyer.org.  The latest post Go with the flow is part of the series Out of the Fire Swamp. It triggered me to share an idea I had some time ago: Using workflow to coordinate microservices as a replacement for transactions.

When you're implementing a request of let's say a web API, amongst read operations, you also may perform some updates to non transactional resources such as a NoSQL datastore or another microservice.

What you typically want to provide to the client of your request is all or nothing semantics.  So when your server crashes in the middle of your request, you may have performed some, but not all of the updates to your non transactional resources.  This can lead to inconsistencies in your domain model.

In a way, a workflow is a persistent execution flow.  It stores the state of the execution so it can be resumed later.  Typical workflow engines probably don't do this efficient enough for the use case I'm discussing here.  But I believe a workflow engine can be tuned for this use case of consistency.

Imagine a request to create an invoice that performs 4 request to other services in a flow like this:




The new request implementation can first perform some reads and than replace the four individual updates with a single update that creates the workflow instance.  The workflow engine can ensure that the workflow instance is persisted in a single atomic update.  Afterwards, the workflow engine ensures that progress is persisted before and after each activity.  In case of crashes, the workflow engine can then resume in case of crashes based on the persisted execution.

The actions performed should be idempotent because it's typically not possible to guarantee exactly once execution semantics in a distributed system.

This workflow would add the guarantee that once the workflow is started, you know that at some point it will be completed.  Typically it's not necessary to block the request till the whole workflow is completed although this is technically possible.

This idea really looks close to the event store as described in Adrian's blog.  I wonder if this could be relevant a piece in tomorrow's distributed computing puzzle.

by Tom Baeyens (noreply@blogger.com) at September 10, 2015 03:44 PM

September 09, 2015

Thomas Allweyer: BPMN-Buch in der dritten Auflage erschienen – mit Modellierungsmustern

BPMN 2.0 - 3. Auflage - Titel 183pxAb sofort ist die neue Auflage des BPMN-Buchs lieferbar. Zunächst die Papierversion, in Kürze dürfte auch das E-Book verfügbar sind. Neu hinzugekommen ist in dieser Ausgabe ein Kapitel mit einer Sammlung von Modellierungsmustern. Wie modelliert man z. B. die Anwendung des Vier-Augen-Prinzips? Wie kann man die aus anderen Notationen bekannten Prozesswegweiser nachbilden? Wie stellt man ein mehrstufiges Mahnverfahren effizient dar? Bei diesen und anderen Fragestellungen kann man sich an den vorgestellten Mustern orientieren. An den bisherigen Inhalten wurden ansonsten keine großen Änderungen vorgenommen. Die grundlegenden Ausführungen zur BPMN-Entwicklung wurden aktualisiert, und an der einen oder anderen Stelle waren kleinere Verbesserungen oder Anpassungen nötig.

Weitere Infos zum Buch mit Inhalt und Leseprobe finden sich hier. Aus technischen Gründen ist die Neuauflage mit einer neuen ISBN erschienen. Da die alte Auflage auch noch lieferbar ist und in den Suchergebnissen bei amazon und anderen Buchhändlern viel weiter oben auftaucht, sollte man beim Bestellen auf die richtige ISBN achten (978-3-7386-2671-1). Entsprechend gibt es bei der Neuauflage auch noch keine Rezensionen, weshalb ich mich über die eine oder andere neue Leser-Rezension freuen würde.

by Thomas Allweyer at September 09, 2015 02:43 PM

September 07, 2015

BPinPM.net: We survived the journey through the Innovation Helix

IMG_8247A few weeks ago, a group of fearless BPM experts took on a journey through the Innovation Helix guided by the innovation experts Prof. Sonja Zillner and Dr. Bernhard Krusche from Ignore Gravity.

As already introduced at the last BPinPM.net Conference in 2014, the Innovation Helix is a framework which provides road map and tools to create an innovation friendly environment and capabilities in organizations. As innovation can neither be reduced to a manageable process nor creativity purely, from a BPM perspective, we attempted to find first process-oriented solutions in this field of tension as we traveled along the three dimensions of the helix.

On day one of our journey, we took a closer look at the strategy dimension. We learned how to explore and map potentially new innovations fields and how to build up a portfolio for managing the risk which goes along with innovations. On the second day, we first discovered how to setup conditions which foster creativity and raise the likelihood of discovering important innovations in the designing dimension. Followed by the embedding dimension which helped us to understand how to carry and embed the innovations into organizations to help create the value which they are supposed to.

BPM Life Cycle with integrated Innovation Helix and FAR+ connectionAlong our journey, we used our gained knowledge of the helix onto questions, like how can innovations be represented in a BPM life cycle and how can innovations be represented on business process level.

At the end of our journey we were not only richer in the experience on how to view and deal with innovations, but we extended our BPM life cycle by integrating strategy and design elements of the helix and created an initial process map in which the three dimensions of the helix are represented.

After our first journey ­­– which gave us a first glimpse of a broader picture on how to approach innovations in the context of BPM – we are eager to travel deeper into this matter. In the future, we plan to take on another journey to develop general requirements for organizations and transfer our initial process map into a generalized process model.

As always, our future endeavors will be held in an informal and inter-organizational setting were we encourage the bilateral exchanging of experience and expertise which offers the most added value to all participants.

If you are interested in this topic and want to participate in our future journeys, feel free to contact us.

We are planning to introduce the results at the BPinPM.net Conference 2016. Further information will be published on our website. Please subscribe to our newsletter to be notified as soon as details are available.

Best regards,
Mirko

by Mirko Kloppenburg at September 07, 2015 07:47 PM

September 04, 2015

Keith Swenson: No Model is a Good Model

During the presentations at the Workshop on Adaptive Case Management (ACM) on Monday, there was a growing question about the models: Not just how models should be constructed, but whether we should be using models at all. These ended up forming a major discussion at the end of the day, and even into the rest of the week, culminating with the final keynote questioning our obsession with models in BPM.  This is my take on the main positions in the debate.

Every presentation at the workshop dealt with modeling: (1) can CMMN model what is needed by ACM, (2) comparison of 5 different modeling approaches, (3) a way to model variants in process, (4) consistency checking of models, (5) modeling crisis scenarios with state charts, (6) using semantic web to compare models, (7) modeling based on speech acts, (8) more consistency checking within models, and (9) using viable system model for ACM.

It is not just this workshop.   I have been seeing this everywhere.  Lloyd Duggan gave a mini course on case management where he said that the difference is that BPM uses BPMN and case management uses CMMN.  If you read the papers, you see statements like:  “We needed to model, so we chose CMMN.”   There are comparisons between approaches based on comparing how models are built.  There is a build-in assumption that to do anything we start with a model.

Questioning The Value of Modeling

The assumption is a blind spot:  If it is true that modeling is effective, we should be able to show that through the use of a model we allow the user to get more done than when a model is not used.  However, this question is rarely, if ever, asked. The second presentation compared the expressibility of various modeling techniques, however the actual advantage of modeling was never demonstrated. Almost no research is done comparing cases where a model is used, to a control case where a model is not used.

A Convenient Crutch

One might suspect that models are foremost in research, because they are quite a bit easier to study than real office behavior.  Interview some people, make a model, and then put the model under a microscope.  You can experiment with the model, find the ways that it fails.  Two of the talks were about ways to find inconsistencies within a given model, to avoid deadlock type situations in the model.  However, these deadlocks have nothing to do with the behavior of the actual workers in the office, it is simply a flaw in the model.

Through all of this, we lose sight of our real goal: making workers more effective.  We really do need to do controlled studies:  consider a set of offices, measure the performance, then give one set of offices use the ACM technique, while another set continues operating manually.  Measure the increase in performance.   We need to keep our eyes on actual knowledge workers productivity, and not get distracted by our attractive technical developments.

Who is Modeling?

We need to be clear about who is modeling.  When talking of an ACM system, we all know that such a system is built from software.  That software might be modeled.  The issue is not whether the programmer of the system uses a model to make the software.  That would be a question of the use of modeling in software development — a completely separate issue from the use of modeling in ACM by the knowledge workers.  When an approach to ACM is presented as “providing modeling” we know that means modeling by the knowledge worker, or by someone close to the knowledge worker, as part of the knowledge work.  When we talk about modeling being “part of” the ACM System, it means that modeling capability is presented as part of the features for the intended users of the system — not the programmers who make the system.  I know these lines are blurred somewhat in some systems that can be “customized” by programmer.  Still, lets keep this modeling discussion about those models created by the knowledge workers themselves.  For example, a law office, we consider the modeling done by lawyers, even when only 10% of the lawyers actually make models, but lets not consider modeling done by someone who only does modeling,a nd never does any law.

An Example of a Non-modeling Approach

One of the best examples of a system that supports extensive, complex knowledge work is Git Hub.  Software product designers and programmers have a very complex, knowledge intensive task to accomplish.  Git Hub offers a simple, elegant way to coordinate this work:

  • issues can be logged by anyone at any time.  The issue describes the problem or the work to be done.
  • team members can discuss any issue using a chain of comments, either asking questions of clarification, or stating positions.
  • issues can be tagged and classified in different categories, such as bug,  feature, enhancement, urgent, ignore, and others.
  • issues can be grouped into milestones, which have an intended release date.
  • programmers can focus on all the issues in a milestone, marking off issues as the work implied by the issue is completed.  Everyone on the team can be aware of the status of the milestone.
  • Milestones can be adjusted and replanned by moving issues in and out of the molestone.

That is it.  Simple and effective.  Used effectively by thousands of projects today.  There is no modeling capability.  There is no automation of the knowledge worker tasks.  There is no need for a modeling language at all.  And it works.

Another example I have used in the past is Easy Chair, which is a system used to collect, review, and judge papers submitted to a conference.  This system is used by hundreds if not thousands of conferences every year, and most academics are familiar with it.  It allows knowledge workers to get their work done — very effectively by all accounts — but it offers no modeling capabilities at all.

Both of these are software systems, so one might assume that the programmers who developed them used models.  We don’t care.  This discussion is not about modeling in software engineering, but modeling by the knowledge worker as part of doing knowledge work.

Everything is a Model

One particular rat hole that the discussion kept going down is the position that anything you do to customize is a model.  For example, in Git Hub you can specify the labels that are used for categorization:  I might have 5 varying levels of urgency, while someone else might only have three.  In Easy Chair you can decide whether abstracts can be sent in ahead of the submission, or whether the full submission must be given at once.  These changes effect the way that the users must behave with the system.

In some purist technical way, any setting that one person makes effecting another is modeling.  These trivial mechanisms are not what most people mean by modeling.  I think we know by modeling, we mean some flexible, abstract, general purpose representation of the work being done.  When we say the work can be modeled, we don’t mean that there is a check-box somewhere that directs work differently.  Or a label.

The true gray-area is that of checklists.  A checklist is a general purpose representation of a collection of tasks.  One might argue that this is modeling.  For example, grouping the issues into a milestone in Git Hub, is modeling the work to be done for that milestone.  No!  I am not buying it.  The difficulty in modeling has to do with a certain level of abstraction.  Checklists are concrete.  If we want to discuss the merits of modeling, we must be talking of models that are more abstract than a checklist.

For What Purpose?

My stated position was that we must consider and measure the benefit of a model.  WE can not assume that it offers a benefit, and as you can see there are good examples of knowledge work systems that require no modeling by the knowledge workers.  They offer no possibility for it, and there does not appear to be any problem.

Models could be useful for a purpose.  For example, a model of the work can be very important in predictive analysis, where you use patterns of behavior together with emerging workload, to predict how many resources you will need.  A call center wants to make sure they have enough knowledge workers available on days when load is expected to peak.  Presentation #5 was about emergency response, and having a model to simulate potential scenarios before an emergency can be critical.  It can also be useful to take inputs and warn about potential problems as the emergency is unfolding.  A model can be used in numerous simulation situations.  Some of these models would be implemented by a specialist who does only models:  for example the person who makes a model to predict problems in a flood, might not be an actual emergency rescue worker.  The question still remains whether a system to support emergency responders needs modeling capabilities.

If we include modeling in an ACM System, then we should be very clear what the purpose and goal of such modeling is.  We should then not only show that it achieves this goal, but that also, as a result of the modeling, the work of the actual knowledge workers is made more effective.

The rest of BPM as well

Outside of the workshop, we saw a lot of the same sentiment: we are too hung up on modeling.  Far too many papers assume modeling, and then study the model.  Studies of model correctness constraints are about assuring that certain modeling rules are not broken — not necessarily whether the business that uses the model improves from it.

Leon Osterweil, a hero in the 1990s in the software process model domain, whose work I have cited many times, attended the conference and participated on a panel about agile BPM.  However, it is somewhat ironic and humbling to realize that in the software development space, real progress has been made not by developing an elaborate executable process model, but instead by going the other way to agile approaches, such as SCRUM.  SCUM has a method to be sure:  two week sprints, daily stand-up meetings, visible status, develop test before developing the code, but these are less like automated processes, and more like simple patterns of interactions on which programmers manually create the software.  Git Hub does a brilliant job of coordinating developers work, without having any readily apparent enforcement of something you might call a process model.

ReturnToProcessMarlon Dumas gave the closing keynote for the BPM Conference including a history of the BPM field from 1990 to date.  He also decried the focus we give on models: measuring models, improving models, etc. to the exclusion of knowing whether we are actually creating the business.  He showed how at different times we moved from studying process, to studying models, to studying analytics.  He urged a change in culture for the papers next year and beyond.  Modeling and analytics are tools to use to improve a business process, but they are not themselves the business process.  The model should not be the focus of the research.  Instead, we should focus on returning to study the actual business process, the actual work being done, and show how we can make the business more effective, possibly with the use of models.

No Model is a Good Model

I think a whole lot more can be done to support knowledge workers without the need for modeling.  We need to study those.  Modeling might be useful in situations, but we should be clear about the purpose of that modeling, and we should measure whether the model is actually effective in improving the work of knowledge workers.  We should not be blinded by the assumption that modeling is a necessary part of ACM.


by kswenson at September 04, 2015 11:13 AM

September 01, 2015

Keith Swenson: AdaptiveCM 2015 Workshop Summary

So much planning, so much anticipation, and now the 4th International Workshop on Adaptive Case Management and other non-workflow approaches to BPM is over after one marvelous day.  We had reserved some time at the end for a round table discussion, with some time in the morning to select topics.  The subject of ‘The Purpose and Value of Modeling for Knowledge Worker Support’ quickly emerged as the dominant concern, and ended up being the main discussion point.  Before we get to that, let me present a summary of the papers (see the program).

Presentations

Case Management: An Evaluation of Existing Approaches for Knowledge-Intensive Processes

Matthias Hauder gave a presentation on their study into the field of case management. The problem is that all the different papers have different definitions of case management. They did a survey of the literature, and pulled the common characteristics, as well as common requirements. They propose a good definition for case management. They then looked at the requirements, and identified the ones required for modeling, and then looked to see if CMMN would fit the bill. I found the logic a little bit circular: because they assume that the environment will have some characteristics of a CMMN based environment. Specifically, that design modeling capabilities are a separate feature from regular usage, and that only some of the users would do modeling. Because they assume an environment similar to CMMN, it is not surprising that they find CMMN a suitable fit to the requirements — at least for the modeling portion. What they did not do is to validate that the modeling-based approach actually works in any situation.  That migth be the next step for Matthias.

Declarative Process Modelling from the Organizational Perspective

Stefan Schönig gave a presentation on his analysis of five different declarative modeling languages Declare, DCR-Graphs, CMMN, DPIL and EM-BrA2CE.  The first three of theses are graphical in nature, while the last two are text-based language.  He particularly looked at how well the languages represent a couple of specific organizationally relevant patterns involving roles.  The analysis was well done.  The somewhat surprising result was that all three of the graphical notations showed significant deficiencies in representing these kinds of task assignment.  While the text-based languages might do a better job of representing this requirement, they are widely recognized as being harder to use.  DPIL is his preferred choice and he is actively involved in development of it.  He spoke about how to put a graphical representation in front that would automatically translate to DPIL.  Two comments from me:  (1) he needs a better definition of ‘role’ since the one used tended to blur the line between ‘role’ and ‘group’ — a rather different concept.  (2) If you have a graphical notation that faithfully represents what DPIL can do, they why bother with DPIL?  This could be completely hidden and nobody would need know about it.

A Case Modelling Language for Process Variant Management in Case-based Reasoning.

Andreas Martin compared the expressiveness of various modeling techniques measured in a knowledge-work extensive use case: BPMN, CMMN, Declare, and BPFM.  The user case was good: qualifying candidates for admission to their school which involves many different rules as well as international candidates having widely varying supporting evidence.   BPMF is a like a decision tree, and seems to be a better fit for case management which is more about identifying goals and less about the process to get there.

Embracing process compliance and flexibility through behavioral consistency checking in ACM, A Repair Service Management Case

Christoph Ruhsam from ISIS Papyrus presented some approaches that might be used to allow for building of process diagrams at run time.  One problem with letting knowledge workers change process models, or with composing process models from a set of pieces, is that the resulting model might contain internal consistency problem.  This approach would allow for automatic checking of those consistency rules, to warn users immediately about problems.

Modeling crisis management process from goals to scenarios.

Elena Kushnareva presented the idea of using State Charts to model the process for an emergency response organization.  For example, as a flood rises to different levels, there are associated necessary responses, such as closing bridges, roads, or evacuating certain regions  It is a good use case because emergency response is very unpredictable, and it is important.  State charts are particularly strong when you have nested state, but I remain unconvinced that the scenario requires a lot of nested state.  It seems that they particularly use it in such a way that you have a lot of independent states that just happen to be in a containing box “emergency occurs.” The following box, recover from emergency, would need to go to some great length to retain the internal state of the previous box, but that following box was not elaborated in the presentation.  Once again, my main question is “why do modeling”.  In this case I see a clear need for an elaborate model done to run simulations and understand what needs to be prepared — that model done by people who specialize in modeling such things — but the actual emergency response worker don’t show any need to do modeling, or even to change the aforementioned model while an emergency is unfolding.

Supporting Adaptive Case Management Through Semantic Web Technologies

Wilhelm Koop presented an idea to use semantic representations (OWL, RDF) to help guide knowledge workers in choosing what is and is not an acceptable enhancement to a process model.  This is also important as a way to determine whether the extensions made by two different knowledge workers are the same or not.  Some form of semantic analysis of case history seem obviously critical in order to eliminate the arbitrary differences cause simply by the choice of words the workers use.

Supporting Knowledge Work by Speech-Act Based Templates for Micro Processes.

Johannes Tenschert proposed that instead of making models on deconstructing the human activities involved, we should instead base the models on how people communicate, particularly how they communicate to get things done.  This is the realm of speech acts.  They have a couple of basic patterns: a promise, a commitment, a question, a declaration of completion, etc.  I personally think there is a really a lot of promise to this approach, because organizations are ultimately social entities, and what matters is what you say was done, not necessary how you did it.  Their research is just starting on this, and what they need is to elaborate a practical example, and to show that this approach would result in an improved ability to support the work.

Towards Structural Consistency Checking in Adaptive Case Management.

Christoph Czepa gave the second paper on how to automatically detect consistency problems in a language like CMMN.  For example, the exit criteria of one node can directly contradict the entry criteria of the following node, and produce a graph that can never be traversed.  Model checking is used to extend this detection ability to logical contradictions that would not be immediately obvious.  This type of logical check would seem an excellent feature on any process modeling tool.

Towards Process Improvement for Case Management. An Outline Based on Viable System Model and an Example of Organizing Scientific Events.

Ilia BIder put forth that if you want a system that modifies itself, or at least an organization that modifies the system it uses, then the Viable System Model from Cybernetics is worth investigating.  Gave a VSM overview.  Then present the use case of running a scientific meeting, much like the workshop we all are attending.  He gave a list of tasks, and pointed out that each is likely to be needed in any event, so the goal is never to ‘optimize the process’.   He mapped the various parties that are involved in a workshop to the 5 different ‘systems’ defined by the VSM.  He stopped short of demonstrating that this was an effective way to structure an ACM system, but leave that up to a future research to take to the next step.

—-

This all led up to a large discussion on the merits of modeling:  what good is it? what should it be used for? what are the goals? what should it not be used for? how do we measure the effectiveness? and do we need to model at all?   The first day of the BPM conference is starting here in Innsbruck in a few minutes, so you will have to wait until tomorrow for my summary of this discussion on the merits of modeling for knowledge workers.

 


by kswenson at September 01, 2015 06:44 AM

August 24, 2015

Keith Swenson: Podcast about Robust BPM

Peter Schoof interviewed me last week on the subject of robust BPM. (Thanks Peter!)  This had been the basis of a talk I gave in Montreal at  the Workshop on Methodologies for Robustness Injection into Business Processes.  It is a quick 15 minute summary:

Robust BPM: Keith Swenson Explains How to Build Processes That Last

The main point is that the standard mechanism for reliability in software engineering is the database transaction.  Systems can be made to always be consistent through proper use of transactions, how BPM often spans many systems.  Large distributed transactions, while theoretically possible, are not practical.  Therefor, you will always run into consistency problems, which must be dealt with.  The answer to making a reliable BPM solution is not sweep the problems under the rug, but rather to make sure that any such problem is quickly and reliably reported.  When a problem occurs, stop processing right away, and just record the issue.  Instead of designing processes as an opaque black-box for the user, allow a dashboard-like visibility to some of the key, separate parts of the process, and give status lights to indicate whether the remote process ran correctly or not.  This means that your process system must be instrumented to be able to report on status, particularly error status.  (It is not OK to fail, and then just go dark.  The system has to be able to report about failures.)  Instead of trying to prevent all possible failures, the system needs to be designed with the idea that failures will happen, and to be able to record and communicate about them.

Most important:60D130426-7379

  • You want your BPM diagrams to be a clean, pure representation of the business logic, without muddying from the reality of the hosting environment.  Such a process would run in an idealized perfect environment, but we don’t actually have such an environment.
  • Do not confuse this BPM diagram with the system architecture!  You need a system architect to take the business logic, and translate it to the realities.  Parts of the system are reliable and can have a faithful translation.  Other parts might be out of sync, and as such special mechanisms must be included to help notify people of problems (failures) and to give them controls to restart things when necessary.

It is ironic, that to make a robust reliable system, you do so not by hiding problems, but by exposing all the problems as they happen.


by kswenson at August 24, 2015 04:18 PM

Thomas Allweyer: Das prozessorientierte Unternehmen als Wertschöpfungsmaschine

Cover WertschoepfungsmaschineViele Prozessmanagement-Ansätze werden etwas vage, wenn es um die Anbindung an die Unternehmensstrategie geht. Doch bleibt die positive Wirkung von Prozessverbesserungsmaßnahmen zwangsläufig beschränkt, wenn nicht sichergestellt ist, dass die Prozesse möglichst optimal auf die Markterfordernisse und die Strategie ausgerichtet sind. Das vorliegende Buch schließt diese Lücke. Es beschreibt sehr genau, wie man die Unternehmensstrategie konkretisiert und in den Prozessen verankert. Der vorgestellte Ansatz wurde am Institut für Unternehmensführung der TU Graz entwickelt und in zahlreichen Projekten erfolgreich umgesetzt.

Bei diesem Ansatz geht es nicht um inkrementelle Verbesserungen innerhalb bestehender Organisationsstrukturen, sondern um grundlegende Prozessinnovationen, die zumeist auch Änderungen der Aufbauorganisation erfordern. Zentral ist hierbei die Gestaltung sämtlicher Schnittstellen als Auftraggeber-Auftragnehmer-Beziehungen mit genauer Festlegung von Input und Output und vollständiger Verantwortungsübertragung. Hierdurch lassen sich die enge Kopplung zwischen den Prozessen und die hieraus entstehende Komplexität reduzieren. In einem Top-Down-Vorgehen wird hierzu zunächst das Makrodesign des Unternehmens entwickelt, bevor das Mikrodesign der einzelnen Prozesse ausgearbeitet wird. Das Makrodesign unterscheidet sich von einer herkömmlichen Prozesslandkarte dadurch, dass sämtliche Prozessschnittstellen präzise definiert sind.

Unternehmensstrategie und Makrodesign müssen spezifisch für jedes Unternehmen entwickelt werden. Die Autoren raten dringend davon ab, Referenzmodelle zu übernehmen oder „Mainstream“-Empfehlungen der aktuellen Business-Literatur zu folgen. Wichtige Konzepte des Ansatzes sind unter anderem die Prozesskaskade, die Prozess-Segmentierung und die horizontale Prozessintegration. Die Prozesskaskade strukturiert das Zusammenspiel zwischen den kundenbezogenen End-to-End-Prozessen und anderen Prozessen, die ihnen als Zulieferer dienen, wobei die Schnittstellen gemäß der oben erwähnten Auftraggeber-Auftragnehmer-Beziehungen festgelegt werden. Wenn auch diese zuliefernden Prozesse Leistungen weiterer Prozesse in Anspruch nehmen, entsteht eine mehrstufige Kaskade. Zur Beherrschung variantenreicher Prozesse ist weiterhin eine geeignete Prozess-Segmentierung erforderlich, die nach unterschiedlichen Kriterien erfolgen kann, wie z. B. nach Kundengruppen oder Produktgruppen. Die horizontale Integration dient dazu, Prozesse aufeinander abzustimmen, zwischen denen Abhängigkeiten aufgrund benötigter Ressourcen oder Informationen bestehen. Die Aufbauorganisation richtet sich nach der im Makrodesign festgelegten Prozessstruktur.

Geschäftsprozesse werden nicht als reine Abfolgen von Aktivitäten verstanden, sondern als modulare Plattformen, die über sämtliche benötigte Informationen und Ressourcen verfügen, und in denen Prozessausführung und -steuerung miteinander verzahnt sind. Diese Plattformen können modular zusammengesetzt werden. Sie sind im Rahmen des Makrodesigns lose gekoppelt. Für das Mikrodesign innerhalb der Prozesse besteht ein recht hoher Freiheitsgrad. Auch unternehmensübergreifende Wertschöpfungsnetzwerke können mit dem vorgestellten Ansatz beschrieben und entworfen werden.

Das Buch beschreibt die einzelnen Elemente des Ansatzes ausführlich und gut nachvollziehbar und geht auch auf unterschiedliche Unternehmenstypen und Branchen ein. Weitere behandelte Themen sind u. a. die speziellen Herausforderungen des kundenindividuellen Lösungsgeschäfts, die prozessorientierte Kostenrechnung, der Innovationsprozess sowie die prozessbasierte Aufbauorganisation. Neben grundlegenden Erläuterungen enthält das Buch konkrete Handlungsanleitungen sowie zahlreiche Praxisbeispiele.

Unter der zahlreichen Prozessmanagement-Literatur gibt es wohl kaum ein anderes Buch, das die Ableitung der Prozesse aus der Unternehmensstrategie derart fundiert, systematisch und zugleich praxisorientiert beschreibt. Dabei konzentrieren sich die Autoren auf die methodischen Aspekte der Organisationsgestaltung. Die weichen Faktoren wie Unternehmenskultur und Veränderungsmanagement werden ebenso wie die IT-Unterstützung der Prozesse nur am Rande angesprochen.


Suter, A.; Vorbach, S.; Weitlaner, D.:
Die Wertschöpfungsmaschine –
Strategie operativ verankern – Prozessmanagement umsetzen – Operational-Excellence erreichen
Hanser 2015
Das Buch bei amazon.

by Thomas Allweyer at August 24, 2015 09:32 AM

August 23, 2015

BPM-Guide.de: Why DMN is the next big thing and you will be excited

Every 6 months we publish a so-called “minor release” of the Camunda BPM platform. The upcoming release 7.4 is scheduled for 30 November, and it will support the new OMG-standard for decision management, DMN.

DMN is currently our priority 1 topic, for a simple reason: We believe, that DMN will become as important for automating decisions, as BPMN has become for automating processes.

I will briefly explain why we think that and then describe how Camunda will embrace DMN, which will make you very excited

Why DMN is the next big thing – Part 1: The problem

I have been …

by Jakob Freund at August 23, 2015 03:49 PM

July 20, 2015

BPM-Guide.de: Decision Model and Notation (DMN) – the new Business Rules Standard. An introduction by example.

DMN is a brand new standard of the OMG, it stands for Decision Model and Notation and is clearly related to BPMN and CMMN. DMN defines an XML format and is executable on Decision/Business Rules Engines. It is currently on the home stretch of standardization and camunda will release camunda BPM 7.4 including DMN in November. Over the last months we discussed a lot of Business Rules use cases with clients and sketched solutions in DMN. So high time to give an introduction into DMN and present some learnings we had so far.

The example: Task Assignment/Routing of new claims

The …

by Bernd Rücker at July 20, 2015 02:36 PM

Thomas Allweyer: Anforderungen ganz einfach erfassen

req suite screenshotAuf den ersten Blick könnte man vermuten, dass es sich bei dem Tool ReqSuite des Startups OSSENO um ein weiteres Werkzeug für das Requirements Management (RM) handelt. Im Gegensatz zu typischen RM-Tools liegt der Schwerpunkt aber weniger auf dem Verwalten von Anforderungen und ihren Beziehungen, sondern eher darauf, das Erfassen, Strukturieren und Formulieren von Anforderungen möglichst einfach zu machen. Die Gründer von OSSENO haben als Wissenschaftler am Fraunhofer IESE umfangreiche Erfahrung mit dem Requirements Engineering gesammelt. Dabei haben Sie festgestellt, dass viele Autoren von Anforderungsdokumenten Schwierigkeiten haben, die in Seminaren vermittelten Praktiken umzusetzen.

Hier setzt ReqSuite an: Es führt den Benutzer beim Schreiben der Anforderungen und sorgt so dafür, dass die dokumentierten Anforderungen vollständig beschrieben und dabei einheitlich strukturiert und formuliert werden. Die Anforderungs-Autoren können sich somit ganz auf die eigentlichen Inhalte konzentrieren. Das Tool integriert sich nahtlos in Word, der gewohnten Anwendung zum Schreiben von Anforderungsdokumenten. Zudem ist ein Web-Frontend in Arbeit.

Beim Erfassen der Anforderungen wird einem keine vorgegebene Reihenfolge aufgezwungen. Das Tool verfügt vielmehr über ein Strukturmodell für Anforderungsdokumentationen. Damit kann es stets feststellen, welche weiteren Informationen noch zu den bereits eingegebenen Inhalten erforderlich sind. Der Benutzer kann diese Inhalte in beliebiger Reihenfolge erfassen, wobei ihn das Tool darauf hinweist, was noch benötigt wird. Auch für die exakte und eindeutige Formulierung von Anforderungen gibt es Hilfestellungen. Es werden einheitliche Satzschablonen bereitgestellt, die nur noch ausgefüllt werden müssen.

Im Gegensatz zu einem reinen Textdokument sind die Inhalte miteinander verknüpft und werden in einer Datenbank abgelegt. Abhängigkeiten zwischen unterschiedlichen Anforderungen müssen somit nicht erst manuell gepflegt werden. Zudem lassen sich unterschiedliche Dokumente generieren, die die Informationen in verschiedener Weise darstellen.

Da sich die Strukturen von Anforderungsdokumenten, verwendete Bezeichnungen und Formulierungsregeln von Anwendungsbereich zu Anwendungsbereich unterscheiden können, lassen sich sämtliche Strukturen, Satzschablonen und Bezeichnungen individuell anpassen. Das bedeutet zwar zu Beginn einen gewissen Aufwand, doch dafür wird anschließend das Schreiben der Anforderungen wesentlich erleichtert und die Qualität der Anforderungsdokumente verbessert. Diese Anpassungsfähigkeit ermöglicht es auch, das Tool komplett umzukonfigurieren und für andere Anwendungsbereiche einzusetzen, beispielsweise zum Erstellen von Angeboten.

by Thomas Allweyer at July 20, 2015 10:27 AM

July 17, 2015

Sandy Kemsley: Knowledge Work Incentives at EACBPM

June was a bit of a crazy month, with three conferences in a row (Orlando-London-DC) including two presentations at IRM’s BPM conference in London: a half-day workshop on the Future of Work, and a...

[Content summary only, click through for full article and links]

by sandy at July 17, 2015 02:20 PM

July 04, 2015

Thomas Allweyer: Bonita 7 richtet Fokus stärker auf Entwickler

Bonita 7 ScreenshotBereits seit einigen Jahren setze ich in der Lehre das BPM-System „Bonita“ ein, und auch die Beispiele in meinem BPMS-Einführungsbuch wurden mit Bonita erstellt. Die Community Edition dieses Systems steht unter einer Open Source-Lizenz und kann beim Hersteller kostenlos heruntergeladen werden. Das System ist relativ schlank und kann ohne besondere Kenntnisse problemlos auf jedem handelsüblichen PC oder Notebook installiert werden. Damit eignet es sich gut für Studenten und Leser des Buchs, die ohne großen Aufwand die Beispiele ausprobieren und eigene Prozesse entwickeln und zur Ausführung bringen können. Zudem gelingt es mit Hilfe der Modellierungskomponente recht zügig und ohne Programmierung, einfache Prozesse zu erstellen und ablaufen zu lassen. Auf diese Weise kann man die im Buch diskutierten Konzepte ziemlich schnell anwenden ohne vorher erst umfangreichen Programmcode erstellen zu müssen.

Dieser Zero Coding-Ansatz hat jedoch seine Grenzen und schon bei auch nur halbwegs praxisnahen Beispielen kommt man kaum herum, an verschiedenen Stellen Groovy- oder Java-Code zu erstellen. Zudem sind die mit dem grafischen GUI-Editor erstellten Benutzerdialoge recht simpel und optisch nicht unbedingt besonders ansprechend. Wenn es nur darum geht, die verschiedenen Aspekte eines BPMS auszuprobieren und zu erlernen, stört das nicht unbedingt. Für den produktiven Einsatz im Unternehmen ist die Ergonomie der Benutzungsoberfläche hingegen schon von Bedeutung. In einfachen Fällen mag das mitgelieferte Standard-Portal mit seiner einheitlichen Task-Liste genügen. Werden nur wenige Daten in einem Prozess verarbeitet, reicht es zudem meist aus, diese in Form von Prozessvariablen in den Prozessinstanzen mitzuführen. In komplexeren Fällen sind hingegen durchgängige Prozessanwendungen von Vorteil, deren Oberflächen speziell auf die jeweiligen Aufgaben zugeschnitten sind und deren Geschäftsobjekte direkt in einer Datenbank verwaltet werden.

Auf die Entwicklung solcher Prozessanwendungen zielt Bonita mit der kürzlich erschienenen Version 7 ab. So wurde eine komplett neue GUI-Komponente bereitgestellt, die auf Angular JS basiert. Die Oberfläche und die Prozesslogik wurde mit Hilfe sogenannte Contracts entkoppelt. Diese Verträge legen die zwischen einer Aktivität des Prozessmodells und der GUI ausgetauschten Daten fest und beschreiben somit die Schnittstelle. Dadurch wird es beispielsweise erleichtert, die vorhandenen GUI-Komponente durch eine selbst entwickelte Oberfläche zu ersetzen.

Eine bisher nur in der kommerziellen Version verfügbare Verwaltung von Business-Objekten wurde in die Open Source-Edition übernommen. Komplexe Geschäftsobjekte werden nicht mehr in Prozessvariablen gespeichert, sondern in automatisch generierten Datenbanktabellen abgelegt. Schließlich wurde das REST-API überarbeitet, das den Zugriff für externe Anwendungen ermöglicht und auch von Bonita selbst für die Kommunikation zwischen GUI und Prozess-Schicht genutzt wird.

Die Neuerungen richten sich also vor allem an Software-Entwickler, die weniger mit einem fertigen Baukasten arbeiten als vielmehr umfassende Anwendungen auf Basis von Bonita entwickeln möchten. Für solche Anwendungen ist ein größerer Anteil an Programmierung erforderlich. Bonita 7 bietet einen deutlich höheren Grad an Flexibilität, der an einigen Stellen aber durch zusätzlichen Entwicklungsaufwand erkauft wird, indem z. B. erst ein Contract erstellt werden muss, bevor Benutzerdialoge angebunden werden können. Die Nutzung verschiedener Technologien für die Process Engine und die GUI erhöht die Anforderungen an die Entwickler, die nun mehrere Programmiersprachen flüssig beherrschen müssen.

Diese Neuerungen – so nützlich sie für die Kunden sein mögen – erhöhen tendenziell den Aufwand für den Einstieg in die Arbeit mit Bonita BPM. Glücklicherweise stehen – anders als dies beim Umstieg von Version 5 auf Version 6 der Fall war – in Bonita 7 nach wie vor alle Funktionalitäten von Bonita 6 zur Verfügung. Zum Teil wurden die entsprechenden Menüeinträge an etwas andere Stelle verschoben, doch findet man sie meist recht schnell wieder. Laut Angaben von Bonita sollen alle mit Bonita 6 erstellten Prozesse unverändert ablaufen. Bei den bisher getesteten Modellen war dies auch tatsächlich der Fall. Auch der bisherige Formular-Editor steht nach wie vor zur Verfügung. Zwar empfiehlt Bonita, künftig nur noch die neue GUI-Komponente zu verwenden, doch lassen sich mit der alten Komponente einfache Formulare sehr schnell erstellen, was gerade für Testzwecke sehr nützlich ist.

Die im Buch beschriebenen und zum Download bereitgestellten Prozessmodelle sollten also alle nach wie vor funktionieren. In den kommenden Monaten werde ich das eine oder andere Modell erstellen und hier veröffentlichen, das die neuen Möglichkeiten von Bonita 7 nutzt.

by Thomas Allweyer at July 04, 2015 10:15 AM

June 23, 2015

Sandy Kemsley: HP Consulting’s Standards-Driven Requirements Method at BPMCM15

Tim Price from HP’s enterprise transformation consulting group presented in the last slot of day 2 of the BPM and case management summit (and what will be my last session, since I’m not...

[Content summary only, click through for full article and links]

by sandy at June 23, 2015 08:17 PM

Sandy Kemsley: The Enterprise Digital Genome with Quantiply at BPMCM15

“An operating system for a self-aware quantifiable predictive enterprise” definitely gets the prize for the most intriguing presentation subtitle, for an afternoon session that I went to...

[Content summary only, click through for full article and links]

by sandy at June 23, 2015 06:19 PM

Sandy Kemsley: The Digital Enterprise Graph with @denisgagne at BPMCM15

Yesterday, Denis Gagné demonstrated the modeling tools in the Trisotech Digital Enterprise Suite, and today he showed us the Digital Enterprise Graph, the semantic layer that underlies the modeling...

[Content summary only, click through for full article and links]

by sandy at June 23, 2015 03:47 PM

Sandy Kemsley: Wearable Workflow by @wareFLO at BPMCM15

Charles Webster gave a breakout session on wearable workflow, looking at some practical examples of combining wearables — smart glasses, watches and even socks — with enterprise...

[Content summary only, click through for full article and links]

by sandy at June 23, 2015 02:47 PM

Sandy Kemsley: Day 2 Keynote at BPMCM15

Second day at the BPM and Case Management summit in DC, and our morning keynote started with Jim Sinur — former Gartner BPM analyst — discussing opportunities in BPM and case management....

[Content summary only, click through for full article and links]

by sandy at June 23, 2015 01:59 PM

June 22, 2015

Sandy Kemsley: BPMN, CMMN and DMN with @denisgagne at BPMCM15

Last session of day 1 of the BPM and Case Management Summit 2015 in DC, and Denis Gagne of Trisotech is up to talk about the three big standards: the Business Process Model and Notation (BPMN), the...

[Content summary only, click through for full article and links]

by sandy at June 22, 2015 08:07 PM

Sandy Kemsley: Fannie Mae Case Study on Effective Process Modeling at BPMCM15

Amit Mayabhate from Fannie Mae (a US government-sponsored mortgage lender that buys mortgages from the banks and packages them for sale as securities) gave a session at the BPM and Case Management...

[Content summary only, click through for full article and links]

by sandy at June 22, 2015 06:17 PM

Sandy Kemsley: PCM Requirements Linking Capability Taxonomy and Process Hierarchy at BPMCM15

I’m in Washington DC for a couple of days at the BPM and Case Management Summit; I missed this last year because I was at the IRM BPM conference in London, and in fact I was home from IRM less...

[Content summary only, click through for full article and links]

by sandy at June 22, 2015 03:44 PM

June 19, 2015

Keith Swenson: Sociocracy

I was approached a few months ago by a group wondering what kinds of collaborative software might exist to support something called Sociocracy.  That was the impetus of my latest journey into the world of organizing on democratic principles.

Background

This will be a lot more than one post, so I need to start with a general background on Sociocracy.  It was a movement started in the 1970’s as a way of running business based on the principles of sociology.  It is based on the ideas from Cybernetics (see Norbert Weiner and Stafford Beer).  It was promoted in the 1970’s primarily by Gerard Endenburg from Holland.

While democracy is rule by the mass of people, sociocracy is about rule by people who have a social relationship with each other.  The central idea is governing by consensus.  People are organized in circles, and circles meet to make policy decisions.  Large organizations are represented as a hierarchy of circles, with two representatives (double-linking) always bridging from one circle to another.  Part of the method involves avoiding voting:  Instead of calling for a vote and picking winners a slightly more elaborate mechanism produces a candidate which then goes through another pass to make sure that nobody has any objections.  Thus decisions are made by consent — something everyone can live with — not necessarily by consensus.  In this way it reminds me of IETF meetings which I participated in years ago that also eschewed voting in favor of what they called “rough consensus.”

There seems currently a resurgence for looking at ways of running groups in a non-traditional ways.  In an earlier post I covered the idea of self-management (Absolutely Self-Managed Workers) and a post on Wirearchy (Wirearchy – a pattern for an adaptive organization?).  John Hagel talks about Push and Pull organizations (The Power of Pull: Just Win, Baby).  Tony Hsieh of Zappos has put Holacracy in the news recently, and the distinction between this and Sociocracy is not clear to me.  These all seem to be appearing as alternatives to the more traditional scientific management (It is All Taylor’s Fault).

StylesOfBizArch

A cadre of organizational heavy hitters (Brynjolfsson et al.) has called out in “Open Letter on the Digital Economy” for a set of changes in public policy and research on how the economy is structured.  Steve Denning covered this in his article “An Open Letter From Silicon Valley Calls For Bold Organizational Reform” where he mentiones Sociocracy as one of 3 dozen initiatives for promoting innovative new organizational structure.

The Sociocracy movement in North America seems to be concentrated around the Sociocracy Consulting Group, which includes John Buck and 7 others offering training in the method, and a loose confederation of others consultants (notably Sharon Villines) all somewhat associated with The Sociocracy Group from Holland.

Collaboration Software for Sociocracy

John Buck reached out to Fujitsu to see what capability we might have for flexibly supporting the working patterns of sociocracy.  This is not really a BPM problem.  The people who participate in a sociocratic circle are knowledge workers.  Thus you need something like case management.

He introduced me to a team of people looking to figure out exactly what would be needed.  Like all knowledge workers, the people running a sociocracy want to focus on their day job, and not on the software they are using.  The idea is to come up with something that fits the working patterns of a sociocracy without needing a lot of customization.  The idea intrigued me.

I hope to cover some of the progress in this direction in future posts.  For now, I hope only that this post has made you aware of a new, and up-coming innovative way to organize people.


by kswenson at June 19, 2015 10:00 AM

June 18, 2015

Drools & JBPM: Drools & jBPM get Dockerized

Docker is becoming a reference to build, ship and run container-based applications. It provides an standard, easy and automated way to deploy your applications.

Since latest 6.2.0.Final community release you can use Docker to deploy and run your Drools & jBPM applications in an easy and friendly way. Do not worry about operation system, environment and/or application server provisioning and deployments ... just use the applications!

The images are already available at Docker Hub:

Please refer to next "Drools & jBPM community Docker images" section for more information about what's contained in each image.

Why are these images helpful for me and my company?

To understand the advantages of using these Docker images, let's do a quick comparison with the deployment process for a manual installation of a Drools Workbench application.

If you do it by yourself:
  1. Install and prepare a Java runtime environment
  2. Download the workbench war (and other resources if necessary), from the official home page or from JBoss Nexus
  3. Download and prepare a JBoss WildFly server instance
  4. Configure the WildFly instance, including for example configuring the security subsystem etc.
  5. Deploy Drools into the WildFly instance
  6. Start the application server and run your Drools application
As you can notice, manual installation already takes quite a few steps.  While this process can be automated in some way (as the jbpm-installer for example does), some questions arise at this point ... What if I need a more complex environment? Are other colleagues using the same software versions and configuration? Can I replicate exact same environment? Could someone else easily run my local example easily during a customer demo? And if I need to deploy several identical runtime environments? What about removing my local installation from my computer? ...

Software containers & Docker are a possible solution and help providing an answer to some of these questions.

Both Drools & jBPM community Docker images include:
  • The OpenJDK JRE 1.7 environment 
  • A JBoss WildFly 8.1.0.Final application server
  • Our web-based applications (Drools Workbench, KIE server and/or jBPM Workbench) ready to run (configurations and deployments already present)
You don't have to worry about the Java environment, the application server, the web applications or configuration ... just run the application using a single command:

  docker run -p 8080:8080 -d --name drools-wb jboss/drools-workbench-showcase:6.2.0.Final

Once finished, just remove it:

   docker stop ...

At this point, you can customize, replicate and distribute the applications! Learn more about Docker, its advantages and how to use it at the offical site.

The environment you need

Do not worry about Java environments, application servers or database management systems, just install Docker:

   # For RHEL/Fedora based distributions:
   sudo yum -y install docker

More installation information at the official Docker documentation.

Are you using Windows? 

For windows users, in order to use Docker, you have to install Boot2Docker. It provides a Linux basic environment where Docker can run. Please refer to the official  documentation for the Docker installation on Windows platforms.

You are ready to run!

Drools & jBPM community Docker images

For the 6.2.0.Final community release six Docker images have been released.  They can be categorized in two main groups: Base images provide the base software with no custom configurations. They are intended to be extended and customized by Docker users.   Showcase images provide applications that are ready to run out-of-the-box (including for example some standard configuration).  Just run and use it!  Ideal for demos or evaluations / getting started.
  • Base images 
    • Drools Workbench
    • KIE Execution Server
    • jBPM Workbench
       
  • Showcase images
    • Drools Workbench Showcase
    • KIE Execution Server Showcase
    • jBPM Workbench Showcase


    Let's dive into a detailed description of each image in the following sections.


    Drools Workbench

    This image provides the standalone Drools web authoring and rules management application for version 6.2.0.Final.  It does not include any custom configuration, it just provides a clean Drools Workbench application running in JBoss WildFly 8.1.  The goal of this image is to provide the base software and allow users to extend it, and apply custom configurations and build custom images.

    Fetch the image into your Docker host:

       docker pull jboss/drools-workbench:6.2.0.Final

    Customize the image by creating your Dockerfiles:

       FROM jboss/drools-workbench:6.2.0.Final
       ...

    Please refer to Appendix C for extending this image.

    Run a Drools Workbench container:

    docker run -p 8080:8080 -d --name drools-wb jboss/drools-workbench:6.2.0.Final

    Navigate to your Drools Workbench at:

       http://localhost:8080/drools-wb # Linux users
       http://<boot2docker_ip>:8080/drools-wb # Windows users

    Refer to Appendix A for more information about IP address and port bindings.

    Drools Workbench Showcase

    See it in Docker Hub

    This image provides the standalone Drools web authoring and rules management application for version 6.2.0.Final plus security configuration and some examples.
    Tip: This image inherits from the Drools Workbench one and adds custom configurations for WildFly security subsystem (security realms) and system properties for enabling the use of the examples repository. 
    The goal for this image is to provide a ready to run Drools Workbench application: just pull, run and use the Workbench.

    1. Pull the image:

      docker pull jboss/drools-workbench-showcase:6.2.0.Final

    2. Run the image:

      docker run -p 8080:8080 -d --name drools-wb-showcase jboss/drools-workbench-showcase:6.2.0.Final

    3. Navigate to the workbench at:

       http://localhost:8080/drools-wb # Linux users
       http://<boot2docker_ip>:8080/drools-wb # Windows users

    Refer to Appendix A for more information about IP address and port bindings.

    You can use admin/admin for default logging in - Refer to Appendix B for default users and roles included

    KIE Execution server

    This image provides the standalone rules execution component for version 6.2.0.Final, to handle rules via remote interfaces.
    More information for the KIE Execution Server can be found at the official documentation.
    This image does not include any custom configuration, it just provides a clean KIE Execution Server application running in JBoss WildFly 8.1.  The goal for this image is to provide the base software and let the users to extend it, and apply custom configurations and build custom images.

    Fetch the image into your Docker host:

       docker pull jboss/kie-server:6.2.0.Final

    Customize the image by creating your Dockerfiles:

       FROM jboss/kie-server:6.2.0.Final
       ...

    Please refer to Appendix C for extending this image.
    Run a KIE Execution Server container:

       docker run -p 8080:8080 -d --name kie-server jboss/kie-server:6.2.0.Final

    The KIE Execution Server is located at:

       http://localhost:8080/kie-server # Linux users
       http://<boot2docker_ip>:8080/kie-server # Windows users


    Refer to Appendix A for more information about IP address and port bindings.

    Example: use the remote REST API to perform server requests :

     http://localhost:8080/kie-server/services/rest/server # Linux
     http://<boot2docker_ip>:8080/kie-server/services/rest/server # Win

    KIE Execution Server Showcase

    See it in Docker Hub

    This image provides the standalone rules execution component version 6.2.0.Final to handle rules via remote interfaces plus a basic security configuration (include a default user and role).
    More information for the KIE Execution Server can be found at the official documentation. 
    Tip: This image inherits from the KIE Execution Server one and adds custom configuration for WildFly security subsystem (security realms).

    The goal of this image is to provide a ready to run KIE Execution Server: just pull, run and use the remote services.

    1. Pull the image:

       docker pull jboss/kie-server-showcase:6.2.0.Final

    2. Run the image:

       docker run -p 8080:8080 -d --name kie-server-showcase jboss/kie-server-showcase:6.2.0.Final

    3. The server is located at:

       http://localhost:8080/kie-server # Linux users
       http://<boot2docker_ip>:8080/kie-server # Windows users


        The REST API service is located at:
      
     http://localhost:8080/kie-server/services/rest/server # Linux  
     http://<boot2docker_ip>:8080/kie-server/services/rest/server # Win  

    Refer to Appendix A for more information about IP address and port bindings.

    You can use kie-server/kie-server for default logging - Refer to Appendix B for default users and roles included
      

    jBPM Workbench


    This image provides the standalone version 6.2.0.Final of the jBPM Workbench: web-based authoring and management of your processes.  It does not include any custom configuration, it just provides a clean jBPM Workbench application running in JBoss WildFly 8.1.  The goal of this image is to provide the base software and let the users to extend it, and apply custom configurations and build custom images.

    Fetch the image into your Docker host:

       docker pull jboss/jbpm-workbench:6.2.0.Final

    Customize the image by creating your Dockerfiles:

       FROM jboss/jbpm-workbench:6.2.0.Final
       ...

    Please refer to Appendix C for extending this image.
    Run a jBPM Workbench container:

       docker run -p 8080:8080 -d --name jbpm-wb jboss/jbpm-workbench:6.2.0.Final

    Navigate to your jBPM Workbench at:

       http://localhost:8080/jbpm-console # Linux users
       http://<boot2docker_ip>:8080/jbpm-console # Windows users

    Refer to Appendix A for more information about IP address and port bindings.

    jBPM Workbench Showcase


    This image provides the standalone version 6.2.0.Final of the jBPM Workbench: web-based authoring and management of your processes. It includes the security and persistence configurations and some examples too.
    Tip: This image inherits from the jBPM Workbench one and adds custom configurations for WildFly security subsystem (security realms) and system properties for enabling the use of the examples repository. 
    The goal of this image is to provide a ready to run jBPM Workbench application: just pull, run and use the Workbench:

    1. Pull the image:

       docker pull jboss/jbpm-workbench-showcase:6.2.0.Final

    2. Run the image:

       docker run -p 8080:8080 -d --name jbpm-wb-showcase jboss/jbpm-workbench-showcase:6.2.0.Final

    3. Navigate into the workbench at:

       http://localhost:8080/jbpm-console # Linux users  
       http://<boot2docker_ip>:8080/jbpm-console # Windows users

    Refer to Appendix A for more information about IP address and port bindings.

    You can use admin/admin for default logging - Refer to Appendix B for default users and roles included

    Appendix

     

    Appendix A - IP address and ports bindings for Docker containers

     
    Port bindings
    By default, when using any of the Drools & jBPM Docker images, the port 8080 is exposed for the use of the HTTP connector. This port is not exposed to the Docker host by default, so in order to expose it and be able to navigate through the applications please read the following instructions.

    The recommended use for running containers is specifying in the docker client the -p argument as:

      docker run -p 8080:8080 -d ....

    Doing this way, the docker daemon binds the internal container's port 8080 to the Docker host machine's port 8080. So you can navigate into the applications at:

       http://<docker_host>:8080/jbpm-console
       http://<docker_host>:8080/kie-server
       http://<docker_host>:8080/drools-wb

    If your Docker host machine's port 8080 is not available, run the containers with the -P command line argument. Docker binds the internal 8080 port to an available free exposed port in the Docker host, so in order to access the application you have to discover the bind port number.

    To discover running container's ports type the following command:

       docker ps -a

    This command will output the processes and the port mappings for each running container:

    CONTAINERID  IMAGE             COMMAND  CREATED STATUS PORTS                     NAMES
    2a55fb....   jboss/drools-w..  ...      ...     ..     0.0.0.0:49159->8080/tcp.. drools-wb
    The PORTS column shows that the internal container's port 8080 is bound to port 49159 on the Docker host, so you can navigate into the applications at:

       http://<docker_host>:49159/jbpm-console
       http://<docker_host>:49159/kie-server
       http://<docker_host>:49159/drools-wb


    Docker hostname & IP address
    The Docker hostname or IP address have to be specified in order to navigate through the container's applications.

    If you are running Docker in your localhost and using Linux based OS, it defaults to localhost:

       http://localhost:8080/jbpm-console
       http://localhost:8080/kie-server
       http://localhost:8080/drools-wb

    If you are running Docker on another machine or in Windows environments, where Boot2Docker is required,  you have to specify the host name (if DNS available for it) or the IP address for it:

       http://192.168.1.156:8080/jbpm-console
       http://192.168.1.156:8080/kie-server
       http://192.168.1.156:8080/drools-wb

    Appendix B - Default applications users & roles

    The Showcase images Drools Workbench Showcase and jBPM Workbench Showcase include default users & roles:

    Drools & jBPM Workbench Showcase roles
    Role Description
    admin The administrator
    analyst The analyst
    developer The developer
    manager The manager
    user The end user
    kiemgmt KIE management user
    Accounting Accounting role
    PM Project manager role
    HR Human resources role
    sales Sales role
    IT IT role

    Drools & jBPM Workbench Showcase users
    Username Password Roles
    admin admin admin,analyst,kiemgmt
    krisv krisv admin,analyst
    john john analyst,Accounting,PM
    mary mary analyst,HR
    sales-rep sales-rep analyst,sales
    katy katy analyst,HR
    jack jack analyst,IT
    salaboy salaboy admin,analyst,IT,HR,Accounting

    For KIE Execution Server Showcase there is a single user and role:
    Username Password Roles
    kie-server kie-server kie-server

    Appendix C - Extending base images

    The Base images are intended to be inherited from, for adding your custom configurations or deployments.

    In order to extend the images, the Dockerfile must start with: 

        FROM jboss/drools-workbench:6.2.0.Final 
        FROM jboss/kie-server:6.2.0.Final
        FROM jboss/jbpm-workbench:6.2.0.Final

    At this point, custom configurations and deployments can be added. Some notes:
    • JBoss WildFly is located at the path given by $JBOSS_HOME environment variable
    • $JBOSS_HOME points to /opt/jboss/wildfly/
    • Applications are using the server in standalone mode:
      • Configurations located at $JBOSS_HOME/standalone/configuration/
      • Configuration files for the standalone-full profile are used
      • Deployments are located at $JBOSS_HOME/standalone/deployments/
    You can find more information at each official image page at Docker Hub:

    by Roger Martinez (noreply@blogger.com) at June 18, 2015 09:09 PM

    June 17, 2015

    Drools & JBPM: Drools & jBPM meeting space needed in Barcelona

    We are looking to try and organise a team meeting in Barcelona, towards the end of this year. We have limited to no budget for meeting space :( So I thought I'd see if anyone out there would like to volunteer this space - in return you'll have all the core Drools and jBPM developers on hand for a week :) We need a large room suitable for around 25-30 people sitting at tables, and then one or two break out rooms with around 10 people or so per room.

    Mark

    by Mark Proctor (noreply@blogger.com) at June 17, 2015 01:36 PM