Insight 4.0

Das IoT-Zeitalter braucht ein neues Transparenzkonzept

Alle Regeln, Best Practices und Verfahren leiden unter einem prinzipiellen Paradox: Denn sie sind nichts anderes als Antworten auf Fragen der Vergangenheit, die wir kodifizieren, um die Zukunft zu gestalten. Dieses Problem ist solange theoretischer Natur, solange die Zukunft sich nicht wesentlich von der Vergangenheit unterscheidet. Sind die Regeln offen genug formuliert, erlauben sie eine moderate, evolutionäre Anpassung an sich ändernde Gegebenheiten. Schwierig wird es dann, wenn die Zukunft sich mit den Regeln der Vergangenheit nicht managen lässt. Genau das erleben wir heute: Die Hyperdynamik der politischen, ökonomischen und regulatorischen Rahmenbedingungen, ein sich wandelndes Verständnis von Effizienz, Profitabilität und Branchengrenzen im Gefolge der Digitalisierung, sich verkürzende ‚Durchlaufzeiten’ von Produkten, Services und Geschäftsmodellen – eine Aufzählung, die man noch lange fortsetzen könnte, und die wir alle zur Genüge kennen. Anders formuliert: Die Disruption ist auf unseren strategischen Agenden, in unseren Innovations-Teams und teilweise auch in unseren Fabriken angekommen – nur nicht in unseren Managementsystemen.

Managementsysteme: Diesseits der Disruption

Was zunächst wie eine etwas steile These anmutet, wird beim Blick auf das heute dominierende Verständnis von Transparenz sehr deutlich. Die Gewährleistung einer umfassenden und objektiven Sicht auf die zentralen Leistungsindikatoren in Operations, Finance, Marketing oder HR ist seit Jahrzehnten eine zentrale Aufgabe des Managements respektive der Managementsysteme.

Doch wie sehen diese Daten aus, auf deren Basis schwerwiegende Entscheidungen getroffen werden? Vor allem sind es strukturierte Daten: Wir messen mit ihnen die Umsätze nach Kundengruppen, Output pro Stunde oder Limodosen pro Kiosk. Damit sind es meist auch ‚harte’ Daten, die in eindeutigen Maßeinheiten, am besten gleich in konvertierbaren Währungen, ausgedrückt werden. Fast immer sind diese Daten perioden- und zeitpunktbezogen und damit meistens auch vergangenheitsorientiert. Und schließlich helfen uns diese Daten dabei, uns intensiv mit uns selbst zu beschäftigen – mit uns als Unternehmen, Fachbereich, oder Abteilung. Gemeinsame, abteilungs- und vielleicht sogar unternehmensübergreifende KPIs werden zwar fast überall gefordert, aber fast nirgendwo eingesetzt.

 

„Es geht darum, in prinzipiell binäre Systeme die Fähigkeit zum Umgang mit Unschärfen und zur Erkennung von Mustern aus unstrukturierten Daten einzubauen.“

 

Transparenz 4.0

Die Transparenz, die wir durch solche Datenmodelle gewinnen, könnte man polemisch als Transparenz 1.0 bezeichnen. Das Bild, das wir mit ihr gewinnen, ist nicht falsch. Aber es ist, wie in Platons Höhlengleichnis, dramatisch unterdimensioniert: Es hat kein Potenzial, um die Realität abzubilden, in der Unternehmen heute, erst recht aber in Zukunft, agieren müssen.

Deshalb brauchen wir ein Transparenzverständnis, das alternative Datenmodelle integrieren und verarbeiten kann – Transparenz 4.0. Denn zu wissen, wie es bislang war, ist wichtig – aber nicht genug. Insbesondere, wenn die Umwelt sich schnell und tiefgreifend verändert. Es werden deshalb Tools, Methoden und Indikatoren benötigt, die zu verstehen helfen, wie gut die eigene Organisation auf kommende Herausforderungen vorbereitet ist.

Das bedeutet auch, in prinzipiell binäre Systeme die Fähigkeit zum Umgang mit Unschärfen und zur Erkennung von Mustern und Korrelationen von unstrukturierten Daten einzubauen. Die dafür notwendigen Indikatoren erlauben natürlich keine eindeutigen Aussagen, sondern zeigen Trends und Szenarien an – Neben Ja und Nein tritt ein Vielleicht. Die Transparenz verliert dadurch an Einfachheit und Präzision – und gewinnt an Realitätsbezug und notwendiger Komplexität.

 

Technologien für Transparenz

Die Basis dafür bilden Systeme, die uns bislang gar nicht oder nur sehr eingeschränkt zur Verfügung standen. Das betrifft einerseits Hardware-Elemente, deren Leistungsfähigkeit sich umgekehrt proportional zu ihrem Preisverfall entwickelt hat. Dazu zählen in erster Linie Sensoren, der Grundstoff des Internets der Dinge. Sie ermöglichen den Zugriff auf Primärdaten, die bislang unerreichbar waren und eröffnen damit neue Dimensionen der Transparenz.

Ein weiteres Beispiel sind In-Memory-Systeme, die Daten direkt im Hauptspeicher des jeweiligen Systems ablegen und damit selbst bei sehr großen Datenmengen eine hohe Performance der Verarbeitung erlauben. Einen großen Fortschritt versprechen auch Fog-Computing-Ansätze, bei denen Mikro-Prozessoren an der Netzwerk-Peripherie positioniert und Analyse- und Reaktionskompetenzen an lokale Endgeräte übertragen werden. Das entlastet die Datennetze und Cloud-Server, während Performance und Sicherheit sich erheblich verbessern.

Auch softwareseitig stehen neue Technologien zur Verfügung, wie z.B. Datenbanken, die keine Strukturierung der Daten mehr erfordern und daher die Sammlung und Aggregation von Daten extrem vereinfachen und so die Basis dafür schaffen, dass die Big Data-Ressourcen wertschöpfend genutzt werden können.

Was die inzwischen verfügbaren Technologien für ein neues Verständnis der Transparenz bedeuten können, zeigt zum Beispiel das ‚Digital Twin’-Konzept von General Electrics, ein Ansatz, der nebenbei auch demonstriert, wie die Geschäftsmodelle der B2B- und B2C-Märkte konvergieren. GE lässt für jedes seiner Flugzeugtriebwerke ein genaues digitales Abbild, einen Avatar entstehen, der dank von Sensoren übermittelten Umfeld- und Leistungsdaten seinen physischen Zwilling exakt nachbildet. Kombiniert mit den Daten aller anderen Triebwerke lassen sich damit hochgradig detaillierte individuelle Profile aufbauen und damit auch Analysen und Voraussagen von einer bislang kaum vorstellbaren Präzision treffen – Transparenz in einer neuen Größenordnung.

Wie viel Komplexität wollen wir ertragen?

In Summe können wir eine Einsicht in unsere Geschäftsprozesse gewinnen, die noch vor wenigen Jahren undenkbar schien. Wir können Fertigungsnetzwerke, Logistikketten, Points of Sales, oder jeden anderen Bereich des Unternehmens mit erstaunlicher Tiefe und Realitätsnähe analysieren. Die zentrale Frage lautet softwareseitig jedoch: Wie viel echte Transparenz müssen und wollen wir haben? Sind wir bereit, unsere gut geölten Management- und Monitoring-Systeme mit der Zumutung von Komplexität, Unschärfe und Realitätsnähe zu konfrontieren? Haben wir andererseits die Disziplin, um eben nicht die prinzipiell unendlichen Mess- und Analysepotenziale voll auszuschöpfen und uns auf das Wesentliche zu konzentrieren? Auf diese Fragen müssen wir schon bald überzeugende Antworten finden, wenn Transparenz 4.0 Realität werden soll.

„Sind wir bereit, unsere gut geölten Managementsysteme mit der Zumutung von Komplexität, Unschärfe und Realitätsnähe zu konfrontieren?“