VON PREDICTIVE ZU PRESCRIPTIVE – DIE ANALYTICS-EVOLUTION

Interview mit Thomas Richter, Principal, ROI-EFESO
 

DIALOG: Herr Richter, wie kann man sich die Analytics-Evolution in der Produktion vorstellen?

TR: Predictive Analytics setzt bei Fehlermustern an, etwa bei der Überhitzung einer Maschine, und zeigt die Bedingungen und Parameter auf, unter denen diese Muster auftreten. Daraus kann die Voraussicht auf potenzielle Prozessfehler abgeleitet werden. So entsteht ein KI-gestütztes, selbstlernendes System, das man als intelligentes Frühwarnsystem bezeichnen kann. Man muss also nicht mehr die Vielzahl an Daten interpretieren, wie das beim klassischen Condition Monitoring der Fall ist. Durch Machine Learning entsteht die Möglichkeit, die Interpretation der Zustände von Maschinen und Werkzeugen und sogar ganzer Produktionssysteme zu automatisieren, und es können auch ganz neue Zusammenhänge beobachtet werden, die bislang nicht erkannt wurden.

Die nächste evolutionäre Stufe, die zunehmend in den Fokus rückt, ist Prescriptive Analytics – der Übergang vom Machine Learning zum Machine Reasoning. Wenn man weiß, welche Fehler auftreten werden, stehen immer mehrere Bewältigungsstrategien zur Auswahl, Problemlösungsszenarien, die das wesentliche Know-how des Operators sind. Bei Predictive Analytics entwickelt nun die Software KIgestützt autonome Problemlösungsszenarien, weshalb man hier auch von selbstoptimierenden Prozessen sprechen kann. Dieser Schritt hilft, die Geschwindigkeit deutlich zu erhöhen. Bei einem potenziell auftretenden Problem werden die möglichen Lösungsszenarien durchgespielt, die beste Lösungsstrategie gewählt und automatisierte Prozesse angestoßen, z.B. Werkzeuge oder Ersatzteile bestellen oder präventiv Maintenance Teams organisieren.

DIALOG: In welchen Bereichen kommen Prescriptive-Analytics-Anwendungen bereits zum Einsatz?

TR: Vor allem im Kontext von Production Planning & Scheduling gibt es bereits konkrete Anwendungen, das ist ein ideales Einsatzfeld für Machine-Reasoning-Verfahren. Der Bedarf ist besonders groß in der Automobilindustrie, aber auch bei Consumer Packaged Goods, wo teilweise sehr komplexe Lieferketten bestehen. Die technische Herausforderung liegt hier vor allem in der intelligenten Vernetzung und Integration der verteilten Planungssysteme wie APS, ERP, Scada oder MES.

DIALOG: Welche Möglichkeiten bestehen, um einen selbstoptimierenden Prozess zu kontrollieren, wenn der Operator die Entscheidungen nicht mehr trifft und das Entscheidungskalkül des Systems nicht nachvollziehen kann?

TR: Beides ist in dieser Form nicht der Fall. Zunächst einmal können solche Systeme nicht ohne das Know-how des Operators funktionieren. Das System braucht anfangs eine intelligente Library, die das relevante Prozesswissen enthält; so beginnt es zu lernen. Die später vorgeschlagenen Lösungsstrategien basieren auf diesem Wissen, sie sind dem Operator nicht neu. Darüber hinaus kommt beim Machine Reasoning und auch generell beim Machine Learning die „Next Best Option“-Strategie zum Einsatz. Das bedeutet, dass diejenige Lösungsstrategie, die die größte Erfolgswahrscheinlichkeit aufweist, auch priorisiert vorgeschlagen wird. Der für einen bestimmten Prozess verantwortliche Operator bestimmt am Ende selbst, ob er die nächstbeste Option nimmt oder sich aus Erfahrung und Wissen heraus für eine andere Option entscheidet. Er wird im Prinzip nur in der Geschwindigkeit der Entscheidungsfindung unterstützt – was bei zunehmender Komplexität und Vernetzung der Prozesse auch notwendig ist.

Problemlösungsansätze beim Machine Reasoning sind auf mehrere verbundene Events ausgerichtet und können diese Komplexität effizient handhaben. Das System hilft, die Zeit zwischen dem Auftreten eines potenziellen Prozessfehlers und der Initiierung der passenden Lösungsstrategie zu verkürzen. Das wird noch kritischer, wenn eine ganze Supply Chain im Blick behalten werden muss. Da ist die Wahl der richtigen Bewältigungsstrategie noch komplexer und jede Verzögerung führt zu Verlusten. Systemisch unterstützt, bin ich in der Lage, sofort die richtigen Maßnahmen zu initiieren, den automatisierten Prozess zu starten. Der Operator bleibt verantwortlich für die Gesamtprozesseffizienz. Das ist die Kollaboration zwischen Mensch und Maschine.

DIALOG: Die Optimierung einer Supply Chain dürfte dabei auch auf andere Probleme stoßen als die Komplexität. Was sind die wichtigsten Herausforderungen beim Einsatz intelligenter Systeme und prädiktiver Analytik in der Wertschöpfungskette?

TR: Gerade dort, wo extrem prozesslastige und kapitalintensive Technologien im Einsatz sind, ist die Nutzungseffizienz von zentraler Bedeutung. Hier haben viele Unternehmen ihre Supply Chain gemeinsam mit den Zulieferern im Blick und es besteht ein gemeinsames Verständnis darüber, dass es wichtig ist, Daten zu teilen. Die Herausforderung liegt eher darin, dass viele der eingesetzten Technologien nicht netzwerkfähig sind. Hier sind häufig noch Enterprise- Systeme im Einsatz, die nicht Layerbasiert sind. Solche Systeme braucht man jedoch, um entsprechende Schichten für die Prozess- und Datenintegration einzuführen. Dabei sind auch Cloud-basierte Systeme und eine hybride Cloud-Architektur erforderlich. Es gibt bestimmte kritische Prozesse, die eine Private Cloud erfordern; andere Prozesse, etwa bei der Anbindung der Supplier, brauchen eine Public- Cloud-Lösung. Teilweise sind bestimmte „tiefe“ Kernprozesse gar nicht Cloud-fähig.

Zudem müssten im Sinne der Gesamtprozesseffizienz Entscheidungen getroffen werden, die auch Produktionsstandorte betreffen, für die man keine Entscheidungshoheit hat. Wir sind zwar heute bereits gut vernetzt auf der Ebene der Daten, aber nicht auf der Ebene der Prozesse. Jedenfalls nicht so, dass unternehmensübergreifend autonome Eingriffe vorgenommen werden können. In der Konsequenz müsste nämlich das präskriptive KI-System eines OEM in die Systeme seiner Zulieferer eingreifen. Dass das in absehbarer Zeit passiert – dafür fehlt mir die Vorstellungskraft. Es gibt derzeit keine fortgeschrittenen Governance-Modelle für die automatisierte Steuerung einer End-2-End Supply Chain.

Ein weiterer Aspekt sind fehlende Betriebsmodelle. Zwar kann ich in meinem eigenen System sehr fortgeschrittene Systeme für die Entscheidungsunterstützung und Prozessautomatisierung nutzen – dafür gibt es heute gute Lösungen, die schnell und ohne besonderen Programmieraufwand implementiert werden können –, das Problem liegt aber in der Skalierung auf die gesamte Supply Chain, die man für eine vollständige Automatisierung braucht. Die Frage ist also nicht mehr, wie ich Technologien in meine Smart Factory reinbringe, sondern wie ich sie industrialisiert und skalierbar reinbringe. Die Operating Models und Organisationskonzepte dafür fehlen uns heute – Fragen wie Governance, Architektur, Technology Stack, definierte Prozessorganisation und Abbildung von Services.

DIALOG: Wie sollte man mit diesen Hürden, gerade mit den Themen Governance und Operating Models, umgehen?

TR: Hier gibt es im Wesentlichen zwei Ansätze. Der eine ist, dort anzufangen, wo die Digitalisierung den größten positiven Einfluss erzeugen kann und die Einstiegshürden relativ niedrig sind. So hängt etwa in der Prozessindustrie das Geschäftsmodell wesentlich von der effektiven Nutzung der installierten Assets ab. Das Geld wird – zugespitzt gesprochen – mit der OEE verdient. Es ist deshalb sinnvoll, die Digitalisierungsinitiativen zunächst auf die Stärkung der Gesamteffektivität der Fabriken auszurichten. Dort lassen sich diese Themen – bis hin zu Prescriptive Machine Reasoning – entwickeln, die Workflows digitalisieren und tragfähige Operating Models aufbauen, die aus fünf Komponenten bestehen: Organisation, Governance und Data Security, Qualitätsmanagement, Technologie und Prozesse. Das schafft die Basis für weitere Themen wie Service, Betrieb und Kompetenzaufbau.

Ein anderes Szenario hat man dann, wenn die eigenen Fabriken stabil laufen, aber die Supply Chain besonders anfällig ist oder Störungen einen großen negativen Impact haben, wenn etwa ein Werk, das ein kritisches Vorprodukt liefert, beeinträchtigt wird. Hier sollte man sich dann auf Ansätze fokussieren, für die es Use Cases gibt. So kann hier das Thema Machine Reasoning aus den genannten Gründen noch nicht greifen, aber Predictive Analytics, Automatisierung und Risikomanagement schon. Wenn man dann bspw. irgendwo in der Lieferkette ein Risiko erkennt, das in einigen Wochen zu einem Lieferengpass führen wird, muss man schnell auf eine alternative Lieferquelle umstellen. An einem solchen Prozess hängt eine ganze Menge von Aktivitäten – Werksprüfung, Bemusterung, Akkreditierung von Transportwegen, Zölle etc. Das kann man durch intelligente Prozessautomation so unterstützen, dass man nichts vergisst und sich die Qualität und Geschwindigkeit der Prozesse deutlich erhöht.

In beiden Szenarien hängt der Erfolg stark von Operating Models und der Industrialisierung der Services ab. Deswegen ist es oft sinnvoll, diese Dienste End-2-End in Shared-Service- Organisationen zu bündeln, wo Prozesse und Technologien geführt und weiterentwickelt und als Services zur Verfügung gestellt werden. Das entlastet die Funktionsbereiche, sorgt für Sicherheit, Effizienz, Qualität und Automatisierung der Prozesse – und die Vorteile der Digitalisierung können richtig greifen.