ARCHITECTURE DESIGN FÜR DIE DATENWELT

DIE GRÖSSTEN HERAUSFORDERUNGEN BEIM UMGANG MIT DATEN SIND NICHT TECHNISCHER NATUR

Was hat sich in den vergangenen Jahren im Umgang mit Daten in der Smart Factory verändert?

Der Fokus verlagert sich zunehmend weg von einzelnen Pilotprojekten hin zu ganzheitlichen, durchgängigen Lösungen. Immer mehr Unternehmen gehen an das Thema Analytics planvoll heran, strategisch und konzeptionell – sowohl, was den Blick auf den gesamten Produktionsprozess betrifft als auch mit Blick auf das ganzheitliche Datenmodell einer digitalen Fabrik. Das betrifft auch die Integration in das Gesamtumfeld. Stichwort Architecture Design: Wie bringe ich die Analytics in bestehende Legacy- Systeme und als Integrationsszenario in die bestehende IT-Lösungswelt ein?

Wo bestehen vor diesem Hintergrund derzeit die größten Handlungsbedarfe und Herausforderungen?

Die größten Herausforderungen sind nicht primär technischer Natur, sondern sie liegen in der Vorgehensweise. Es reicht nicht, die Roadmaps einzelner Anbieter digitaler Lösungen anzuwenden – es braucht einerseits einen breiten, technologieübergreifenden und systematischen Ansatz, um Potenziale zu erkennen. Andererseits aber auch die Besonderheiten der eigenen Organisation, die von Standardmodellen und Vorgehensempfehlungen eben nicht abgebildet werden. Folgende Fragen müssen sich die Unternehmen stellen: Wie formuliere ich Anforderungen? Wie definiere ich meine Optionen im Bebauungsplan? Die Vorgehensweise ist oft so, dass man sich auf die Expertise namhafter Anbieter und deren Vorgehensmodelle verlässt. Der Ausgangspunkt sollte immer die eigene Roadmap sein und die individuelle Situation, das eigene Setup.

In den Produktionslandschaften koexistieren häufig alte und neue Maschinen, die unterschiedliche, teils inkompatible Datensätze produzieren. Wie muss man mit dieser Heterogenität umgehen?

Die Situation unterschiedlicher Datensätze kennen alle. Sehr viele Unternehmen, mit denen wir im Rahmen unserer Projekte oder im Umfeld des Industrie 4.0 Awards sprechen, haben eine große Bandbreite an Technologien. Die Unternehmen sehen hier typischerweise ihre speziellen Proleme. Diese sind aber meist dieselben. Die Herausforderung ist nicht in erster Linie, ob alte Maschinen Industrie- 4.0-fähig sind, auch wenn dieser Aspekt häufig im Fokus steht. Vielmehr besteht die Aufgabe darin, mit Retrofit-Ansätzen die relevanten Daten aus dem Prozess herauszuholen. Dafür sind einige überschaubare Investitionen und klar definierte Schritte im Projekt notwendig.

Welche Datentypen gibt es zu unterscheiden und wie müssen diese konkret generiert werden?

Was wir brauchen, sind einmal die strukturierten Metadaten aus dem Produktionsdatenmodell. Das betrifft konkret Produkte, Aufträge, Varianten, Attribute, Chargen sowie Fertigungsaufträge. Das ist die strukturierte Datenwelt, die wir aus den klassischen Business- Applikationen, etwa ERP, BDE und MES, kennen. Auf der nächsten Ebene befinden sich die unstrukturierten Daten. Das sind Maschinen-, Zustands- und Prozessdaten sowie Fertigungsprozessparameter. Dann folgen Daten, die wir generell unter dem Begriff Condition Monitoring zusammenfassen. Dazu zählen Messungen der Temperatur, der Luftfeuchtigkeit oder der Schwingungen. Diese nehmen wir zunächst losgelöst von dem strukturierten, systematischen Produktionsprozess auf. Alle diese Daten zusammen ergeben dann die Basis, man könnte sagen den Rohstoff, für das aufzubauende Datenmodell. Bei manchen Maschinen ist es schwieriger, die Daten zu generieren. Dort sind zum Teil weitere Schritte notwendig. So wird manchmal zusätzliche Sensorik benötigt, um die Daten zu messen und zu erfassen.

Stellen die teilweise Jahrzehnte alte Maschinen eine Hürde für die fabrikweite Digitalisierung dar?

Nein, ein älterer Maschinenpark ist definitiv keine Hürde für die erfolgreiche Umsetzung von Industrie 4.0. Die Praxis zeigt, dass der Aufbau eines integrierten Datenmodels, mit dem man Analytics und Machine Learning erfolgreich betreiben kann, in einigen Wochen möglich ist. Und das gilt auch dann, wenn in einem Werk sowohl neue Anlagen mit speicherprogrammierbarer Steuerung (SPS) vorhanden sind, als auch alte Maschinen. Inzwischen gibt es schon viele praxiserprobte und effektive Ansätze, um ältere Maschinen smart zu machen.

Inwiefern spielt der rechtliche und regulatorische Rahmen, etwa das Lieferkettengesetz, für das Datenmanagement in der Smart Factory eine Rolle?

Die Stichworte sind hier Tracking und Tracing und die Abbildung aller relevanten und nachweisfähigen Produkt- und Prozessdaten durch den digitalen Zwilling. Dabei spielen die rechtlich- regulatorischen Anforderungen, die sich in den Branchen jeweils unterschiedlich niederschlagen, eine wichtige Rolle, z.B. eine ISO-Norm in der Medizintechnik oder eine FDA-Norm in der Pharmabranche. Da sind Unternehmen gefordert, gewisse Regulatorien einzuhalten. Aber das ist eben nur ein Aspekt des Themas. Denn gleichzeitig sieht die Industrie, dass auch die Nachweisbarkeit und die Prozesstransparenz für die Kunden schnell an Bedeutung gewinnen. Und schließlich geht es auch um die eigene Performance: Bei frühzeitiger Fehler- und Risikoerkennung lassen sich in signifikantem Umfang Kosten einsparen, Prozesszeiten verkürzen und Engpässe vermeiden. Wenn bspw. eine Charge oder eine Serie bereits zur Hälfte produziert ist, wenn man den Fehler erkennt, hat man einen immensen Nachteil einem Wettbewerber gegenüber, der den gleichen Fehler sehr früh erkannt und abgestellt hat. Und natürlich ist hier auch die End-to-End-Perspektive, die Einbindung von Kunden und Lieferanten in der Lieferkette, erfolgskritisch. Genau darauf zielen die unternehmensübergreifenden Datenmodelle und digitalen Prozessketten ab. Zusammengefasst: Die Regulatorik ist ein wichtiger Treiber für Veränderungen. Aber sie ist bei Weitem nicht der einzige Grund, für Transparenz und Nachweisbarkeit in der Supply Chain zu sorgen.

Welchen Beitrag leistet ein effektiver Einsatz von Data Analytics zur Steigerung von Resilienz und Flexibilität?

Einen ganz wesentlichen, wenn man die Lieferkette digital und in Echtzeit abbilden kann. Mit dem Blockchain-Ansatz bspw. kommt hier ein ganz entscheidender Treiber. In Smart Contracts kann ich zwischen den einzelnen Unternehmen im Wertschöpfungsnetzwerk genau das umsetzen. Ein Batch wird als Blockchain- Objekt mit sämtlichen Produktionsdaten, Materialdaten, Produktionsprozessdaten, Qualitätsdaten und Chargenattributen abgebildet. Und das ist exakt die notwendige Basis. Denn resilient und flexibel kann ich nur sein, wenn ich bestimmte Trends früh erkennen, ihre Auswirkungen auf verschiedene Aspekte meiner Produktion dank sauberer Daten klar einschätzen und damit frühzeitig präzise Maßnahmen ergreifen kann.

Welche Fehler und Missverständnisse im Umgang mit Daten und Data Analytics beobachten Sie besonders häufig?

Ein großes Missverständnis habe ich bereits erwähnt. Es braucht keine hochmodernen Fertigungsanlagen und eine auf höchstem Industrie- 4.0-Niveau realisierte Vernetzung, um Daten zu beschaffen und produktiv einzusetzen. Ein weiteres Missverständnis betrifft das schrittweise Vorgehen, das notwendig ist, um Daten zu modellieren und mit ihnen sinnvoll zu arbeiten. Das wird oft unterschätzt. Es ist nicht so, als könnte man mit einer KILösung alle strukturierten und unstrukturierten Daten per Knopfdruck in die Datenwolke schieben und dort bearbeiten. Datenmodellierung erfordert Thesen und Korrelationsannahmen und eine zum Produktionsprozess passende Logik. Nur dann kann ein Mehrwert entstehen. Und das ist ein Lernprozess, der mehrere Iterationen erfordert.