THEMEN & NEWS
Beiträge und Interviews zu aktuellen Fach-, Technologie- und Branchenherausforderungen, Informationen zu unseren Beratungsangeboten, Seminaren und Events sowie Unternehmensthemen:
Hier erfahren Sie, was ROI-EFESO bewegt.
„Die Zukunft digitaler Zwillinge liegt im werks- und unternehmensübergreifenden Einsatz."
Interview mit Jonas van Thiel, Partner, ROI-EFESO
I: Herr van Thiel, digitale Zwillinge gibt es für Produkte und mittlerweile auch für komplexe Systeme wie Supply Chains und Fabriken. Wo stehen wir in der Entwicklung und was wird die nächste Stufe sein?
JvT: Im Industriebereich sind heute drei wesentliche Stufen des Digital Twin im Einsatz. Was bereits in der Praxis häufig genutzt wird, sind digitale Prozesse, also Process Twins. Dabei wird ein physischer Prozess, z.B. ein Produktions- oder Montageprozess, datentechnisch abgebildet. So entsteht eine Prozesssimulation mit Wartezeiten, Stillstandzeiten, Zyklen etc. Das hilft, die Performance der Prozesse zu messen und zu optimieren. Der Prozess wird in der Regel als Erstes digitalisiert.
Das nächste Level ist der Digital Product Twin, sozusagen die Produktsimulation. Diese kommt für Unternehmen infrage, die bereits über eine Simulationsumgebung verfügen, in der sie ihre Produkte entwickeln. So eine Umgebung für einzelne Prozesse oder einzelne Produktionssimulationen anzuschaffen, z.B. für eine Kollisionsprüfung oder einen Ergonomietest, macht kaum Sinn, insbesondere nicht für kleine Unternehmen. Doch wenn man bereits eine Entwicklungsumgebung nutzt, wie z.B. ein Siemens Teamcenter nutzt, sind Product Twins und Produktionssimulationen ein logischer Schritt.
Gehen wir noch einen Schritt weiter, sind wir bei großen Unternehmen, wie z.B. Automobilherstellern, die Echtzeit-Simulationsplattformen einsetzen. Diese Unternehmen unterhalten teilweise strategische Kooperationen mit Herstellern wie NVIDIA. Mit der Technologie aus dem Gaming-Bereich werden Produkte und Prozesse in Echtzeit simuliert, gerendert und stehen sofort für Simulationen bereit. Automobilhersteller simulieren damit ganze Fabriken, um z.B. den Produktionsplanungsprozess zu verschlanken. Die Erfolge sprechen für sich, auf Fabrikplanungsebene können mitunter bis zu 30% eingespart werden. Darüber hinaus kann man in der virtuellen Welt alle Produkte und Abläufe testen und sogar Mitarbeiter trainieren. Auch Roboter werden mittlerweile in der virtuellen Welt angelernt.
Für einen typischen Mittelständler ist das noch Zukunftsmusik. Wenn man eher einfache Prozesse hat, braucht man keine Echtzeit-Simulationsplattform. Aber die Möglichkeiten, Digital Twins in kleinem und großem Maßstab zu nutzen, sind da.
I: Was sind wesentlichen Umsetzungshürden bzw. Erfolgsparameter bei der Einführung von Digital Twins und mit welchen Veränderungen muss man rechnen?
JvT: Zunächst gibt es die technischen Hürden. Im Wesentlichen geht es darum, ob sich die Investition in die neuen Technologien lohnt. Der Planungsaufwand und die Größe des Planungsteams müssen im Verhältnis zu den Kosten des neuen Systems stehen. Wenn man mehrere Produktionslinien bzw. repräsentative Linien hat und einen Mehrfachnutzen erzielen kann, lohnt sich das. Ein Prozesszwilling lohnt sich fast immer, denn es ist der einzige Weg, um Performance kontinuierlich zu messen. Und wir wissen ja aus der Welt des Lean Management: Nur was ich messen kann, kann ich auch verbessern.
Zudem sehen wir Hürden auf der organisatorischen Seite. Es bringt nichts, wenn man einen digitalen Zwilling hat, ihn aber nicht nutzt. Das sehen wir in der Praxis oft. Es ist entscheidend, dass Mitarbeiter die neuen Technologien aktiv nutzen und mithelfen zu optimieren. Dafür brauchen sie eine gewisse Autonomie. Wenn z.B. das Management feststellt, dass eine Produktionslinie viel besser läuft als die anderen, dann ist noch nichts verbessert. Wenn aber die Mitarbeiter selbst sehen, dass die anderen besser sind, und sich fragen, warum man z.B. in Takt sieben immer Zeit verliert, dann können sie das Problem lösen. Um dieses Potenzial zu entfalten, braucht man einen organisatorischen Rahmen, der den Mitarbeitern die entsprechende Autonomität bietet.
I: Gibt es Schnittmengen mit Technologien wie Augmented Reality?
JvT: Absolut. Wenn man eine Linie digital geplant und simuliert hat, kann man sich mit AR- oder auch VR-Ausrüstung dort hineinstellen. Dann kann ich Bauteile in die Hand nehmen und Bewegungsabläufe trainieren. Diese Lösungen werden schon sehr erfolgreich eingesetzt. Das ist ein Riesenvorteil, denn überall herrscht massiver Mitarbeitermangel. Einen qualifizierten Mitarbeiter zu finden dauert schon Monate. Um ihn dann im Werk zu trainieren, muss ein guter Mitarbeiter abgestellt werden, und damit sinkt die Leistung sogar. In der neuen Welt kann ich jemanden virtuell in seiner späteren Arbeitsumgebung trainieren. Lernzyklen werden dramatisch verkürzt, die Effizienz steigt. Abgesehen davon macht es Mitarbeitern Spaß, wenn sie solche Möglichkeiten erhalten. Heute ist es wichtig, innovativ zu sein und den Mitarbeitern zu zeigen, dass man auf der Höhe der Zeit ist.
I: Spielt Gamification in diesem Kontext eine Rolle?
JvT: Auch wenn bestimmte Ressourcen aus dem Gaming, wie z.B. Chips aus dem Grafikbereich, für diese Anwendungen genutzt werden, hat das mit Gamification nichts zu tun. Die Gemeinsamkeit zwischen diesen Simulationen und der Spielewelt sind virtuelle Umgebungen, die man in Echtzeit aufbaut und nutzt.
I: Wie können kleinere Unternehmen mit etwa 1 Mrd. EUR Umsatz diese Möglichkeiten außerdem nutzen?
JvT: Das kommt immer auf den Anwendungsfall an. Sehr spannend für kleinere mittelständische Unternehmen, besonders im Hinblick auf das Thema Nachhaltigkeit, ist der Fabrik-Zwilling. Damit hat man die Fabrik als Ganzes im Blick. Unternehmen berichten zunehmend über Aktivitäten und Risiken in den Bereichen Environment, Social und Governance (ESG). Wenn man die komplette Fabrik und damit Stromverbräuche, CO2-Emissionen, Wasserbrauch, Abfallprodukte etc. simuliert, ist man hinsichtlich Ressourcenverbrauch und Emissionen immer aussagefähig, und zwar in Echtzeit. Und weil man laufend Messungen durchführt, ist man auch beim Thema Governance gut aufgestellt. Darüber hinaus bieten sich neue Optimierungsmöglichkeiten. Im Bereich Druckluft haben bereits viele optimiert, nicht aber beim Stromverbrauch und vor allem nicht hinsichtlich Rückschlüssen auf den Prozess.
Bei einem Flugzeughersteller z.B. gab es eine große Rückrufaktion wegen eines fehlerhaften Pulverbeschichtungsprozesses. Dieser Prozess ist sehr energieintensiv und die Stromstärke bietet damit einen Anhaltspunkt, ob der Prozess richtig abläuft. Mit einem ganzheitlichen Fabrikmonitoring sehe ich, dass der Stromverbrauch abweicht und dass etwas nicht stimmt, ähnlich wie bei Predictive Maintenance und Predictive Quality.
In den vergangenen Jahren lag der Fokus auf Prozessen, Maschinen, Anlagen und Zykluszeiten. Mittlerweile schaut man auf Bereiche und größere Zusammenhänge, z.B. wie sich Temperaturen und Luftfeuchtigkeit verändern und ob es Zusammenhänge mit Output und Qualität gibt. Ein wichtiger Treiber ist der Trend zur Nachhaltigkeit. Diese Betrachtungsweise hilft nicht nur, Prozessen zu optimieren, sondern auch, neue Auflagen und Richtlinien umzusetzen.
I: Mit dem digitalen Fabrik-Zwilling sehe ich also den Kontext, die Zusammenhänge und die indirekten Folgen der Prozessabläufe.
JvT: Ja. Im Gesamtkontext sind alle Anlagen und Prozesse eingebunden. Man sieht Output und Qualität, ob Maschinen stehen oder ausfallen sowie Temperaturen, Stromverbräuche und weitere Einflussfaktoren für die ganze Fabrik. So lassen sich Probleme aufdecken und ganzheitlich Rückschlüsse auf Prozesse und Produktqualität ziehen. Wenn man zusätzlich Künstliche Intelligenz integriert, hat man große Chancen, Prozesse deutlich besser zu verstehen und zu entscheiden, wann man eingreifen muss und wann nicht. Das sind Deep-Learning-Algorithmen auf Fabrikebene. Bislang hat man den Strom im einzelnen Antrieb in der Maschine gemessen, man hat aber nicht geschaut, ob der Energieverbrauch in der Halle insgesamt stimmt. Jetzt kommen wir auch von außen und gehen von dort analytisch ins Detail.
I: Beim Einsatz von Deep-Learning-Algorithmen und KI sehen wir Standardisierungsprozesse, eine steigende Modularität und eine dramatische Preisdegression. Gibt es eine vergleichbare Entwicklung auch bei den Digital Twins?
JvT: Digital Twins kann man sich wie eine IT-Architektur vorstellen und jede IT-Architektur ist individuell. Natürlich gibt es Standards, z.B. wie man einzelne Anlagen anbindet oder wie man von der Fabrikebene auf die Plattform- oder Cloud-Ebene kommt. Aber für das Zusammenspiel im individuellen Kontext, welche Daten man braucht und wie es umgesetzt wird, dafür gibt es keinen Standard. Darum bringen in diesem Zusammenhang auch sogenannte Best Practices nicht viel. Es geht um den ganzheitlichen Ansatz, bezogen auf den konkreten Fall, um Fragen wie: Welche Insights will ich haben? Was verspreche ich mir als Resultat? Welche Daten und Kalkulationen nutze ich? Das zu entwickeln und umzusetzen ist nicht trivial.
I: Welche neuen, möglicherweise auch überraschenden Entwicklungen beobachten Sie in diesem Bereich?
JvT: Sehr spannende Digital Twins gibt es auch außerhalb der Industrie, z.B. im Bereich der Agrarwirtschaft. Definitiv im Kommen sind die Themen Metaverse und digitale Assets. Viele OEMs beschäftigen sich damit; einige beginnen, ihre Brands und Produkte z.B. als Non-Fungible Tokens (NFTs) im Metaverse zu vermarkten. Das hat nichts mit den Digital Twins zu tun, der Bezug zur Industrie ist noch nicht da. Doch auch wenn es wie Spielerei aussieht, darf man die Bedeutung des Metaverse nicht unterschätzen.
I: Existieren Digital Twins nur innerhalb der Werkstore oder gibt es auch eine unternehmensübergreifende Perspektive?
JvT: Die Zukunft ist der werks- und unternehmensübergreifende Einsatz. Wenn man Nachhaltigkeit, Traceability und Circular Economy zukunftssicher umsetzen möchte und transparente Produktdaten braucht, muss man die Entstehungsdaten kennen. Beim Einsatz des Produktes entstehen Nutzungsdaten, dann kommt es zurück zum Re-Manufacturing, Recycling oder Refurbishing. Wenn man die Daten an das nächste Glied der Kette weitergibt, kennt man den Zustand das Produktes, man kann es klassifizieren und entsprechende Prozesse einleiten. In der alten Welt müsste man es aufwendig auseinanderbauen und analysieren.
Das ist nur ein einfaches Beispiel. Wenn wir weiter an künftige Kreislaufwirtschaft, an Traceability und an den sukzessiven Produktaufbau denken, ist der Aufwand in der alten Welt nochmal exponentiell höher. Zusammen mit Zulieferern und Kunden müssen wir kooperativ arbeiten und dazu müssen wir die erhobenen Daten teilen. Es geht nicht um kritische Informationen, die z.B. mit Intellectual Property (IP) verbunden sind, sondern um die Daten, die für die nächste Wertschöpfungsstufe oder für die Nutzung relevant sind. Und dazu braucht man den digitalen Zwilling.
I: Denkt die Industrie schon in diese Richtung? Es geht ja auch darum, Schnittstellen und Governance-Mechanismen zu definieren.
JvT: Das ist alles noch in den Kinderschuhen. In der Industrie spricht man vom Trend zur Digital Sustainability. Hier geht es um die Produktnutzungsdaten, um alles, was für zirkuläre Prozesse und Emissionsrichtlinien relevant ist. Wir wissen, dass wir das Thema Nachhaltigkeit nur gemeinsam lösen können. Es gibt spannende Beispiele, z.B. arbeiten Automobil- und Kunststoffherstellereng mit Blick auf Plastik zusammen, deren Herstellung und Verarbeitung typischerweise sehr energieintensiv sind. Da wird eine dezentrale Blockchain genutzt, um von der Entstehung des Granulats bis hin zum Kunden nachzuvollziehen, was wo verarbeitet und wie viel Energie verbraucht wurde. Das sind schöne Beispiele, wie man industrie- und branchenübergreifend zusammenarbeiten und Daten sicher teilen kann. Bislang sind das einzelne Cases, aber wir sehen, dass es funktioniert.
I: Glauben Sie, dass auch Initiativen wie Gaia-X oder Catena-X in diesem Zusammenhang eine Rolle spielen werden?
JvT: Das sind ebenfalls Ökosysteme für den Datenaustausch, die befüttert werden müssen, nur auf einer anderen technologischen Basis. Grundsätzlich gibt es den ERP-basierten Ansatz und den Open-Source-Ansatz. Das Problem beim ERP-basierten Ansatz ist, dass im Prinzip alle, die Daten austauschen wollen, dasselbe ERP-System oder die entsprechende Schnittstelle brauchen. Das ist meines Erachtens schwierig. Dieser Ansatz funktioniert zwar in der industrialisierten Welt. Aber wenn ich Lieferanten aus weniger industrialisierten Regionen anbinden möchte, z.B. aus Afrika oder Südostasien, dann gibt es dort häufig keine vergleichbaren Systeme, einfach weil man sie nicht braucht. Dann muss man einzeln nachvollziehen, was wo passiert ist. Wenn in der gesamten Kette, vom Rohstoff bis zum Endprodukt, nur ein Drittel der Unternehmen über das System verfügt, funktioniert es nicht. Darum finde ich Open-Source-Initiativen spannender.