Data Analytics

Effektive Datenanalysen sind der entscheidende Werttreiber im Kontext von Industrie 4.0 und Smart Factory. Erst wenn es gelingt, Big Data, also die enormen Datenmengen, die in IoT-Umgebungen entstehen, so zu aggregieren und zu analysieren, dass sie ergebniswirksam genutzt werden, bekommen sie einen tatsächlichen Wert. Moderne Data Analytics Methoden ermöglichen erstmals, völlig unstrukturierte Daten in Echtzeit zu analysieren und dabei die zu analysierende Datenstruktur jederzeit schnell zu verändern – wozu ERP-Systeme und relationale Datenbanken bislang nicht in der Lage waren. Dabei sind verschiedene Ansätze möglich:

  1. Wenn Daten intelligent analysiert und genutzt werden, ermöglichen sie nicht nur beschleunigte und präzisere Entscheidungsprozesse, sondern auch eine vorausschauende Planung und Wartung (Advanced Analytics, Predictive Planning und Predictive Maintenance). Sie helfen somit sowohl bei der Entwicklung und Steuerung der Strategie als auch bei der kontinuierlichen Optimierung operativer Prozesse – etwa durch die Reduktion von Betriebs- und Qualitätskosten. Datenanalysen bieten auch die Basis dafür, dass Kundenanforderungen und -entscheidungen besser und früher verstanden werden, was in einer höheren Reaktionsfähigkeit, besseren Datenqualität und Wettbewerbsvorteilen mündet.
  2. Durch die Kombination von Datenanalysen mit lernenden Systemen können Prozesse umfassend automatisiert werden. Besondere Potenziale bietet dabei der Aufbau von digitalen Zwillingen (Digital Twins), virtuellen Modellen, die Objekte und Prozesse vollständig in Echtzeit abbilden und vernetzen und dadurch hohe Transparenz und genaue Prognosen über Optimierungsmöglichkeiten und Risiken erlauben. Darüber hinaus kann dabei mittels Advanced-Analytics-Tools eine enorme Anzahl an potenziellen Korrelationen getestet und analysiert werden, was ein wesentlich tieferes und genaueres Verständnis der Kernprozesse ermöglicht.
  3. Durch Erweiterung mit Sensorik und Software können intelligente Produkte und Dienste (Smart Products & Services) aufgebaut und im Rahmen neuer Geschäftsmodelle zusätzliche Erlöse generiert werden. Auch das Retrofitting von Anlagen & Prozessen wird zunehmend wirtschaftlicher, je besser die Daten genutzt werden. Entscheidend ist dabei, dass umfassende Analysen verschiedener Prozesse, Komponenten und Fertigungssysteme so nah wie möglich an der Datenquelle erfolgt. Dadurch werden Steuerungs- und Interventionsprozesse beschleunigt  und gleichzeitig das globale IT- und Prozessnetzwerk durch dezentrale Analyse- und Überwachungskreise entlastet. Dabei kommen sowohl Embedded Analytics zum Einsatz, bei denen Aktionen automatisiert von den IoT-Systemen ausgeführt werden, als auch Big Data Analytics,  bei denen Eingriffe zugelassen werden und durch Veränderungen von Algorithmen unterschiedliche Sichtweisen analysiert werden können.

Verschenkte Potenziale bei Nutzung von Big Data und Data Analytics

Trotz dieser enormen Potenziale weisen viele Unternehmen nach wie vor einen geringen Reifegrad im Hinblick auf die Nutzung von Big Data und Data Analytics auf. Die häufigsten Gründe sind isolierte Datensilos, schlechte Datenqualität, das Fehlen  ausreichender Datenmengen, oder Strukturen, die kein ganzheitliches, funktions- und bereichsübergreifendes Datenmanagement ermöglichen. Auch fehlen in vielen Unternehmen Kompetenzen und Kompetenzträger, um Datenanalyse als eine zentrale Querschnittsdisziplin zu etablieren und in strategische und operative Prozesse einzubinden.  

ROI unterstützt seine Klienten bei Big Data und Data Analytics Projekten, von der Analyse über die Planung bis zur Umsetzung mit kompetenten und praxiserfahrenen Fertigungs- und Strategieexperten, Data Engineers und Data Scientists, um die wirtschaftlichen und prozessualen Potentiale von Daten zu heben. Dabei orientiert sich ROI an einem Vorgehensmodell, das modular an die individuellen Herausforderungen angepasst wird und anhand von sechs zentralen Kriterien (6 V‘s) konkretisiert wird:

Ablauf eines Big Data Projekts

Phase 1: Zielvektor

Der richtige Umgang mit Big Data leitet sich aus der Unternehmensstrategie, heutigen und möglichen Geschäftsmodellen sowie den gewünschten Use Cases ab:

  • Welche übergeordnete Zielstellung soll erreicht werden?

  • Welchen Beitrag kann Big Data zur Unternehmensstrategie leisten?

  • Welchen Beitrag kann Big Data für die Prozessoptimierung leisten?

  • Sind neue Geschäftsmodelle dadurch möglich?

  • Welche Use-Cases bringen einen sofortigen Benefit?

Typische Use Cases sind hierbei:

  • Unterstützung von Produktstrategien

  • Erhöhung der Auslastung einzelner Standorte/Anlagen

  • Reduktion Teiletourismus

  • Gesamtoptimum aus Produktions- und Supply-Chain-Kosten

  • Verbesserung der Lieferzeit und -geschwindigkeit

  • Verbesserung der Produktionsverfügbarkeit durch Predictive Maintenance

  • Verbesserung in der globalen Zusammenarbeit (Engineering, Produktion, Logistik)

  • Grundlagen für Smart Products ermitteln

  • Entscheidungsplattform für neue Geschäftsmodelle schaffen

Phase 2: Smart Data Architektur

In einer zweiten Phase wird die erforderliche Architektur für die Umsetzung der Big Data Use Cases erstellt. Je nach Use Case sind in unterschiedlichem Maß auch prozessuale und organisatorische Veränderungen vorzunehmen, die ebenso zu planen sind wie die technologische Architektur. Im Fokus stehen u.a. folgende architektonische Fragestellungen:

  • Wo besteht das Erfordernis zum Aufbau eines Digital Twin?

  • Welche Rolle spielen Cloud Services? Welche Operationen sind in Edge Devices durchzuführen?

  • Welches Maß an Analytikkompetenz ist inhouse erforderlich?

  • Müssen Anlagen digital nachgerüstet werden (Retrofit)?

  • Welche (Cyber)Security Anforderungen sind zu berücksichtigen?

  • Wie müssen die Prozesse entsprechend den Use Cases ausgestaltet werden?

  • Wie müssen IT- und Managementsysteme verändert werden?

  • Ist die Aufbauorganisation anzupassen?

Phase 3: Proof of Concept

Der erste Schritt vor dem Rollout ist der Proof of Concept eines oder mehrerer ausgewählter Use Cases. Eine erste Verifikation der entsprechenden Analysemodelle wird in der Regel mittels eines Digitalen Zwillings durchgeführt. Mit dieser Methode können entkoppelt vom produktiven Betrieb bereits verbindliche Ergebnisse auf Basis von Produktivdaten erzielt und erforderliche Anpassungen vorgenommen werden. Nach Sichtung der Ergebnisse wird eine Entscheidung über den produktiven Einsatz getroffen. Alle erforderlichen Datenschnittstellen und IT-Services sind im Digitalen Zwilling erprobt und erlauben eine problemlose Integration in den produktiven Betrieb.

Phase 4: Aufbau des Smart Data Cluster

Nach erfolgreichem Proof of Concept der Use Cases wird das Big Data Cluster aufgebaut und von der PoC-Architektur in eine Produktivarchitektur überführt. Diese Phase beinhaltet sowohl die Erstellung der ETL-/ELT-Prozesse, die Implementierung der Algorithmik sowie die Einrichtung der Visualisierungen und des Frontends für die Endnutzer.

Phase 5: Überführung in service-orientierte Cloud

Ist der Data Cluster produktiv, besteht der nächste Schritt darin, auf Grundlage eines Betriebsmodells den Betrieb an einen Service-Provider zu übergeben sowie smarte Devices anzubinden und in den Data Lake zu integrieren. Endergebnis ist eine Data-as-a-Service (DaaS), bzw. Analytics-as-a-Service (AaaS)-Lösung, die IT-Services konsequent bedarfsorientiert zur Verfügung stellt.

Phase 6: Weiterentwicklung in Collaborative Cloud

Die Weiterentwicklung und Entwicklung zusätzlicher Services erfolgt in einer Collaborative Cloud, die intern wie auch externen Entwicklern die Möglichkeit gibt, ihre Entwicklungsdienstleistungen app-basiert einzubringen und weitere Services zur Verfügung zu stellen.

Prozessverbesserung durch Einsatz von Big Data

  • Fraud Detection: Überwachung von Datenströmen innerhalb von Produktionsnetzwerken mit Detection von Anomalien in Echtzeit
  • Mustererkennung: Optimierung von Arbeitswegen anhand der Analyse von Bewegungsmustern
  • Condition Monitoring: Analyse von Aggregatszuständen der Produktionssysteme (mit Kopplung zu Mobile Devices)
  • Fertigungsmonitoring: Überwachung von Umgebungsvariablen in der Produktion in Echtzeit mit Detektion von Anomalien (z.B. für thermosensitive Produktionen)
  • OEE-Monitoring: Visualisierung der KPI (z.B. OEE) von Anlagen, Fertigungsbereichen und Werken auf Basis von erfassten Daten mit nutzerspezifischer Aggregation
  • Predictive Quality: Qualitätsoptimale Planung und Steuerung auf Basis von Einflussgrößen auf die Qualität (auch mit Rückkopplung in die Produkt- und Prozessentwicklung) und Erkennung von Mustern in Fertigungsabweichungen
  • Predictive Maintenance: Optimale Planung von Instandhaltungsaufträgen basierend auf Verschleißmodellen (mit optimaler Einsatzplanung des Instandhaltungspersonals)
  • Modell-prädikative Regelung: Optimale Planung und Steuerung von Fertigungsanlagen, -bereichen oder Werksverbünde in Echtzeit
  • Simulationsbasierte Optimierung: Optimierung von Planungs- und Steuerungsprozessen basierend auf Simulationsmodellen, z.B. optimale Auftragsreihenfolge der Fertigung, optimaler Kapazitätsausgleich im Werksverbund
  • Logistik Optimierung: Optimierung von Warenfluss auf Basis von Geodaten, Verkehrsfluss und Wetterdaten. (z.B. Just in Time / Just in Sequence Lieferungen) & Optimierung von Stell- und Bereitstellungsflächen (z.B. optimierte Koordinierung von Warenbewegungen durch Echtzeiterfassung)

 

Ablauf eines Data Analytics Projekts

Phase 1: Verständnis für Prozesse und Daten

Zu Beginn des Projekts wird das Verständnis für die zugrundeliegenden Prozesse und vorhandenen Datenstrukturen geschaffen, um sowohl das Mengengerüst an Datenquellen, -typen und -volumina zu verstehen, als auch deren Bedeutung in den Geschäftsprozessen.

Phase 2: Analyse vorhandener Daten und Prädiktionsmodell

Sofern die erforderlichen Daten bereits in ausreichender Qualität vorliegen und zugänglich sind, wird ein erster Proof-of-Concept vorgenommen – entweder mit offline-Daten oder in einer Testumgebung. Erste Hypothesen werden erstellt, und in einem zweiten Schritt durch Analyse vorhandener Daten überprüft. Falls keine Muster in den vorhandenen Daten zu erkennen sind, ist entweder der Scope zu erweitern oder ein Retrofit durchzuführen, um zusätzliche Daten aus den vorhandenen Prozessen zu gewinnen. Im Anschluss wird das Prädiktionsmodell mit relevanten Features erstellt und die Prognosegüte mittels historischer Daten validiert.

Phase 3: Roll-out des Modells

Bei ausreichender Prognosegüte wird der Proof-of-Concept in eine Produktivumgebung übertragen. Die erforderlichen ETL-/ELT-Prozesse zur automatisierten Bereitstellung und Aufbereitung der Daten werden aufgesetzt und in die vorhandene IT-Landschaft integriert. Im Anschluss werden Frontend und Reportprozesse für den Endnutzer angelegt bevor der Go-Live des Systems erfolgt und eine Validierung im realen Umfeld durchgeführt wird. Das Projekt endet mit Übergabe der Dokumentation und Schulung der Nutzer und Experten.

 

Künstliche Intelligenz (KI)

Mittels künstlicher Intelligenz (KI) lassen sich auf Basis von Big Data lassen sich Muster in großen Datenmengen wesentlich schneller und genauer ermitteln, als dies der Mensch könnte. Derzeit unterscheidet man dabei zwei Kategorien von KI:

  • Schwache KI: Beschäftigt sich mit konkreten, oft klar begrenzten Anwendungsproblemen. Beispiele sind etwa Services wie Siri, Alexa, Bixby, aber auch erste Steuerungen von Fahrzeugen mittels Spracheingabe.
  • Starke KI: Lösungen sind in der Lage über konkrete Aufgabenstellungen hinaus eigenständig Situationen zu erfassen, zu analysieren und eine Lösung zu erarbeiten.

Unter dem Begriff der KI werden zahlreiche Methoden zusammengefasst, die in Analytics- und Big-Data Projekten angewandt werden. ROI nutzt in Big Data Analytics-Projekten problemspezifische state-of-the-art Methoden. Dies umfasst:

  • Natural Language Processing (NLP) umfasst Methoden zur Spracherkennung und -generierung. Bekannte Anwendungen sind interaktive Fahrzeugnavigationsgeräte oder Consumer Anwendungen wie Alexa und Siri.
  • Insbesondere im Service-Umfeld werden NLP-Methoden mit Bots kombiniert und zunehmend als interaktive Chatbots eingesetzt.
  • Eine der traditionellen Disziplinen der KI ist der Bereich der Bildverarbeitung und -erkennung (Computer Vision), da Methoden der Mustererkennung sowie des maschinellen Lernens angewandt werden.  Auch Verfahren der mathematischen Optimierung komplexer Systeme werden unter dem Begriff der KI zusammengefasst (z.B. Genetische Algorithmen, Simulated Annealing).
  • Das maschinelle Lernen (machine learning) wird mittlerweile häufig stellvertretend für KI genannt. Dabei stellt der Begriff einen Sammelbegriff für Verfahren zur Generierung von Wissen aus Erfahrung dar. Auch Kombinationen mathematischer Optimierungen mit maschinellen Lernen sind üblich.
  • Das Deep Learning beispielsweise umfasst Methoden zur Optimierung künstlicher neuronaler Netze, die sehr häufig im maschinellen Lernen angewandt werden.
  • Weitere Ansätze der schwachen KI sind wissensbasierte Systeme und Expertensysteme, die vorhandenes Wissen formalisieren (z.B. maschinelle Übersetzungsprogramme).
  • Klassische menschliche Planungsaufgaben wie das Suchen und Planen können mittels Algorithmen der KI unterstützt und automatisiert werden. Etablierte Verfahren hierbei sind mathematische Algorithmen wie nearest-neighbor oder maximum likelihood, die für Kürzeste-Wege-Suchaufgaben oder Ablaufplanungsprobleme angewandt werden.

 

Im ersten Teil der „Industrie 4.0 Erfolgsstory“ erfahren Sie, welchen Herausforderungen Unternehmen bei der Implementierung von Industrie 4.0-Lösungen begegnen und wie Digitalisierungsexperten in der Praxis damit umgehen.
Für ihr „Farming 4.0“ / JD Guidance System erhielt John Deere den „5. Industrie 4.0 Award“. Den renommierten Preis schreibt die Unternehmensberatung ROI Management Consulting AG gemeinsam mit der Fachzeitung Produktion seit 2013 aus.
Mit einer Industrie 4.0 Lösung zur horizontalen Vernetzung von Entwicklung, Arbeitsvorbereitung und Produktion zählt das Siemens-Werk Bad Neustadt an der Saale zu den Gewinnern des „5. Industrie 4.0 Awards“.
Mit einem Mix aus Illustrationen und Interviews zeigt das Video der ROI Management Consulting AG, was Unternehmen bei der digitalen Transformation berücksichtigen sollten. Industrie 4.0 Pioniere aus Unternehmen wie Airbus Defence & Space, Kässbohrer oder Carcoustics TechConsult schildern hierbei ihre Praxistipps – zum Beispiel für eine gelungene Customer Experience oder zur ergebnisorientieren Datennutzung.
Wie funktioniert Wertschöpfung in der Cloud? Andreas Lauterbach, Partner und Mitglied der Geschäftsleitung der acentrixGmbH, stellt im Video der Unternehmensberatung ROI Merkmale einer idealen IT-Infrastruktur in der Industrie 4.0 vor.
Gernot Bernert, Technischer Geschäftsführer, Hagleitner Hygiene International GmbH beschreibt im Interview den „transparenten Waschraum“ von Hagleitner und erklärt welche Zielsetzung Hagleitner beim Aufbau eines cloudbasierten Informationsflusses verfolgt.
Industrie 4.0 / IoT (Internet of Things) - unter Berücksichtigung von Lean-Prinzipien - erfolgreich einführen wird in der Lernfabrik "Lean Fabrika" trainiert. Die Unternehmensberatung ROI Management Consulting AG gehört zu den anerkannten Experten im Bereich der digitalen Transformation.
Rosenbauer produziert Einsatzfahrzeuge, die als „intelligente“, also vernetzte und kommunikationsfähige Produkte bereits heute Bestandteil des „Internet der Dinge“ (Internet of Things, IoT, Industrie 4.0) sind.
Mit der digitalen Revolution werden Geschäftsmodelle und Produktionskonzepte Realität, die noch vor Kurzem nur in Science Fiction Romanen vorkamen. Heute sind viele Technologien für die Industrie 4.0 bereits kostengünstig verfügbar und zunehmend im Einsatz.

Case Study

©MONOPOLY919/shutterstock.com

End-to-End-Digitalisierung

Mit einem weltweit vertretenen Betten-Hersteller realisierte ROI ein Projekt zur „End-to-End-Digitalisierung“, das alle relevanten Stationen der Wertschöpfung berücksichtigte: vom Kundenerlebnis über die Bestellung bis hin zur Fertigung und Logistik.

Case Study

Mann vor einem Laptop mit Digital Twin am Bildschirm
©FERNANDO BLANCO CALZADA/shutterstock.com

Aufbau eines Digital Twins zur Steigerung von Qualität und Produktivität

In einer Fertigungsanlage für Armaturentafeln verbesserte ein Automobilzulieferer die Transparenz von Arbeits- und Organisationsprozessen.

Mit einem „Digital Process Twin“ von ROI senkte das Unternehmen die Ausschussrate und machte Verbesserungspotenziale in seinen Wertschöpfungsnetzwerken sichtbar.

Case Study

Zwei Männer vor einem Computer
©Alessandro Romagnoli/shutterstock.com

Agile Methoden in der Softwareentwicklung

Ein Energieversorgungsunternehmen wollte die Leistungsfähigkeit seiner weltweiten F&E-Organisation auf ein neues Level bringen. Dazu verschaffte es sich im ersten Schritt gemeinsam mit ROI einen Gesamtüberblick über den jeweiligen Agilisierungsgrad der verschiedenen F&E-Units und -prozesse.