Data-Analytics

Strategien, wie die Datenflut Mehrwert schafft
Erst die Datenanalyse bringt einen Mehrwehrt aus Industrie-4.0- Produkten. Ein Gastbeitrag von Christoph Kilger und Stefan Bley.
TEXT: Ein Gastbeitrag von Christoph Kilger und Stefan Bley

Im Zuge von Industrie-4.0- und Internet-of-Things- Applikationen platzieren wir unzählige Sensoren an Maschinen, Gebäuden, Menschen, Fahrzeugen, Containern und vielen weiteren Objekten. All diese neuen und schon vorhandenen Sensoren und Steuerungen werden mit dem Internet verbunden. Hierdurch erzeugen wir eine Vielzahl von kontinuierlichen Datenströmen, die in riesigen Datenspeichern gesammelt werden – sogenannten Data-Lakes. Es sind Datenmassen, die bisher aber nur in Einzelfällen sinnvoll ausgewertet werden. Doch wenn wir jetzt schon kaum dem Datenmeer Herr werden, wie sollen wir erst mit der exponentiell steigenden Datenflut umgehen, wenn nahezu überall Sensoren Daten produzieren? In den vergangenen Jahren sind Big-Data- und Data- Analytics-Technologien entstanden, die uns vor dem Ertrinken im Data-Lake retten. Es sind Technologien, die helfen, sehr große Datenbestände sinnvoll zu strukturieren, Muster in den Daten zu finden und daraus Mehrwert zu generieren. Sie können uns neue Antworten geben und versprechen, unsere Leistung zu steigern. Die Erwartungen aus der Industrie sind hoch: In einer Umfrage aus dem Jahr 2014 von LNS Research und MESA International wurden im Bereich Produktion die folgenden Top-4- Themen für Big-Data-Analytics genannt:

  • Besserer Forecast des Kundenbedarfs und der Produktionsmengen (46 Prozent)
  • Erkenntnisse über die Leistung einer Fabrik auf Basis verschiedener Kennzahlen (45 Prozent)
  • Schnellere Reaktionsfähigkeit und besserer Service für Kunden (39 Prozent)
  • Realzeit-Benachrichtigungen auf Basis von Produktionsdaten (38 Prozent)

Big-Data-Auswertungen können dabei sowohl rückblickend (Was ist passiert? Wie oft/wann/ wo/etc. ist es passiert? Was war das Problem? Welche Lösungen bestehen?) als auch prospektiv vorgenommen werden. Auf Basis von Vergangenheitsdaten können Projektionen in die Zukunft erstellt werden: Warum passiert dies? Wird sich der Trend zukünftig fortsetzen/verstärken/schwächer werden? Was wird als Nächstes passieren? Wie kann ich die Zukunft (positiv) beeinflussen und optimierend einwirken?

Erst die Datenanalyse bringt einen Mehrwert aus Industrie-4.0-Produkten

Die erste Gruppe der Ex-post-Fragen wird auch als Leistungsanalyse bezeichnet und wird mit klassischen Reporting- und Business-Intelligence- Systemen bewältigt. Die zweite, prognostizierende Gruppe von Fragen erfordert dagegen mathematische Analysemodelle, die helfen, Ursachen von Entwicklungen zu verstehen, um auf dieser Basis zuverlässige Vorhersagen zu machen. So können Entscheidungen oder Ereignisse antizipiert werden, das Unternehmen kann entsprechend optimiert handeln.

Es ist gerade die mögliche Prognose, die die Phantasie anregt: vorher zu wissen, wie die Auftragslage wird oder sich Einkaufspreise verändern werden. Um eine belastbare Vorhersage treffen zu können, kommt eine Vielzahl einfacher und komplexer Methoden zum Einsatz, beispielsweise die Klassifizierung, die Segmentierung, die Assoziation, Vorhersagemodelle, die lineare und nicht lineare Regression. Die Erkenntnisse aus diesen Methoden sind dabei umso größer, je mehr Datenquellen einbezogen werden. Neben den oben beschriebenen Sensordaten aus der Industrie 4.0 kommen Daten aus operativen IT-Systemen wie SAP, Produktionssteuerungssystemen (MES), Customer-Relationship-Management(CRM)-Systemen, E-Business-Shops, aber auch Daten aus sozialen Medien sowie gegebenenfalls Wetterdaten, Börsenkurse, Konjunkturdaten, externe Risikoeinschätzungen etc. hinzu. Daten, die Objekte aus verschiedenen Perspektiven beschreiben und Zusammenhänge zwischen diesen herstellen, sind besonders wertvoll. Ein Beispiel: die Erzeugung industrieller Druckluft. Hauptkostenfaktor bei der Drucklufterzeugung ist die eingesetzte elektrische Energie pro Kubikmeter Druckluft. Um Energiekosten zu sparen, ist es wichtig, den Druckluftbedarf der Fabrik möglichst gut vorherzusagen. Dieser hängt von einer Vielzahl von Faktoren ab, wie dem Bedarfs- und Produktionsplan, dem Schichtplan, aber auch der Wetterlage und der Luftfeuchtigkeit, der Tageszeit, der Außenund Raumtemperatur etc. Aus der sinnvollen Verknüpfung von Daten zu diesen Faktoren kann eine Prognose zum Druckluft- und damit zum Energiebedarf erstellt werden.

Sinnvollerweise beginnen wir mit einem überschaubaren anfänglichen Datenset und entwickeln es unter dem Eindruck der Güte der Analyseergebnisse weiter. Neue Datenelemente werden hinzugenommen und neu verknüpft, Analysemethoden verändert, die Qualität der Analyseergebnisse neu bewertet. Es ist ein kontinuierlicher Verbesserungsprozess: Wie weit wich die Prognose von der späteren Realität ab; welche Stellschrauben versprechen eine Verringerung dieses Deltas? Die Erstellung der Analysemodelle, die Auswertung, die Kalibrierung und die kontinuierliche Anpassung übernehmen heute Spezialisten, sogenannte Data-Scientists. Sie sind unsere Rettungsschwimmer im Data-Lake. Doch die zu erwartende extreme Zunahme der auszuwertenden Daten wird Data-Scientists mit ihren „manuell“ erstellten Data-Analytics-Modellen an Kapazitätsgrenzen bringen.

Um nicht in der Datenflut, die Industrie-4.0-Applikationen und IoT-Applikationen generieren, zu ertrinken, braucht es fokussierte Analysen. Während diese heute noch meist „manuell“ erfolgen, werden sie künftig durch intelligente Maschinen durchgeführt. Ein Überblick.

Machine-Learning-Ansätze, die auf Techniken der künstlichen Intelligenz basieren, werden die Analysen übernehmen. Neural Networks, Decision- Trees, Random-Forests, Gradient-Boosting- Machines: Diese Verfahren sind in der Lage, mittels eines ersten Datensets die Analyse und die Vorhersage zu trainieren und mittels eines zweiten Datensets das Modell zu validieren. Hierzu wird das trainierte Modell auf das zweite Datenset angewandt, und die Ergebnisse werden statistisch bewertet. Ein Machine-Learning-Verfahren ist in der Lage, sich eigenständig auf neue Situationen einzustellen und die Analysemodelle automatisch ständig anzupassen und zu verbessern.

Machine-Learning wird ein wichtiges Element von Industrie-4.0- und Internet-of-Things-Applikationen werden – und der Schlüssel zum Erfolg sein, um mit den gigantischen Datenmengen den erhofften Mehrwert zu erzeugen.