Big Data

Umsatzquelle Big Data: Neue Geschäftsmodelle mit Daten
Big Data ist in der Unternehmenswelt angekommen. Nun gilt es, sie wertschöpfend einzusetzen. Nachahmenswerte Beispiele gibt es bereits in der Praxis – aber auch Enttäuschungen.
TEXT: Ingo Steinhaus

Technologische Fachbegriffe haben ihre eigenen Karrieren. So schien sich eine Zeit lang alles um Big Data zu drehen. Doch 2014 war der Begriff plötzlich verschwunden, zumindest aus dem „Hype-Cycle“ der neuen und stark diskutierten Technologien der US-amerikanischen Unternehmensberatung Gartner.“

Ähnlich wie das in dieser Übersicht ebenfalls nicht mehr vertretene Cloud-Computing ist Big Data in der Wirtschaft angekommen und wird vergleichsweise breit eingesetzt. Die Zeiten der übertriebenen Euphorie sind vorbei, als unrealistische Erwartungen die Runde machten. So sollte anhand von Daten aus der Vergangenheit das Verhalten der Kunden in der Zukunft vorausberechnet werden. Unternehmen sollten damit ihre Produkte an Kundenwünsche anpassen, bevor diese überhaupt im Markt sichtbar sind – Big Data also als magische Glaskugel für Business-Propheten.

„Da war und ist viel Hightech-Scharlatanerie im Spiel“, kritisiert Big-Data-Veteran Jörg Bienert. Sein Unternehmen Par Stream (jetzt bei Cisco) hat bereits 2008 eine Echtzeit-Suchtechnologie für große Datenmengen entwickelt, die im Silicon Valley für Aufsehen sorgte. Der Gründer des Vorzeige-Start-ups und jetzige Director Business Development bei Cisco betont: „Gerade bei neuen Technologien werden die Möglichkeiten gern übertrieben dargestellt. Hier sollten die Anwender ihren kritischen Verstand nicht ausschalten.“

Die wenig glaubwürdigen Versprechen der frühen Big-DataEvangelisten sind vom Tisch. Übrig bleiben pragmatische Anwendungen für den Geschäftsalltag, die Unternehmen in ihren Märkten unterstützen. „Der Fokus hat sich von Big Data abgewendet, es geht jetzt um Smart Data“, sagt Bienert. „Im Vordergrund steht die möglichst geschickte und nutzenorientierte Sammlung und Auswertung von sinnvollen Informationen.


ENTSCHEIDUNGEN OPTIMIEREN, PROZESSE VERBESSERN

Ob es nun um Big oder Smart Data geht, Ausgangspunkt des ganzen Konzeptes ist die systematische Analyse von strukturierten und unstrukturierten Daten aus zahlreichen und heterogenen Quellen. Damit sind beispielsweise nicht nur die Stammdaten von Kunden gemeint, sondern alle Daten rund um die Geschäftstä- tigkeit eines Unternehmens.

Viele solcher Informationen sind intern bereits in den IT-Systemen vorhanden, etwa aus Warenwirtschaftssystemen oder ERP-Anwendungen. Sie müssen nur noch sinnvoll ausgewertet werden. Weitere Daten können über Sensorik oder die „Ausleitung“ von bisher ungenutzten Daten aus vorhandenen Systemen erhoben werden.

Hier ist eine gewisse Verwandtschaft mit Business-Intelligence zu erkennen, der systematischen Analyse von Geschäftsinformationen. Doch Big-DataAnwendungen gehen weiter, sie widmen sich nicht nur einzelnen Kennziffern, sondern nutzen häufig auch externe Daten für die Auswertung. Das können beispielsweise zugekaufte Daten wie Geoinformationen, Wetterdaten oder Angaben aus amtlichen Statistiken sein, aber auch Auswertungen von sozialen Netzwerken, Blogs und Nachrichtenquellen. 

Diese sehr unterschiedlichen Daten aus vielfältigen Quellen können nun miteinander verknüpft werden, um einen Mehrwert zu erreichen. Einen typischen Anwendungsfall verwirklicht die Münchner Rückversicherungsgesellschaft. Ihre IT-Systeme analysieren permanent und nahezu in Echtzeit mehrere Tausend Medienangebote und damit Millionen von Nachrichten auf Schadensereignisse.

Die Versicherungsmitarbeiter erhalten daraus relevante Informationen wie Orte, Objekte, Firmennamen, Schadensarten, -ursachen und -summen in der Art eines Dashboards präsentiert. Wochenlange Verzögerungen bei der Benachrichtigung über Schadensfälle gehören damit der Vergangenheit an, die Rückversicherung kann nun bei Bedarf eingreifen und Folgeschäden verringern.

Inzwischen arbeiten sehr viele Unternehmen mit Big-DataTechnologien, um Entscheidungen zu optimieren oder die Prozesseffizienz zu verbessern. Nach einer aktuellen Studie der Wirtschaftsprüfungsgesellschaft KPMG im Auftrag des IT-Branchenverbandes Bitkom nutzen gut 40 Prozent der Unternehmen Datenanalysen und verlassen sich nur wenig auf Intuition.


DATENANALYSEN ALS UMSATZBRINGER

Der Handel hat die Vorteile der schnellen und automatischen Analyse des Kundenverhaltens entdeckt. Der Handelskonzern Rewe will mit seiner BigData-Strategie die „360-GradSicht auf den Kunden erreichen“, sagt Rewe-Digitalchef Jean-Jacques van Oosten. Dafür nutzt der Konzern die schon seit längerem über Payback und Onlineshops gewonnenen Kundendaten. Langfristig möchte Rewe dabei einen bestimmten Kunden in allen Vertriebskanä- len in Echtzeit erkennen und ihm auf Basis der Verkaufshistorie passende Angebote machen.

VIELE GUTE INFORMATIONEN SIND INTERN BEREITS IN DEN IT-SYSTEMEN VORHANDEN

Bei diesen Einsatzszenarien von Big Data kommt es durchaus zu verblüffenden Erkenntnissen, wie etwa bei der US-Kaufhauskette Target, die zu den frühen Big-Data-Anwendern gehörte. Die Datenanalytiker bemerkten Änderungen im Kaufverhalten bei Kundinnen, die sich bei einem Baby-Geschenk-Service registriert hatten.

Der Umschwung war so deutlich und geschah so regelmäßig, dass die Supermarktkette Schwangere unter ihren Kundinnen recht präzise erkennen kann. Wer also eine Target-Kundenkarte hat und plötzlich das „Schwangeren-Kaufverhalten“ zeigt, bekommt nun gezielte Werbung und passende Gutscheine.

Auf diese Weise können Datenanalysen zu Umsatzbringern werden. Das klappt am besten, wenn die Technologie bereichs- übergreifend eingesetzt wird und die Grenzen der Abteilungssilos überschreitet. Deshalb nutzen Handelsketten wie Rewe ihren Datenbestand nicht nur für die Kundenansprache, sondern auch für die Optimierung des Sortiments. Die aggregierten Daten bilden Trends und Entwicklungen ab, so dass Rewe seine Bestände intelligenter und effizienter steuern kann.

Die Umsetzung solcher Maß- nahmen erfordert aber einen kritischen Umgang mit den erhobenen Daten. Erfolgreich sind Big-Data-Projekte nur dann, wenn die Datenqualität ausreichend ist und die aggregierten Daten auch korrekte Schlüsse zulassen. Vor allem externe Daten aus sozialen Netzwerken oder Blogs sind häufig verzerrt. Sie genügen in der Regel keinen wissenschaftlichen Anforderungen an Güte und Belastbarkeit.

Das musste Google in einer Healthcare-Anwendung schmerzlich erfahren. Ziel war es, aus eingegebenen Suchbegriffen zu Gesundheitsthemen die Ausbreitung von Grippewellen vorherzusagen. Das Ergebnis: Die Prognosen lagen vollkommen daneben und überschätzten die Entwicklung bei weitem. Der Grund: GoogleNutzer geben die Suchbegriffe „Grippe“ oder „Flu“ bei allen Erkrankungen mit typischen Erkältungssymptomen ein, so dass sie keinerlei Aussagekraft bei einer Grippewelle besitzen.

Eine solidere Basis sind interne Daten, etwa Stammdaten und Kundendaten aus Shops und CRM-Systemen, aber auch Maschinendaten aus der Produktion. Sie eignen sich gut für die Ableitung von Maßnahmen zur Effizienzsteigerung. Doch dies ist nicht das einzige Anwendungsgebiet von Big Data. Für die Zukunft der deutschen Wirtschaft wichtiger sind neue datengetriebene Produkte, Services und Geschäftsmodelle. Doch dieses Anwendungsgebiet steckt in den meisten Unternehmen noch in den Anfängen. Dabei werden von den Vorreitern häufig keine vollkommen neuen Produkte lanciert, sondern vorhandene durch einen Service erweitert.


DATEN BRINGEN MEHRWERT FÜR VORHANDENE PRODUKTE

Anbieter von Navigationssystemen wie Tom Tom bauen durch geschickte Auswertung von Daten neue Servicemodelle auf. Sobald der Besitzer eines Navis die entsprechende Funktion aktiviert, sendet das Gerät dauerhaft anonymisierte Bewegungsdaten an Tom Tom. Wenn dies einige Hunderttausend Autos machen, lässt sich die Verkehrslage in Echtzeit auf einer Karte anzeigen. Zudem bekommen die Autofahrer optimierte Routen präsentiert, die Staus umgehen.

Auch das britische Versicherungsunternehmen Insure the Box nutzt die Bewegungsdaten von Autos für ein neuartiges Produkt, nämlich eine auf dem Fahrverhalten basierende Autoversicherung. Dabei werden die Streckendaten des Versicherungskunden mit den aggregierten Informationen aus mehr als 150 Milliarden gefahrenen Kilometern abgeglichen und entsprechend die Versicherungsprämien angepasst. Erfreulicher Nebeneffekt: Durch die Telematikdaten konnten bislang 30.000 gestohlene Fahrzeuge ermittelt werden.

Auch im B2B-Sektor gibt es einen kleinen Boom bei zusätzlichen Services, nämlich der vorausschauenden Wartung (Predictive Maintenance). So sind neuere Modelle der Aufzüge von Thyssen Krupp via Internet an einen Cloud-Service angeschlossen, der sämtliche Zustandsinformationen der Auszüge auswertet. Die Cloud-Anwendung nutzt Machine-Learning, um Vorhersagemodelle aus Fehlermustern zu erzeugen.

Dadurch ist es möglich, technische Probleme bereits deutlich vor einer Panne zu identifizieren und durch einen Techniker zu beheben. In der Folge kann auf eine regelmäßige Wartung vor Ort verzichtet werden, wodurch beim Hersteller die Kosten sinken und der Anwender keine Schwierigkeiten durch Betriebsausfälle der Aufzüge hat. Predictive Maintenance wird auch von Herstellern im Maschinenund Anlagenbau eingesetzt.

Durch das Sammeln der Betriebsdaten aller eingesetzten Maschinen erhalten die Fabrikausrüster nun ein bisher unbekanntes Gesamtbild über den Praxiseinsatz ihrer Produkte: über das Verschleißverhalten, die Auswirkung von besonderen Umweltbedingungen und die Dauerhaftigkeit der verwendeten Bauteile.

DAS ERGEBNIS: DIE GOOGLEPROGNOSEN LAGEN VOLLKOMMEN DANEBEN

Es gibt allerdings eine wichtige Voraussetzung: Der Hersteller muss über geeignete Datenschnittstellen auf die Rückmeldungen der entsprechenden Maschinen zugreifen können. „Hierzu sind geeignete kooperative und genügend sichere Standards für die Nutzung solcher Daten aus Produktionsanlagen erforderlich“, sagt Stefan Wrobel, Direktor des Fraunhofer-Instituts für Intelligente Analyse- und Informationssysteme IAIS in St. Augustin. „Damit beginnt die nächste große Phase von Big Data, die Zusammenarbeit in Partnernetzwerken.“


DATENPLATTFORMEN ALS BASIS VON GESCHÄFTSMODELLEN

Big Data liegt quer zu den Strukturen in einem Unternehmen und reicht außerdem weit über die Unternehmensgrenzen hinaus. Der Austausch von Daten über solche Grenzen hinweg erfordert dabei nicht nur technische Standards, sondern auch Vereinbarungen, damit die Partner die digitale Souveränität über ihre Daten nicht verlieren und sicher zusammenarbeiten können.

„Gemeinsam mit Partnern aus der Wirtschaft haben wir hierfür das Konzept des Industrial Data-Space entwickelt, der als Referenzarchitekturmodell für Datenaustausch und Geschäftsprozesse konzipiert ist“, erklärt Wrobel. „Damit können unterschiedliche Anbieter Plattformen betreiben, die den Nutzern die Sicherheit bieten, dass Daten nur nach verlässlichen Prinzipien verwendet werden.“ Sicherheitsprobleme und Datenlecks in den internen Systemen der beteiligen Partner werden auf diese Weise vermieden. Ein gutes Beispiel ist die Lkw-Steuerung in der Logistik. Der Datenaustausch der einzelnen Akteure in der Lieferkette erzeugt mehr Transparenz. Dies erlaubt das Rückverfolgen von Produkten, die Optimierung der Transportwege und eine bessere Prognose von Bestell- und Produktionsmengen. Durch das Plattform-Prinzip können die Unternehmen entlang der Lieferkette einen standardisierten Datenaustausch nutzen. Sie geben dabei nur Informationen frei, die für eine Optimierung der Supply-Chain notwendig sind. Alle Beteiligten haben dabei auf alle Daten Zugriff und können sie für ihre Aufgaben auswerten.

VERIZON VERMARKTET IN ANONYMISIERTER AGGREGIERTER FORM UND DATEN

Eine zentrale Datenplattform vereinfacht auch ein weiteres, bisher allerdings nur selten vertretenes Geschäftsmodell: die Monetarisierung der Daten selbst. Diesen Weg ist der Telekommunikationsanbieter Verizon Wireless gegangen. In seinem Geschäftsbetrieb fallen geographische und demographische Daten über die Kunden an. Verizon vermarktet diese Daten in anonymisierter und aggregierter Form für Marketingmaßnahmen oder die Messung von Besucherströmen an bestimmten Orten.

Die Beispiele zeigen, dass es zahlreiche Wege gibt, Daten zu gewinnen und zu nutzen. Sie ermöglichen Unternehmen den Aufbau von neuartigen Geschäftsmodellen, die allerdings individuell auf das Unternehmen und den Einsatzbereich zugeschnitten werden müssen. „Es gibt keine Lösungen von der Stange, die auf alle Unternehmen passen“, betont Datenexperte Jörg Bienert. „Es ist immer die kreative Kombination von fachlichem Know-how und Datenanalyse nötig, um zu einem tragfähigen Geschäftsmodell zu kommen.“ Ein zweiter wichtiger Aspekt für Erfolg ist eine überlegt formulierte Strategie, wie Fraunhofer-Direktor Stefan Wrobel erläutert: „Es ist nicht klug, irgendwelche Daten zu sammeln und dann zu schauen, ob sich damit etwas anfangen lässt. Erst kommt ein Konzept, dann eine Inventur der vorhandenen Datenquellen und schließlich ein Prototyp für den Einstieg in Big Data.“