cover

Björn Bloching | Lars Luck | Thomas Ramge

SMART

DATA

tit

Datenstrategien, die Kunden wirklich wollen und Unternehmen wirklich nützen

Pub

Bibliografische Information der Deutschen Nationalbibliothek:

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://d-nb.de abrufbar.

Für Fragen und Anregungen:

lektorat@redline-verlag.de

1. Auflage 2015

© 2015 by Redline Verlag, ein Imprint der Münchner Verlagsgruppe GmbH

Nymphenburger Straße 86

D-80636 München

Tel.: 089 651285-0

Fax: 089 652096

Alle Rechte, insbesondere das Recht der Vervielfältigung und Verbreitung sowie der Übersetzung, vorbehalten. Kein Teil des Werkes darf in irgendeiner Form (durch Fotokopie, Mikrofilm oder ein anderes Verfahren) ohne schriftliche Genehmigung des Verlages reproduziert oder unter Verwendung elektronischer Systeme gespeichert, verarbeitet, vervielfältigt oder verbreitet werden.

Redaktion: Matthias Michel, Wiesbaden

Umschlaggestaltung: Maria Wittek, München

Abbildungen: Thomas Andrae, Norderstedt

Satz: Carsten Klein, München

Druck: Konrad Triltsch GmbH, Ochsenfurt

Printed in Germany

ISBN Print 978-3-86881-583-2

ISBN E-Book (PDF) 978-3-86414-720-3

ISBN E-Book (EPUB, Mobi) 978-3-86414-721-0

Weitere Informationen zum Verlag finden Sie unter

www.redline-verlag.de

Beachten Sie auch unsere weiteren Verlage unter

www.muenchner-verlagsgruppe.de

eBook by ePubMATIC.com

Inhalt

Kick-off: Smart Data Unser – Mit weniger Daten mehr erreichen

Size doesn’t matter

Smartest in Class

Smart Data in der Nussschale

Der neue Datenvertrag

Teil I: Trends – Vom Big-Data-Hype zu Smart Data

1.1Big Data Overload – Im Tal der Enttäuschung

Der Grippeticker kränkelt

Hype-Cycling

Big Data ohne Big Bang

Lavieren in der Schockstarre

1.2Der digitale Tsunami – Keine Daten sind auch keine Lösung

Disruption entlang der Wertschöpfungskette

Schlau, vereint, aggressiv

Die Dämme weichen auf. Überall!

Die Brille des Investors

1.3Smart-Data-Champions – Die richtigen Daten führen zum Ziel

Smarte Datenhelden

Richtig ist besser als größer

Warum? Wie? Was?

Wahrscheinlichkeit schlägt Zufall

Teil II: Prozesse – Der Smart-Data-Zyklus

2.1Die richtigen Fragen stellen

2.2Die richtigen Daten nutzen

2.3Die Kunden verstehen

2.4Die eigene USP herausarbeiten

2.5Die Kunden richtig ansprechen

2.6Conclusio: Der Mehrwert

Teil III: Vorbilder – Die vier Anwendungsfelder für Smart-Data-Champions

3.1Kundennähe smart gestalten – Die richtigen Angebote zur richtigen Zeit zum richtigen Preis

Curated Fashion

Curated Dübel

Huch, die haben mich verstanden!

Das kleine Analytik-Einmaleins im Handel

Geiz ist geil. Bei der Preisfindung!

Offline schlägt online. Mit den eigenen Waffen

3.2Von der Vertriebspartnerschaft zur Datenpartnerschaft – Kundenpotenziale mit Intermediären gemeinsam heben

Alle gegen alle?

Kollaboratives CRM

Code Switzerland

Die Macht der Pseudonyme

Double Opt-in? Gerne!

3.3Standorte, Sortimente und Produkte smart optimieren

Falsche Flaggenmasten

Die richtigen Formate am richtigen Ort

Echtzeit-Sortimente

3.4Was bedeutet Multikanal wirklich? – Die besten Customer-Journeys für Kunden und Unternehmen

Multikanal-Unlogik

Flipper statt Bowling

Apple-ID für alle!

Die Kanalbrücken der Kundenreise

Showroom Internet

Teil IV: Erfolgsfaktoren – Wie Unternehmen smart werden

4.1Fehler akzeptieren – Die richtige Managementhaltung

Ballistisches Denken

Experiment schlägt Kanonenkugel

Management in Zeiten der Unplanbarkeit

Konfuzius sagt

Der große Daten-Spaß

4.2Flexibler organisieren – Die richtigen Strukturen, Prozesse und Technologien

Squadification?

Der smarte Mittelweg

Vier Schritte in Richtung digitale Transformation

Lasst uns scrummen!

4.3Smart rekrutieren und weiterbilden – Die richtigen Mitarbeiter

Der Stratege

Der Datenwissenschaftler

Der Projektmanager

Der Change-Manager

Conclusio: Earned Data

Datenstrategien, die Kunden wirklich wollen

Der digitale Volksmund

Privatheits-Schizophrenie

Transparente Datenkraken?

Verdiente Daten

Generation post NSA

Das neue Relevant Set

Verwendete Quellen und weiterführende Literatur

Danksagung

Kick-off: Smart Data Unser – Mit weniger Daten mehr erreichen

»If we have data, let’s look at data. If all we have are opinions, let’s go with mine.«

Jim Barksdale, Ex-CEO von Netscape

Size doesn’t matter

Wie groß ist eigentlich das »Big« in Big Data? Technologieanalysten und IT-Anbieter haben sich in den letzten Jahren mit Hochzahlen überboten. Peta, Zetta, Yotta. CD-Stapel bis zum Mond. Oder waren es DVD-Stapel bis zum Mars? Je höher die Hochzahl, desto besser. Denn die Daten sind ja das neue Öl. Und weil Speicher immer billiger, Rechner immer schneller und Algorithmen immer klüger werden, können wir diesen Rohstoff nutzen. Daten in Wissen umwandeln heißt dann Prozesse optimieren, bessere Entscheidungen treffen und vollkommen neue Geschäftsmodelle entwickeln.

Aha.

Leider ertrinken viele Unternehmen zurzeit im Datenüberfluss. Viel hilft oft gar nicht viel. Viele Topmanager beschleicht das ungute Gefühl: Die digitale Kompetenz ihres Unternehmens wächst nicht in gleicher Geschwindigkeit wie die Nennung der Worthülse »Big Data« in Strategie-Meetings. Sie beobachten im schlimmsten Fall gar, dass der mindestens so unscharfe wie trendige Begriff auf dem Weg der digitalen Transformation mehr schadet als hilft: weil sich allenthalben Enttäuschung breitmacht.

Big Data ist eine Zauberformel: Wir greifen so viele Daten wie möglich ab. Die Maschine, angeleitet von ein paar menschlichen Superhirnen, sagt uns dann, wie wir unsere Wertschöpfung an welcher Stelle um wie viel Prozent verbessern können. Oder noch besser: Wie wir uns – in der Von-null-auf-eins-Logik des Paypal-Gründers und Facebook-Investors Peter Thiel – mit einem neuen Geschäftsmodell neu erfinden. Oder zugespitzt in Techie-Sprache formuliert: Big Data = Big Bang!

Digitale Technologien kamen schon immer als Großmäuler auf die Welt. Sie versprechen viel und halten erst einmal ziemlich wenig. Die Zauberformel der Massendatenanalyse entzaubert sich gerade selbst und die Begrifflichkeit Big Data ist in besonderer Weise mitverantwortlich, weil das Volumen der Datenmenge in den meisten Anwendungsfeldern nicht das entscheidende Kriterium dafür ist, ob Daten tatsächlich Mehrwert bringen.

Es kommt nicht auf das Datenvolumen an, sondern auf die richtigen Daten in der richtigen Varianz.

Die großen Big-Data-Versprechen schlagen gerade hart auf dem Boden der Unternehmensrealität auf. Das erfahren wir in den letzten Monaten in nahezu jedem Gespräch mit Managern und IT-Entscheidern. Der Enttäuschung ob teuer gescheiterter Datenanwendungen folgt oft Verwirrung, in einigen Fällen gar eine Art Schockstarre. Denn allen Beteiligten ist freilich auch bewusst: Keine Daten sind auch keine Lösung.

Dieses Buch beschreibt einen intelligenteren Weg aus dem Tal der Big-Data-Enttäuschung. Diese Route eignet sich für Unternehmen, die sich nicht in der digitalen Startup-Logik »von null auf eins« bewegen. Er eignet sich für »n-plus-1-Organisationen«. Also für Unternehmen mit einem in der Vergangenheit gut funktionierenden Geschäftsmodell, welche die Chancen der Datenanalytik intelligent nutzen wollen, um ihr Geschäft besser zu betreiben. Die Daten nicht als eigenes Geschäftsmodell verstehen, sondern als Kernelement, um Kunden besser zu verstehen. Und die entsprechend auch nicht auf Datenmengen in Türmen bis zum Mond schielen, mit denen vielleicht Google zurechtkommt, aber bestimmt nicht das eigene ERP-System, das 1995 eingeführt und seitdem immer wieder erweitert wurde.

Der Mittelweg eignet sich für Unternehmen, die verstanden haben: Es kommt nicht auf das Datenvolumen an, sondern auf die richtigen Daten in der richtigen Varianz.

Wir nennen diesen Weg: Smart Data.

Mit diesem Begriff wollen wir kein in Verruf geratenes Buzzword durch ein neues ersetzen. Smart Data ist weder eine technische Lösung noch ein neues Management-Mantra.

Smart Data ist eine praktikable Haltung mit der Leitfrage:

Wie nutzen wir Kundendaten effizient, ohne uns selbst technisch, personell und finanziell zu überfordern?

Aus dieser Haltung ergibt sich eine iterative, also schrittweise vortastende, hypothesenbasierte Vorgehensweise. Der gesunde Menschenverstand ist dabei ein ebenso wichtiger Rohstoff wie die Daten. Ziel ist es in allen Anwendungsfeldern von Smart Data, Kunden besser zu verstehen, um sie zu binden und damit ihren Kundenwert langfristig zu erhöhen.

Der Smart-Data-Weg ist einer mit vielen Etappen. Die Route steht nicht von vornherein fest. Denn niemand weiß heute schon genau, was die Kunden in drei bis fünf Jahren wirklich wollen und welche Technologien sich durchgesetzt haben werden. Das Management braucht natürlich eine Vorstellung von der Marschrichtung. Den genauen Weg, wie Kundenbedürfnisse in Zukunft besser bedient werden können, weisen aber Experimente. Aus einzelnen Smart-Data-Projekten entsteht bei systematischer Vorgehensweise ein selbstlernendes System. Immer mehr Menschen und Abteilungen in Unternehmen lernen auf diesem Weg, Kundendaten immer intelligenter zu nutzen. Das Gelernte wird zum Automatismus. Die Beteiligten, besonders die auf der Business-Seite, tappen dabei nicht permanent in die technischen und persönlichen Überforderungsfallen der Big-Data-Ansätze, bei denen der geschäftliche Big Bang leider ausblieb.

Wenn dieses intelligente Vortasten gelingt, sind Smart-Data-Projekte Ausgangspunkte und Wegmarken für die digitale Transformation der gesamten Organisation. Diese Transformation muss dann nicht einmal so heißen. Die digitale Veränderung wird als so selbstverständlich und gewinnbringend empfunden wie die ständig zunehmenden Fähigkeiten des Smartphones als Alltagsassistent.

Smartest in Class

Interessant in diesem Zusammenhang ist: Eine große digitale Vision hat oft eine widersprüchliche Wirkung auf Unternehmen. Auf der einen Seite ist es natürlich gut, wenn sich das Topmanagement intensiv und kompetent mit der Frage auseinandersetzt, wie die Digitalisierung das eigene Geschäftsmodell langfristig verändern wird. Meist steht bei diesen Diskussionen der Begriff »disruptiv« groß auf Flipcharts oder Smartboards im Raum und im Idealfall stehen dort auch Skizzen von Geschäftsmodellen, die jenen von aufstrebenden Startups und digitalen Champions ziemlich ähnlich sehen. Auf der anderen Seite raubt die große Vision – bzw. der Vergleich mit den digitalen Vorreitern – oft die Energie für die ersten Schritte auf der digitalen Transformationsreise. Getreu dem Motto: Wir werden nie Google werden! Oder Apple! Oder Amazon!

Der Smart-Data-Weg ist einer mit vielen Etappen. Die Route steht nicht von vornherein fest.

Diese Wahrnehmung ist natürlich in den allermeisten Fällen richtig. Das Problem ist allerdings oft, dass damit die eigene Ambition insgesamt schwindet und der Führungsanspruch in der eigenen Branche verloren geht.

Smart-Data-Haltung ist: Du musst nicht Google werden, um der erfolgreichste Versicherer, Multikanal-Händler oder Schraubenhersteller mit eigenem Vertrieb zu bleiben oder zu werden. Du musst nur in deiner Branche das Unternehmen mit dem höchsten digitalen IQ werden. Denn smart bedeutet, intelligent die Chancen der Datenanalyse zu nutzen, richtig zu priorisieren und diese neuen Möglichkeiten mit den eigenen Stärken zu verbinden. Mit anderen Worten: Smarte Unternehmen träumen nicht davon, so datenkompetent wie die Besten im Silicon Valley zu werden. Sie wollen die smartesten in ihrer Klasse sein und sich Schritt für Schritt mithilfe von Analytik Wettbewerbsvorteile gegenüber der direkten Konkurrenz aufbauen.

Smart Data in der Nussschale

Dieses Buch geht den Smart-Data-Weg in fünf Schritten:

BullTeil I analysiert den Stand der digitalen Dinge aus Sicht von Unternehmen, die nicht zu den Vorreitern der Digitalisierung gehören und noch auf der Suche nach einer für sie passenden Datenstrategie sind. Ausgangspunkt ist das Problem des Überangebots an Daten und eine Dekonstruktion des Begriffs (und des Phänomens) Big Data. Dann beschreiben wir, systematisiert nach Branchen, warum Nicht-Handeln trotzdem keine Option ist und aus welchen Richtungen die digitale Tsunami-Welle auf wen mit welcher Wucht zurollt. In Kapitel 3 des Eingangsteils definieren wir, was wir unter Smart Data konkret verstehen und wie ein übergeordneter Ansatz aussehen kann, um zu einem Smart-Data-Champion zu werden.

BullTeil II entwirft einen Zyklus: einen Prozess in fünf Schritten, mit dem Unternehmen ein selbstlernendes System für Marketing und Vertrieb schaffen. Dieses System fußt zunächst auf Hypothesen, die Mensch und Maschine später immer weiter schärfen. Kernbaustein des Smart-Data-Zyklus ist eine intelligente, da integrierte und für alle Unternehmensteile gültige, Segmentierung. Diese schafft ein immer besseres und einheitlicheres Verständnis vom Kunden. Erhöhte Kundenkenntnis wiederum legt im Zyklus die Grundlage, um die eigenen Stärken immer smarter herauszuarbeiten. Das Ergebnis ist die Fähigkeit, den Kunden dann im richtigen Moment in der richtigen Tonalität das richtige Angebot zum richtigen Preis zu unterbreiten.

BullTeil III zeigt, wie es geht. Er erzählt mit vielen Beispielen, wie Smart-Data-Champions heute Kundennähe mithilfe von Analytik an den einzelnen Kontaktpunkten intelligent gestalten. Wie die Vorreiter unternehmensübergreifende Datenkooperationen zur gemeinschaftlichen Kundenbindung eingehen, an die bis dato niemand gedacht hat. Wie sie Standorte, Sortimente und Produkte kalibrieren und aus fragmentierten Multikanal-Umfeldern ganzheitliche Kundenerlebnisse schaffen.

BullTeil IV ist für diejenigen Leser von besonderem Interesse, die sich mit der Frage befassen: Wie organisieren wir den digitalen Wandel im Unternehmen? Digitale Transformation scheitert in der Regel nicht an technischem Unvermögen. Sie scheitert an inneren Widerständen, allzu starren Strukturen und fehlendem Change-Management. Ein smarter Umgang mit Daten setzt ein modernes Führungsverständnis voraus, das Fehler akzeptiert, experimentelles Denken fördert und Eigenverantwortung lebt. An dieser Stelle im Buch machen wir Vorschläge, wie Unternehmen auf dem Smart-Data-Weg Strukturen und Prozesse praktikabel flexibilisieren und technologische Kompetenz weiterentwickeln können, ohne sich dabei zu überfordern. Die gute Nachricht lautet: So wahnsinnig viele neue Ressourcen brauchen sie dafür gar nicht. Die meisten sind bereits an Bord.

BullDer fünfte Teil dieses Buchs, die Conclusio, ist der wichtigste. Diese beschäftigt sich mit der Frage: Wie findet der Kunde eigentlich all das, was wir mit Daten so treiben?

Digitale Transformation scheitert in der Regel nicht an technischem Unvermögen. Sie scheitert an inneren Widerständen, allzu starren Strukturen und fehlendem Change-Management.

Der neue Datenvertrag

In unserem letztem Buch, Data Unser, haben wir einen »New Deal on Data« gefordert. Dieser Datenvertrag zwischen Kunden und datennutzenden Unternehmen sollte auf vier Pfeilern stehen:

1. Datensicherheit

2. Transparenz

3. Verhältnismäßigkeit

4. Mehrwert für den Kunden

Wir haben damals prognostiziert, dass nicht professionelle Datenschützer und Gesetzgeber über den Erfolg oder Misserfolg von datengetriebenen Marketingansätzen entscheiden werden, sondern die Fähigkeit der Unternehmen, mit Daten einen Mehrwert für ihre Kunden zu schaffen. Erfolgsentscheidend ist, ob es Unternehmen als seriöse Datenpartner gelingt, folgendes Angebot glaubhaft zu unterbreiten: Wenn ihr eure Daten mit uns teilt, ist dies ein Geschäft zum beiderseitigen Vorteil. Wir werden eure Daten nicht missbrauchen, um euch auszuspionieren und abzuziehen. Sondern wir werden sie nutzen, um eure Wünsche und Bedarfe passgenauer zu bedienen. Denn unser Ziel ist es, dauerhaft eine gute Kundenbeziehung zu pflegen.

Drei Jahre, mehrere Dutzend Kundendatenprojekte und eine NSA-Affäre später sind wir uns noch sicherer: Wenn Unternehmen Kundendaten ausschließlich zum eigenen Vorteil nutzen, geht der Schuss nach hinten los. Die strengen deutschen Datenschutzvorgaben sind hier und da überholt, bürokratisch und umständlich. Aber mit ihnen lässt sich klarkommen. Der Kern des Problems ist vielmehr: Unternehmen müssen es sich verdienen, die Daten ihrer Kunden nutzen zu dürfen.

Wenn Unternehmen Kundendaten ausschließlich zum eigenen Vorteil nutzen, geht der Schuss nach hinten los.

Smart Data folgt dem Prinzip »Earned Data«.

Die Kundendaten gehören den Kunden – und diese entscheiden kontextuell, welche Daten sie mit welchem Unternehmen teilen wollen. Sie stellen ihre Bewegungsdaten gerne zu Verfügung, wenn dies für die Anwendung wirklich sinnvoll ist. Und sie reagieren berechtigterweise allergisch, wenn sie das Gefühl beschleicht: Da sammelt eine Datenkrake in Big-Data-Manier alle Informationen ein, die sie bekommen kann, um sie irgendwann einmal (für was auch immer) auszuwerten oder gar weiterzuverkaufen.

Smart-Data-Champions fragen nicht die Hausjuristen, wie der Kunde oder Nutzer mit Einwilligungserklärungen an der Grenze zum rechtlich Möglichen ausgetrickst werden kann. Sie setzen ihre IT-Systeme nach dem Prinzip auf: Gespeichert werden nur Daten, aus denen sich tatsächlich Kundennutzen ableiten lässt.

Diese Haltung wird langfristig Erfolg haben. Denn nur sie wird dazu führen, dass Kunden ihre Daten gerne teilen. Womit sie die Voraussetzung schaffen, dass all das, was wir in diesem Buch beschreiben, auch funktionieren kann. Hier schließt sich der Kreis. Denn in einem Satz heißt Smart Data:

Mit weniger Daten mehr erreichen.

Teil I

Trends

Vom Big-Data-Hype zu Smart Data

 

1.1 Big Data Overload – Im Tal der Enttäuschung

»It comes from everywhere. It knows everything. Its name is Big Data.«

Dilbert, Juli 2012

Der Grippeticker kränkelt

2008 war ein gutes Jahr für Big Data. Zwar nannte damals noch (fast) niemand Massendatenanalyse so. Aber ein kleines Team von Datenwissenschaftlern in Diensten des aufstrebenden und damals noch vollumfänglich beliebten Suchmaschinenanbieters Google präsentierte im Wissenschaftsmagazin Nature eine Massendatenanwendung, die das Zeug dazu hatte, aus der Welt einen gesünderen Ort zu machen. Sie nannten die Applikation GFT: Google Flu Trends. Ihr Versprechen lautete: Google kann den Ausbruch und den geografischen Verbreitungsweg von Grippeepidemien in den USA vorhersagen, ohne mit einem einzigen Arzt gesprochen zu haben. Und zwar deutlich schneller und genauer als die dafür zuständigen Centers for Disease Control and Prevention (CDC).

Die Beamten der CDC sammeln für die Grippebeobachtung seit Jahrzehnten Berichte von Arztpraxen ein und können mit einer Zeitverzögerung von rund einer Woche ein Bild von der gesundheitlichen Lage der Nation hochrechnen. Auf der Basis dieses – um eine Woche veralteten – Bildes können sie dann gesundheitspolitische Gegenmaßnahmen wie groß angelegte Impfaktionen einleiten. Die Google-Geeks hatten in ihrem Datenschatz einen leichteren Zugang zur Volksgesundheit gefunden: Sie orteten einfach, wie oft Bürger die Begriffe »Grippesymptome« oder »Apotheken in meiner Nähe« in den Suchmaschinenschlitz einwarfen, und glichen diese Daten mit dem Verlauf vergangener Grippeepidemien ab. Mehrere Millionen Anfragen mit Grippehinweisen zu aggregieren und zu lokalisieren dauerte 2008 noch knapp eine Nacht. Zudem konnte die Studie nachweisen, dass der suchanfragenbasierte Analyseansatz regional viel feinkörnigere Prognosen lieferte als die Fragebogenabfrage bei Experten, also in diesem Fall bei Ärzten.

GFT war ein Durchbruch in der Massendatenanalyse mit massenmedialer Wirkung. Nicht nur Google-Mitarbeiter präsentierten den Flu-Trends-Case, wo immer sich die Chance bot, den gesellschaftlichen Mehrwert des eigenen Unternehmens in Szene zu setzen. Auch informationstechnologieaffine Journalisten konnten endlich einmal eine handfeste und für jedermann nachvollziehbare Erfolgsgeschichte intelligenter Datennutzung niederschreiben. Keynote-Speaker auf Trendtagen erklärten in bewährter Das-ist-nur-der-Anfang-Tonalität das Anwendungsbeispiel zur Vorhut für eine Revolution evidenzbasierter medizinischer Forschung. Und die Vertriebsleute von Analytics- und Business-Intelligence-Software taten gerne so, als ob ihr Unternehmen am GFT-Algorithmus selbst mitgeschrieben hätte – und ihre eigenen Produkte im Geschäftsumfeld natürlich ähnliche Einsichten-Wunder vollbringen könnten wie Flu Trends in Bezug auf die Volksgesundheit. Das alles kann man der Interessengemeinschaft des datenbasierten Fortschritts eigentlich auch nicht zum Vorwurf machen. Denn am Anwendungsbeispiel Google Flu Trends ließen (und lassen) sich drei große Prinzipien der Massendatenanalyse, seit 2011 allgemein Big Data genannt, verständlich aufzeigen:

  1. Wir verfügen über viel mehr Daten, als wir denken. Wir müssen nach neuen Kontexten suchen, um Daten produktiv zu machen.
  2. Über diese Daten können wir Verhalten beobachten und Trends erkennen. Dies ergibt (in Echtzeit) ein viel genaueres Bild von der Gegenwart, als wir es mithilfe von Befragungen jemals zeichnen können. Wir haben also eine viel bessere Grundlage für Entscheidungen.
  3. Ursachenforschung verliert an Bedeutung. Statistische Korrelationen sagen uns, was wir wissen müssen. Der Wired-Gründer Chris Anderson brachte diese Haltung in seinem Essay »Das Ende der Theorie« auf den Punkt. In einer durch Daten vermessenen Welt brauchen wir keine theoretischen Modelle mehr, die uns die Welt ohnehin nur unzulänglich erklären. Bei ausreichender Datenbasis, auch dafür stand Google Flu Trends, »sprechen die Zahlen für sich selbst«.

2013 war ebenfalls ein gutes Jahr für Big Data. Man könnte auch argumentieren: 2013 war ein um ein Vielfaches bis exponentiell besseres Jahr für Big Data als 2008, je nachdem welche Kennziffern man als Grundlage für den Vergleich nimmt: weltweit anfallendes Datenvolumen, Suchanfragen »Big Data« bei Google, Umsätze von IT-Projekten mit Big Data im Verkaufsprospekt oder Nennung des Begriffs in Dilbert-Cartoons (dort tauchte er übrigens zum ersten Mal 2012 auf). Berater, Trendscouts und Software-Marketer hatten das Buzzword in bunte Bildchen oder Balkendiagramme grafisch übersetzt und in Powerpoint-Präsentationen an so ziemlich jede Beamerwand geworfen. 2013 gab es in Deutschland kein Branchentreffen, kein Symposion, vermutlich kein Strategie-Meeting mehr, bei dem der Begriff Big Data nicht mindestens einmal gefallen wäre. Die Gartner-Definition mit den drei Vs – Volume, Variety, Velocity – war zum gehobenen Wissen für Party-Small-Talk geworden (unabhängig davon wie hilfreich diese Definition tatsächlich oder wie tief das IT-Verständnis derjenigen war, die sie gebetsmühlenartig wiederholten).

Kurzum: Der Fachterminus Big Data war zu einem Label der Digitalisierung geworden – so groß wie der Begriff selbst und wie die Versprechen jener, die ihn groß gemacht haben. Die Welt befand sich endgültig im Big-Data-Fieber.

Img

Für Google Flu Trends war 2013 kein so gutes Jahr. Im Februar erschien auf dem Newsportal von Nature ein Bericht, dass der Musterknabe der Big-Data-Anwendung mit Weltverbesserungsanspruch viele Grippeepidemien viel zu dramatisch einschätzte, andere wiederum überhaupt nicht mitbekomme. Zu Letzteren gehörte z. B. die Schweinegrippe im Jahr 2009.

Im Nachhinein ließe sich die Flu-Trends-Geschichte auch so lesen: Google war mit der Anwendung seiner Zeit mal wieder voraus. Die Dateningenieure aus Mountain View waren die Ersten mit großen Behauptungen. Und die Ersten, die große Enttäuschungen produzierten. Eine Harvard-Studie erhebt den Fall gleich zur Parabel für den Hype um die Big-Data-Analyse insgesamt. Die wichtigste Vokabel in der Studie lautet »Hybris«. Das Wort stammt aus dem Altgriechischen und heißt zu Deutsch: »Selbstüberschätzung«. Der Economist verkündete im April 2014 »The Backlash against big data«. Die New York Times zählt in einem großen analytischen Artikel auf: »Eight (No, Nine!) Problems with Big Data«. David Spiegelhalter, Winton Professor for the Public Understanding of Risk an der Universität Cambridge wählt eine noch deutlichere Formulierung: Die großen Versprechen von Big Data sind für ihn empirisch betrachtet schlicht und einfach »complete bollocks«!

Hype-Cycling

Das Phänomen ist so alt wie der erste Computer. Informationstechnologien kommen als Großmäuler auf die Welt: Sie versprechen mehr, als sie kurzfristig halten können. Das hat viel mit der Mentalität der Menschen in der IT-Industrie zu tun und der durch und durch US-amerikanischen Prägung der Branche. Keine neue Technologie wäre klein genug, als dass ihre Erfinder und Vermarkter sie nicht als »disruptiv« bezeichnen würden. Auch uns geht dieses Spiel mitunter gehörig auf die Nerven. Aber es muss nicht immer böser Wille dahinterstecken.

Das Phänomen ist so alt wie der erste Computer. Informationstechnologien kommen als Großmäuler auf die Welt: Sie versprechen mehr, als sie kurzfristig halten können.

Das Großsprechertum des informationstechnologischen Fortschritts ist oft Ausdruck einer tiefen Überzeugung: dass sich die Innovationen langfristig durchsetzen und dann mit etwas Zeitverzögerung Individuen, Organisationen und Gesellschaften auch tatsächlich jenen Mehrwert liefern werden, den die Innovatoren zu Beginn der Entwicklung auf (über-)optimistischen Charts an die Wand geworfen haben. Die Software-Analystin Jackie Fenn hat dafür vor 20 Jahren – die ersten Browser machten gerade das Internet für Nicht-Experten zugänglich – ein wunderbar schlüssiges Analyseraster gefunden: Gartners Hype Cycle.

Img

Viele Leser dieses Buchs werden mit der Kurve vertraut sein. In der Sprache der Physiker beschreibt die Kurve eine Sprunganregung einer stark exponentiell gedämpften Schwingung mit Annäherung in einer erhöhten Gleichgewichtslage. Übertragen auf den Geschäftskontext bedeutet das: Neue Informationstechnologie erfährt zunächst exponentiell ansteigende Aufmerksamkeit, angefeuert von den Marketingversprechen der Anbieter. Damit schrauben sich auch die Erwartungen an das IT-Produkt nach oben, die die unreifen Werkzeuge dann in ihrer ersten Auslieferungsversionen nie und nimmer erfüllen können.

Die Enttäuschung ist sozusagen im Verfahren einprogrammiert. Wenn das innovative Produkt aber über technische Substanz verfügt, wird es bald verbesserte Versionen geben. Den Entwicklern wird es gelingen, Kinderkrankheiten zu kurieren und neue Funktionen einzubauen, an die ursprünglich niemand gedacht hat. Die öffentliche Aufmerksamkeit für das Produkt hat sich in dieser Phase deutlich verringert, dafür werden die Einschätzungen zu seinem Potenzial und seinen technischen Grenzen realistischer. Erfolgreiche Informationstechnologie erreicht irgendwann das »Plateau der Produktivität«. Kunden wissen, was sie bekommen. Und sie sind sicher, dass die dann nicht mehr ganz neuen, aber dafür halbwegs ausgereiften Anwendungen ihrer Organisation auch tatsächlich nützen.

2011 tauchte Big Data zum ersten Mal als technologischer Gattungsbegriff im jährlichen Gartner Hype Cycle auf. Im Jahr 2013 hatte er dann den Gipfel der überzogenen Erwartungen erklommen. 2014 nahm seine Achterbahnfahrt ins Tal der Enttäuschung Tempo auf und sie wird sich dieses Jahr noch weiter beschleunigen. Erwartungsgemäß, könnte man hinzufügen, und man sollte auch nicht unerwähnt lassen: Es ist in der Wahrnehmung kritischer und kompetenter Experten wie David Spiegelhalter keineswegs ausgemacht, dass Big Data wieder die Kurve Richtung Plateau der Produktivität nimmt. Denn natürlich ist der Hype Cycle kein analytisches Rückversicherungsdiagramm, nachdem alle mit Buzzwords belegten Informationstechnologien sich tatsächlich durchsetzen nach dem Motto »Dann dauert es halt ein bisschen länger«. Ex post betrachten die Gartner-Analysten besonders gerne jene Anwendungen, die sich tatsächlich im Markt etabliert haben, aber de facto wird das Tal der Enttäuschung für viele Technologien zum Death Valley.

De facto wird das Tal der Enttäuschung für viele Technologien zum Death Valley.

Der Begriff Big Data ist so unscharf, beinhaltet so viele unterschiedliche Werkzeuge und Anwendungsfälle und hat ein solches Ausmaß an Verwirrung unter strategischen und operativen Entscheidern gestiftet, dass heute niemand abschätzen kann: Welche Ansätze und Methoden der Massendatenanalyse werden wir in fünf oder zehn Jahren wie selbstverständlich in Unternehmen nutzen? Und bei welchen hochgejubelten Wunderwaffen werden wir uns nicht einmal mehr an den Namen erinnern? Dazu trägt bei, dass der namensstiftende Teil des Big-Data-Hypes, das Big, einerseits nicht quantifiziert ist. Andererseits ist die Frage, welche Datenmengen leicht oder schwer zu handhaben sind, sehr subjektiv. Für das eine Unternehmen sind ein paar Petabytes (10 hoch 15) eine unvorstellbare große Datenmenge, andere haben selbst Exabytes (10 hoch 18) spielerisch im Griff. Die Quantität ist allerdings unserer Erfahrung nach in den meisten Anwendungsfeldern im Business-Kontext die unwichtigste Komponente, um datenanalytische Verfahren für das einzelne Unternehmen zum Plateau der Produktivität zu führen. Wir kommen ausführlich darauf zurück, aber an dieser Stelle wagen wir schon einmal die Prognose: Der Begriff Big Data wird über kurz oder lang als dominierende Begrifflichkeit für Datenanalytik in Unternehmen verschwinden.

Big Data ohne Big Bang

Wenn wir unsere Erfahrungen aus unseren Datenprojekten in Konzernen und bei großen mittelständischen Unternehmen der letzten Jahre aufaddieren, ergibt sich in der Haltung zu Big Data folgendes, in sich widersprüchliches Mosaik:

Je höher die Entscheiderebene, desto öfter fällt der Begriff Big Data und desto größer sind auch die mit ihm verbundenen Erwartungen. Dies gilt in verschärfter Form, wenn sich CEOs, Vorstände oder Strategieabteilungen mit den grundlegenden Herausforderungen der Digitalisierung in ihrem Geschäftsfeld noch nicht intensiv auseinandergesetzt haben. Oder direkter formuliert:

Je weniger Datenerfahrung, desto größer ist oft die Hoffnung im Management, mit Big-Data-Anwendungen schnell große Potenziale für sich zu erschließen.

Diese Hoffnung projizieren sie besonders auf Wachstum in neuen Geschäftsmodellen, die das Unternehmen bisher noch nicht beackert. Befeuert werden die Erwartungen dieser Entscheider durch beeindruckende Geschichten in den Medien. Dort lesen sie:

  1. Amazon liefert mit Drohnen Güter des täglichen Bedarfs aus, noch bevor der Kunde selbst merkt, dass er sie dringend braucht.
  2. Der Videoverleiher Netflix kennt dank Datenwissen den Geschmack seiner seriensüchtigen Kunden so gut, dass er selbst zum Produzenten von TV-Serien wird und diese so geschickt vertreibt, wie Kevin Spacey in House of Cards intrigiert.
  3. Die KFZ-Versicherung der Zukunft kalkuliert ihre Tarife mithilfe von GPS-Daten im Rahmen von Pay-as-you-drive-Modellen und kann zuverlässigen Fahrern damit unschlagbar günstige Angebote machen.

Konkrete Vorstellungen, wie solche grundlegenden Geschäftsfeldinnovationen im eigenen Unternehmen aussehen könnten, gibt es oft noch nicht. Sehr wohl herrscht aber die Grundhaltung, dass Daten den Weg schon weisen werden. Das geht nicht nur schnell, sondern auch günstig, denn IT kostet heute ja so gut wie nichts mehr. Das wissen wir aus allen Big-Data-Präsentationen der letzten Jahre.

Auf der anderen Seite stellen wir immer wieder fest: Je niedriger die Entscheiderebene, desto größer ist die Frustration, die der Begriff Big Data hervorruft – mehr oder weniger gut kaschiert, versteht sich. Der emotionale Widerstand speist sich aus verschiedenen Quellen. Zum einen haben IT-Abteilungen oft selbst schon Konzepte erarbeitet, wie das Unternehmen Daten intelligenter nutzen könnte, sind aber damit intern nicht durchgedrungen. Zum anderen wissen die für Datenthemen operativ Verantwortlichen in der Regel sehr genau: Sollte das Management das Datenthema einmal grundlegend anfassen, ist die Komfortzone in organisationaler Nähe zum Unternehmensserver plötzlich Kriegsgebiet. IT-Abteilungen erweisen sich überraschend oft als mächtige Bremser beim informationstechnologischen Fortschritt. Die Standardformulierung in diesem Zusammenhang lautet: »Darauf ist unser System nicht ausgelegt.« Oft haben die Bremser (aus ihrer Sicht) Glück und müssen die mühsamen Schritte einer schnellen Digitalisierung ihres Unternehmens nicht gehen. Denn wenn sich die oberen Ebenen intensiver mit den kurzfristig realistisch erwartbaren Zugewinnen durch sogenannte Big-Data-Applikationen beschäftigen, nimmt die Begeisterung rasch ab. Diese Ernüchterung schlägt hin und wieder gar in eine innere Abwehrhaltung um, wenn der Vorstandsebene langsam klar wird, wie tief greifend die Veränderungen in der eigenen Organisation sein müssten, damit langfristig die eigentlichen Potenziale durch Digitalisierung in ihren Märkten gehoben werden können. Gemeint ist damit natürlich: von ihnen gehoben werden, und nicht von anderen.

Das Problem in vielen Unternehmen mit relativ vagen Big-Data-Ambitionen sieht auf den Punkt gebracht wie folgt aus: Das Management erkennt Massendatenanalyse als Möglichkeit zur Erschließung neuer Geschäftsmodelle. Daran knüpfen die Topentscheider große Erwartungen. In Projekten merken sie schnell, dass Daten ein Rohstoff sind, der sich kurzfristig vor allem dafür eignet, das eigene Kerngeschäft entlang der eigenen Wertschöpfungskette zu optimieren – von der Beschaffung über Produktion, Steuerung der Zulieferer, Logistik, Marketing und Vertrieb bis zur Nachbetreuung der Kunden. Die Potenziale von Big Data sind damit oft untrennbar mit der Weiterentwicklung des Geschäftsmodells verbunden. Versucht man dann, rein »inkrementelle« Potenziale durch Daten ohne eine parallele Weiterentwicklung des Geschäftsmodells zu berechnen, liegen die zu erwartenden Einsparungen oder zusätzlichen Umsätze/Gewinne in der Regel weit unter jenen, welche die Big-Data-Fantasien ursprünglich geweckt hatten. Big Data ohne Big Bang macht dann keinen Spaß.

Eine unternehmensübergreifende Suche nach datengetriebenen Optimierungslösungen führt schnell auf diverse, erfahrenen Kämpfern der Konzernkultur wohl bekannte Minenfelder:

  1. Datensilos müssen geöffnet werden. Das Marketing könnte von Vertriebsdaten profitieren oder umgekehrt. Aber leider sind sich die Abteilungsleiter spinnefeind und agieren nach dem Prinzip: Solange ich von deinen Daten profitiere, finde ich das gut. Umgekehrt aber mal so gar nicht.
  2. Der datentechnische Teufel liegt oft im Detail. Kleine Probleme wachsen sich gerne zu großen aus und deshalb haben IT-Kosten – allen Versprechen der IT-Industrie zum Trotz – nach wie vor die Tendenz, sich wie Kosten für Berliner Flughäfen oder Hamburger Elbphilharmonien zu verhalten. Welche Führungskraft auf dem Weg nach oben will dieses Risiko eingehen? Erschwerend kommt hinzu: Die Macht der Datenbankadministratoren ist nach wie vor oft größer, als es aus Geschäftssicht wünschenswert wäre. Wer in der Organisation kann schon einschätzen, wie komplex es wirklich ist, die 5 000 Zeilen SQL-Code umzuschreiben, die für eine innovative Kundendatenanwendung überarbeitet werden müssten? Außer demjenigen, der es machen soll.
  3. Die Datenschützer – interne wie externe – stellen gerne ihre Existenzberechtigung unter Beweis. Juristische Risiken abzuschätzen und rechtliche Hürden zu überwinden macht keinem Manager Spaß. Auch datengetriebenen nicht.
  4. Es wäre wünschenswert, wenn es bereits anders wäre: Aber der Nutzen von Analytics-Tools lässt sich weniger zuverlässig prognostizieren als von Software-Verkäufern und Beratern behauptet. Große Versprechen und geringer kurzfristiger Nutzen haben auch bei analytischen Optimierungsprojekten entlang der Wertschöpfungskette viel verbrannte Erde hinterlassen.
  5. Die größte Hürde für bessere Datennutzung ist nicht die Maschine, sondern der Mensch. Genauer: die menschliche Ressource. Kluge Datenanalyse braucht kluge Köpfe. Die sind a) oft intern gar nicht vorhanden bzw. bereits bis Oberkante Unterlippe mit Arbeit versorgt. Oder b) nur teuer von außen zu beschaffen, was dann mit allen bekannten Schwierigkeiten verbunden ist, die Budgets dafür freizuschaufeln.

Unter dem Strich heißt das: Wer als Topentscheider und/oder Budgetverantwortlicher in seiner Organisation Projekte, die eine Massendatenanalyse erfordern, voranbringen möchte, wappnet sich besser gleich für einen wahrscheinlichen, jahrelangen Kampf gegen eine große Zahl von Windmühlen. Gering dagegen sind die Chancen, dass die kurzfristig zählbaren Ergebnisse weit über den Prognosen liegen, mit denen er das Projekt intern verkauft hat. Sind die strategischen Gedanken sortiert, spüren CEOs und Vorstände: Ein tief greifender Transformationsprozess hin zu einem datengetriebenen Wettbewerber, einem »Analytical Competitor«, wie es der US-amerikanische Business-Analytik-Vordenker Thomas Davenport nennt, dauert mindestens fünf, vermutlich eher zehn Jahre. Die wenigsten CEOs und Vorstände wissen, ob sie dann noch CEOs oder Vorstände in diesem Unternehmen sein werden. Gleichzeitig ist natürlich allen Unternehmen mit Schnittstellen zur Digitalisierung klar: Irgendetwas müssen wir tun.

Was aus diesen Widersprüchen zurzeit in vielen Unternehmen herauskommt, nennen Schachspieler »Lavieren«.

Img

Lavieren in der Schockstarre