Data driven marketing

Rationale Entscheidungen, die auf Fakten und Statistiken basieren, bringen Ihnen eher die gewünschten Geschäftsergebnisse – wie Wachstum, Gewinne und Kundenbindung. Das ist das Versprechen von “data-driven marketing”. Und es ist viel besser als intuitive Entscheidungen, die auf qualitativen Informationen, “Bauchgefühl” oder Erfahrung basieren. Oder ist es das?

 

Forrester berichtet, dass in den USA die Unternehmen, die am besten in der Datenwissenschaft sind….
• sind doppelt so häufig in ihrem Segment führend.
• haben ein deutlich höheres Umsatzwachstum und höhere Gewinne.
• sind am ehesten in der Größenklasse 1.000 bis 5.000 Mitarbeiter.

Jetzt ist es verlockend, dies zu lesen, eine Bestätigung für die Datenwissenschaft. Auch, um daraus zu schließen, dass die Datenwissenschaft möglicherweise die “Wundermittel” für die Verbesserung der Geschäftsergebnisse unter den Hidden Champions des Mittelstandes ist. Es gibt zwei große “Aber”.

Erstens – Korrelation ist nicht dasselbe wie Kausalität. Zweitens – wir brauchen mehr Informationen, um festzustellen, was Ursache und Wirkung ist. Sind in Wirklichkeit diese Unternehmen die Besten bei Data Science geworden, weil sie tatsächlich doppelt so viel Geld dafür ausgegeben haben wie die anderen?

Ziel des datengetriebenen Marketings ist es, Klarheit zu schaffen und Maßnahmen zu ermöglichen. Das Aufdecken von Mustern, Trends und Assoziationen, insbesondere in Bezug auf menschliches Verhalten und Interaktionen, klingt nach einer großartigen Idee. Aber wir können Datenbesitz nicht als selbstverständlich ansehen.

Sunand Menon stellt fest, dass “viele (US) Organisationen davon ausgehen, dass, wenn sie die Daten sammeln und in ihren Systemen speichern, es ihre Daten sein müssen”. Aber jede Verarbeitung personenbezogener Daten in der EU fällt sofort in den Anwendungsbereich von DSGVO. Es lohnt sich also, das Dateneigentum frühzeitig zu evaluieren und sich im Zweifelsfall vorab von einem Rechtsanwalt oder Datenschutzexperten beraten zu lassen.

 

“Es ist wichtig, Kunden und ihre Daten mit Respekt zu behandeln.”
JOHN FORESE

 

Wie beginnen?

Wie können Vermarkter mit datengesteuertem Marketing beginnen? Brad Brown schlägt vor, dass sich Manager zunächst die Frage stellen: “Wo könnte die Datenanalyse Quantensprünge in der Unternehmensleistung bringen?” Die nächsten Schritte sind die Definition einer Strategie für die Datenanalyse und deren Umsetzung.

Für Großunternehmen mag dies ein gültiger Ansatz sein, für den Mittelstand erscheint er jedoch nicht angemessen. Dieses Szenario beschreibt eine Technik auf der Suche nach einer Daseinsberechtigung. In mittelgroßen Organisationen nennt man das “Karren vor dem Pferd spannen”.

In einem kurzen “How-to”-Artikel spricht sich Thomas Redman für folgende Schritte zur Datenanalyse aus:
• eine Frage formulieren und aufschreiben
• die Daten sammeln
• Bilder zeichnen, um die Daten zu verstehen
• die “Na und?” Frage stellen.

Die “Na und?”-Bewertung sagt uns, ob das Ergebnis interessant oder wichtig ist. Viele Analysen enden an dieser Stelle, sagt Redman, denn es keinen Wert jenseits des “na und” gibt.

Da Mittelständler es sich leisten können, weder Zeit noch Ressourcen zu verschwenden, ist es sinnvoller, die „Na und?“-Frage zu stellen, bevor wir überhaupt anfangen, die Daten zu sammeln. So können wir uns auf die Fragen konzentrieren, die zu interessanten und wichtigen Ergebnissen führen.

 

Gemeinsame Datenstandards

Um die Daten analysieren zu können, müssen wir sie in die Hände bekommen. Data Mining – das Identifizieren und Verwenden der bereits vorhandenen Daten – ist ein sinnvoller Ausgangspunkt. Und doch beginnen hier die Schwierigkeiten.

Unternehmen halten oft Daten in mehreren Systemen. Systeme, die ursprünglich für verschiedene Geschäftseinheiten, Abteilungen oder organisatorische Funktionen entwickelt wurden. Diese Systeme wurden oft ohne Bezug zueinander gebaut. Daher verwenden sie häufig inkonsistente Datendefinitionen und -strukturen – selbst für einfachste Attribute.

Die internationale Norm ISO-3166 zum Beispiel definiert verschiedene Möglichkeiten, Länder zu beschreiben: Alpha-2, Alpha-3, UN M49, Name. (also: Deutschland, DE, DE, DEU, 276). Um Systeme mit unterschiedlichen Definitionen zu verbinden, muss die Struktur zuerst erkannt und dann in ein gemeinsames Format übersetzt werden, bevor die Daten zur Analyse kombiniert werden können. In sehr alten Systemen haben die Programmierer jedoch möglicherweise keine ISO-Codes für Standardabmessungen und -eigenschaften verwendet, was weitere Komplikationen und zusätzlichen Aufwand mit sich bringt.

 

69% der Organisationen sind nicht in der Lage, eine umfassende, einheitliche Kundensicht zu bieten.

 

Silos erschweren die Verwaltung und Analyse unternehmensweiter Daten. Dieses Beispiel ist nur die Spitze des Eisbergs. Es genügt zu sagen, dass die Integration von Daten aus einer Vielzahl von Silos langsam und ressourcenintensiv ist. Unternehmen, die durch Akquisitionen gewachsen sind, werden diese Situation nur zu gut kennen. Anstatt zu versuchen, zwei völlig unterschiedliche Systeme zu integrieren, ist die übliche Entscheidung, das eine zu behalten und das andere zu schließen.

Hier ist noch ein weiterer Faktor am Werk. Die Realität ist, dass alte Systeme alte Geschäftspraktiken widerspiegeln. Und das hat zwei wichtige Auswirkungen, die beide unangenehm sind. Einerseits ist die Art und Weise, wie Daten heute gespeichert und verarbeitet werden, nicht unbedingt relevant für die Entscheidung, welche Prozesse Sie heute oder morgen benötigen. Umgekehrt ist auch das Gegenteil möglich: Es kann durchaus Typen oder Kategorien von Daten geben, die Sie für eine Analyse benötigen, die einfach nicht so verfügbar sind, wie Sie es wünschen, weil sie nie auf diese Weise gesammelt wurden.

Ein Beispiel hierfür ist der Softwareanbieter, der ein Bündel von Produkten über einen einzigen Vertrag mit einem einzigen Preis auf der Rechnung und einem einzigen Zeileneintrag im CRM verkauft hat. Es war nicht möglich, die Marktdurchdringung, die Umsatzzuordnung oder die Wettbewerbssituation für jedes einzelne Softwareprodukt im Bundle genau zu analysieren. Die Informationen konnten nicht einmal durch die Analyse der technischen Supportanfragen der Kunden abgeschätzt werden. Der Mangel an Informationen und Erkenntnissen auf dem gewünschten Detaillierungsgrad erschwerte die Budgetvergabe, Investitionen in die Produktentwicklung und die Planung von Marketingaktivitäten.

 

72% der Unternehmen geben an, dass die Verwaltung mehrerer CRM-Systeme in verschiedenen Regionen/Technologiesilos eine Herausforderung ist.

 

Als nächstes: Sie wollen oder müssen Daten aus zwei verschiedenen Systemen kombinieren – nur um zu sehen, dass sie auf eine völlig andere Art und Weise entworfen wurden, wie die Welt funktioniert.

Ein klassisches Beispiel ist der B2B-Marketer, der eine “Single View of the Customer” will. Dazu sollten Daten aus dem CRM mit Daten aus dem Online Marketing System kombiniert werden. Das ist leichter gesagt als getan. In der B2B-Welt sind CRM-Systeme um die grundlegende Einheit einer Kundenorganisation herum konzipiert, die jeweils mehrere Ansprechpartner haben kann. Im Gegensatz dazu ist die Grundeinheit eines Online Marketing Systems ein Ansprechpartner – und dieser kann auch ohne Zugehörigkeit zu einem Unternehmen existieren.

Die Abbildung von Kontakten aus beiden Systemen gegeneinander verursacht Kopfschmerzen, egal in welche Richtung man versucht, sie zu lösen. Das Problem ist, dass einige Daten einfach nicht integriert werden können – und daher für die Analyse unbrauchbar sind. Jeder Datenverlust in der Analyse bedeutet einen Verlust an Genauigkeit in der Auswertung.

“Müll rein, Müll raus” ist seit jeher ein Mantra der Informatik; das Bedürfnis nach Datenqualität wird erkannt und verstanden. Doch wieder einmal steht die Realität den beiden Hauptmerkmalen der Datenqualität im Weg. Datenvollständigkeit bedeutet, dass Sie, wenn Sie ein Merkmal zu einer Datenbank hinzufügen möchten, diese Informationen in der gesamten Datenbank hinzufügen müssen. Auch wenn Sie Daten sammeln wollen, müssen diese korrekt sein – sowohl zum Zeitpunkt der Erfassung als auch später zum Zeitpunkt der Analyse.

Wie wir wissen, befindet sich die Welt in einem ständigen Wandel. Dun and Bradstreet – eine Organisation, die Bonitätsbewertungsdienstleistungen für Unternehmen anbietet – investiert große Anstrengungen, um ihre Aufzeichnungen von Millionen von globalen Organisationen auf dem neuesten Stand zu halten. Das Unternehmen weiß nur zu gut, wie schnell sich die Welt verändert.

 

Jede Minute eines achtstündigen Arbeitstages:
• 211 Geschäft wird umziehen
• 429 geschäftliche Telefonnummern ändern sich
• 284 Geschäftsführer oder Geschäftsinhaber wechseln.
DUN & BRADSTREET

 

Angesichts der großen Datenmengen und der schnellen Veränderungsgeschwindigkeit ist klar, dass ein einmaliges Datenanalyseprojekt eine sehr begrenzte Halbwertszeit zur Unterstützung der Entscheidungsfindung haben wird.

 

Zugänglichkeit in Echtzeit

Umso regelmäßiger die Datenanalyse, umso wichtiger die Datenqualität. Die Schritte der Datenerhebung, -bereinigung und -integration müssen effizient und effektiv wiederholt werden.

Zur Verbesserung der Datenqualität plädiert Thomas Redman für den Aufbau eines Prozessmanagement-Kreislaufs. Der erste Schritt ist die Messung der Datenqualität, der zweite die Entscheidung, mit welchem Ansatz die Qualität verbessert werden soll. Redman listet und kommentiert drei Möglichkeiten:
1. Unmanaged – nicht empfohlen.
2. Finden und beheben – ressourcenintensiv.
3. Vermeiden Sie Fehler an der Quelle – die beste Option.

 

“Die Verbesserung der Datenqualität erfordert einen kulturellen Wandel innerhalb der Organisation.”
THOMAS C. REDMAN

 

Die Vermeidung von Fehlern an der Quelle impliziert eine Veränderung in der Praxis. Anstatt die Analyse als eine Aktivität (ob manuell oder Batch) durchzuführen, muss sie neu gestaltet werden, um ein laufender Prozess zu werden. Eine fortschrittlichere Denkweise besteht darin, Geschäftsprozesse so umzugestalten und zu implementieren, dass sie automatisch die Daten generieren, die für die Analyse benötigt werden. Daten als Nebenprodukt des täglichen Geschäfts. Dieser Übergang von der Tätigkeit zum Prozess ist ein zentraler und wiederkehrender Aspekt der digitalen Transformation im Marketing.

 

Datenanalyse

Die Datenanalyse beschreibt den Prozess der Überprüfung, Bereinigung, Transformation und Modellierung von Daten, um Erkenntnisse zu gewinnen, die die Entscheidungsfindung unterstützen.

Durch die Festlegung von Baselines können Marketer Muster wie z.B. Saisonalität erkennen. Durch die Unterscheidung zwischen Rauschen und Signal können mittelfristige Trends genau identifiziert werden, so dass Vermarkter schneller auf sich entwickelnde Märkte reagieren können.

Scott Neslin befürwortet die Analyse der Aktualität der Umsatz, um zu untersuchen, ob ein Marketingbudget in einen Kunden investiert werden soll oder nicht. Er räumt ein, dass die Ergebnisse mehrdeutig sein können. Der vernünftige Ansatz, sagt er, sei es, aus den Daten einen Aktionsplan abzuleiten, ihn zu testen und die Ergebnisse zu messen.

 

“Aus Kundendaten entstehen viele Geschichten.
Der Trick ist herauszufinden, welche Geschichte man hören soll.”
SCOTT A. NESLIN

 

Für Harald Fanderl besteht der größte Wert der Analyse darin, “Ursache und Wirkung zu lokalisieren und Vorhersagen zu treffen”. Um Kundenreisen zu verbessern, untersucht Fanderl nur die ersten drei bis fünf, die am meisten zum Kunden und zum Ergebnis beitragen. “Schränken Sie den Fokus ein, um das Datengewirr zu durchbrechen und Prioritäten zu setzen”, sagt er.

Was ist mit Vertriebsleitern – welche Kennzahlen sollten sie verfolgen? Scott Edinger misst den Prozess lieber als das Ergebnis, weil die Manager die Kontrolle über den Prozess haben, während das Ergebnis durch eine andere Variable bestimmt wird, die nicht kontrolliert werden kann (wie z.B. der Kauf durch die Kunde).

 

“Das Management der Dinge, die du kontrollieren kannst,
gibt dir die besten Chancen auf Erfolg.”
SCHOTT EDINGER

 

Die einfachsten Analysefragen können enorm mächtig sein. Michael Schrage fragt nach dem Pareto-Prinzip, welche 20% der Kunden 80% der Gewinne erwirtschaften. Und dann wiederholt er diesen Ansatz, um die profitabelsten Segmente für zukünftiges Handeln zu identifizieren.

 

“Erfahren Sie, welche Kunden profitabel sind und welche nicht.
Es macht es leichter, die Chancen zu erkennen.”
CHRIS BRIGGS

 

Das Ziel, sagt Chris Briggs, ist es: “Treffen Sie fundierte Entscheidungen und lassen Sie sich nicht von den Zahlen in die Irre führen.” Aber das ist alles andere als einfach. Wie Andrew O’Connell und Walter Frick feststellen, lügen die Zahlen nicht: “kann rutschig, kryptisch und manchmal auch doppelzüngig sein. Ob sie nun Erkenntnisse über Ihre Kunden, Produkte oder Mitarbeiter repräsentieren, sie können wahnsinnig offen für Interpretationen sein.”

 

Erweiterte Analytik

Eine gute Analyse liefert einem Marketer Referenzdaten mit Vorhersagekraft. Diese Einsichten sind mehr als nur ein einmaliges Ereignis; sie sind Muster, die Grundlinien, Trends und Beziehungen beschreiben.

Es gibt verschiedene Arten von Mustern, die sowohl in der natürlichen als auch in der künstlichen Welt regelmäßig auftreten: Standardverteilungen; Zeitreihen; 80:20 Pareto-Beziehungen; Leistungskurven mit Longtail-Verteilungen; direkte und indirekte kausale Beziehungen. Diese beschreiben jeweils einen anderen Kontext für die Analyse.

Der Ansatz, diese Muster zu finden, wird zum Teil von den verfügbaren Ressourcen abhängen. Wenn große Datenmengen von hoher Qualität (Vollständigkeit und Genauigkeit) aus wenigen Systemen leicht verfügbar sind und wenig Integrationsaufwand erfordern, kann maschinelles Lernen eine gute Option sein. Maschinenlernende Software erkennt Muster in Daten und verwendet sie, um Vorhersagen zu treffen. Der Arbeitsablauf besteht also darin, die Maschinen die Muster in den Daten identifizieren zu lassen und dann die Muster auf ihre Vorhersagekraft zu testen.

Aber wer genau wird die Analyse durchführen? Und was tun Sie, wenn Ihr Unternehmen nicht über die erforderlichen Fähigkeiten oder Werkzeuge verfügt? “Kleine und mittlere Unternehmen sind oft von den Kosten und der Komplexität des Umgangs mit großen Mengen an digitalen Informationen eingeschüchtert”, sagt Phil Simon Seine Lösung: Stellen Sie externe Datenwissenschaftler über Websites wie Kaggle [www.kaggle.com] ein.

 

“Mit Kaggle können Sie Datenwissenschaftler ganz einfach für sich arbeiten lassen,
und die Miete ist viel billiger als der Kauf.”
PHIL SIMON

 

Fehlen dagegen Datenvolumen oder -qualität oder erfordert die Integration aus unterschiedlichen Systemen viel Zeit und Aufwand, dann ist es am besten, zunächst den Umfang des Projekts einzuschränken. Marketer tun dies, indem sie sich auf eine klar definierte Hypothese konzentrieren, bevor sie definieren, welche Daten notwendig sind und welche Analyse die Hypothese beweisen oder widerlegen wird.

 

“In einer Welt, die von Daten überschwemmt ist, gibt es zu viel davon, um einen Sinn zu ergeben.
Man muss zu den Daten mit einer Einsicht oder Hypothese kommen, um sie zu testen.”
JUDY BAYER UND MARIE TAILLARD

 

Kern des datengesteuerten Marketings ist die Fähigkeit, aussagekräftige Fragen zu stellen. Fragen stellen ist eine Fähigkeit. Es ist möglich, sie zu entwickeln und mit der Zeit besser zu werden.

Ein Ansatz besteht darin, das Problem zurückzuentwickeln und die wirklich mächtigen Fragen zu identifizieren, indem man mit einem klar definierten Ziel beginnt:
• Welche Entscheidung wollen Sie treffen?
• Welche Erkenntnisse werden diese Entscheidung ermöglichen?
• Welche Fragen werden diese Erkenntnisse generieren?
• Welche Daten benötigen Sie, um diese Fragen zu beantworten?

Manager, die ihr Wissen über ein Thema und ihre Erfahrung in einem Bereich verinnerlicht haben, wissen – scheinbar intuitiv – welche Fragen beantwortet werden müssen und ob es sich lohnt, in eine rigorose datengetriebene Analyse zu investieren. Vielleicht ist das der Grund, warum auf Seite 7 des Forester-Berichts steht: “48% der Unternehmen nutzen Intuition über Daten, um ihre Entscheidungen zu lenken”.

 

Mensch oder Maschine

Wer trifft also die besseren Entscheidungen – der Mensch oder die Maschine? Andrews McAfee ist einer von mehreren Autoren, die diesen Bereich erforscht haben. Seiner Ansicht nach “werden datengesteuerte Unternehmen Marktanteile, Kunden und Gewinne denjenigen wegnehmen, die sich noch zu sehr auf ihre menschlichen Experten verlassen”.

“Wenn Experten ihr Urteil auf die Ausgabe eines datengesteuerten Algorithmus anwenden, tun sie es in der Regel schlechter als der Algorithmus allein”, berichtet er. “Die Dinge werden viel besser, wenn wir diese Sequenz umdrehen und den Experten das Modell beeinflussen lassen.”

McAfee zitiert aus Ian Ayres Buch Super Crunchers: “Anstatt die Statistik als Diener der Expertenwahl zu haben, wird der Experte zum Diener der statistischen Maschine.” Mit anderen Worten, die Aufgabe des Experten ist es, dafür zu sorgen, dass der Prozess besser funktioniert: “Qualitätsdaten rein, Qualitätseinblicke raus”.

 

“Die größte Herausforderung jeder Organisation in einer Welt voller Daten ist die Zeit, die sie braucht, um eine Entscheidung zu treffen.”
TOM DAVENPORT

 

Damit kommen wir zur Frage, was wir eigentlich mit den Ergebnissen machen. Es ist vielleicht eine gute Idee, sich Tom Davenports Kommentar zu den Entscheidungen anzuhören. Letztlich macht es wenig Sinn, Zeit und Mühe in datengesteuertes Marketing zu investieren, wenn Ihr Managementteam die Erkenntnisse nicht zeitnah umsetzen kann oder will.

This post is also available in: English

0 Kommentare

Dein Kommentar

An Diskussion beteiligen?
Hinterlasse uns Deinen Kommentar!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.