Tailwind App – ein Pinterest-Analytics Tool

Pinterest-Analytics Tools hab ich schon einige beschrieben. Die Tailwind App ist mittlerweile ziemlich wichtig geworden. Sie hat 9.000 Kunden. Das ist nicht zu unrecht so. Mir gefällt das Werkzeug ausgesprochen gut. Es ist für alle alle Unternehmensgrößen einsetzbar und eine richtig gute Hilfe wenn man den eigenen Erfolg auf Pinterest monitoren und Potenziale zu Optimierung finden möchte. Ich kann den Test des Werkzeugs nur empfehlen. Immerhin hat das Unternehmen jetzt 15 Mitarbeiter. Das garantiert aus meiner Sicht den stabilen Bestand des Werkzeugs.

Das Tailwind App Dashboard

Der gute Eindruck beginnt schon mit dem Dashboard. Es ist aufgebaut wie das bei einem Dashboard der Fall sein sollte. Am Kopf sieht man 4 KPIs und deren Entwicklung. Darunter befindest sich eine Abbildung, die sich auf jede der Kennzahlen anwenden lässt. Die Übergänge in den Ansichten sind wirklich sehr schön gelöst. Ich muss sagen, dass ist wirklich toll gemacht. Neben Standard-Zeitschnitten kann man das Tailwind App Dashboard auch auf selbst gewählte Zeitschnitte anpassen.

Das Tailwind App Dashboard
Das Tailwind App Dashboard

Das ist nicht alles. Das Dashboard hat im unteren Bereich drei Performance Scores. Dabei wird der für Pinterest wichtigste Wert zuerst gezeigt: Die Viralität. Also der Wert der angibt, wie stark sich die Pins verbreiten. Im Engagement Score wird dies dann zusätzlich auf die Zahl der Follower bezogen. BTW: Ich finde es sympathisch und professionell, dass die Kennzahlen im FAQ des Hilfebereichs alle sauber definiert werden. Das gibt es auch nicht bei jedem Werkzeug.

Die Zahlen kann man sich übrigens auch noch bezogen auf die einzelnen Boards eines Accounts ausgeben lassen. Gerade bei Unternehmen mit vielen Produktsparten erleichtert das die Übersicht. Alle Daten sind übrigens in der Professional Version als CSV exportierbar. Erschrecken Sie bitte nicht, wenn Sie das zum ersten mal machen. Sie erhalten für jeden einzelnen Tag einen Eintrag. Was im ersten Moment vielleicht ein wenig unübersichtlich wirkt, ist super, wenn man die Daten weiterverarbeiten möchte.

TailwindApp Engage Modul

Die TailwindApp zeigt einem übrigens auch bei welchen Nutzern sich ein wenig Engangement lohnt. Dabei ist bekommt man Übersichten hinsichtlich der Pin- und Repin-Aktivitäten. Es wird gezeigt, welchen der Pinner man folgt und welchen nicht. Durch einen einfachen Klick gelangt man zu den Accounts der relevanten Pinner.

TailwindApp Followers
TailwindApp Followers

Was hier noch ganz hübsch und sinnvoll aussieht, wir dann datenschutzrechtlich bedenklich, wenn man die Übersicht der Pinner von der eigenen Website ansieht. Diese Option hilft herauszufinden wer ein wahrer Fan ist. Gleichzeitig ist diese Transparenz schon ein wenig erschreckend – auch wenn in diesem Fall nur der Eigentümer eines Accounts diese Information bekommt.

TailwindApp Content Optimierer & ROI

Ich zweifele ein wenig – ist es schwer oder leicht über die Tailwind App zu schreiben? – Das Werkzeug ist einfach ziemlich umfangreich und dafür, dass es Pinterest erst so kurz gibt gewaltig gut. Man kann damit die Engagement-Zahlen zu den eigenen Pins entsprechend verschiedener Zeitschnitte bekommen. Es ist möglich zu filtern. Das ist einfach toll und zeigt wohin die Reise gehen soll. Man sieht eben sehr schnell, welche Pins erfolgreich sind und welche nicht. Dies kann sogar abhängig vom Pin-Zeitpunkt analysiert werden. OK – es ist auch stark vom Zeitpunkt des Pinnens abhängig.

TailwindApp Engagement Zeitpunkte
TailwindApp Engagement Zeitpunkte

Die Entwickler wählen die mittlerweile für diesen Zweck übliche Darstellung – vielleicht kennen Sie diese im Zusammenhang mit Twitter aus SocialBro. Noch ist es nicht möglich europäische Zeitzonen zu wählen. Das wird mit zunehmender Aktivität von Pinterest ist Europa sicher bald kommen. Mir wurde gesagt, dass dieses mit einem der nächsten Updates kommen wird.

Möglich ist schon die Verknüpfung mit einer Google Analytics Property. Das sollte in den meisten Fällen ausreichend sein, um den ROI vom Pin an sich bis zu Käufen durchzumessen. Wenn man allerdings mehrere Websites betreibt und diese mit unterschiedlichen Properties misst, wäre die Verbindung mit mehreren Properties hilfreich. Auch dies kann ja noch kommen – es wurde wohl schon von einigen Kunden gewünscht.

 

TailwindApp Konkurrenzbeobachtung

Wie gesagt: Die TalwindApp hat schon ziemlich viel von dem drin, was man in den Social Media Analytics so braucht. Möglich ist ja an einigen Stellen deutlich mehr als bei der Analyse der eigenen Website. So können viele Daten auch für Wettbewerber analysiert werden. Das ist in der TailwindApp sehr leicht konfigurierbar und ziemlich gut gestaltet.

TailwindApp Benchmarks
TailwindApp Benchmarks

In der Abbildung können Sie sehen, wie cipr, Klaus Eck und ich eigentlich relativ einträchtig nebeneinender die Zahl von Pins aufbauen. Der Kollege Klaus Eck fällt etwas ab, dafür schließt Christian Müller, den Sie vielleicht von der Karrierebibel kennen, stark auf. Man kann das Ganze auch auf der Basis weiterer Kriterien – Followern, Repins, Likes und Kommentaren – analysieren. Viel spannender dürften für Unternehmen jedoch die Domain-Benchmarks sein. Darin wird gezeigt, wie stark von den Websites der Wettbewerber gepinnt wird.

Resümee

Die TailwindApp hat auch eine Nutzerverwaltung, man kann sich auch Reports per E-Mail zuschickten lassen (auch mit CSV-Anhang) und es gibt noch einige weitere Merkmale, die das Tool richtig erwachsen und andere kleinere Werkzeuge überflüssig erscheinen lassen.  Ich finde das Werkzeug richtig gut. Die 99 US$ für die Pro Version ist angemessen und lohnend für Unternehmen, die sich auf Pinterest engagieren. Das wir immer wichtiger, das Pinterest nun in der Werbemarkt einsteigt und sich schon große Markenartikler für Werbung auf Pinterest interessieren.

 

Analytics umfassender gestalten. Emotionale und kognitive Effekte nicht ignorieren!

In diesem Beitrag schildere ich, welche Daten in Analytics Systeme integriert werden sollten, um Marketing-Aktionen umfassender zu kontrollieren und zu optimieren. Angeregt wurde ich durch zwei Veranstaltungen, die mir eigentlich recht gut gefallen haben: Die d3con und der Analytics Summit. Beide finden auch 2014 wieder in Hamburg statt. Auf beiden wurde viel über Performance diskutiert. Allerdings wurde auf beiden – zumindest unterschwellig – formuliert, dass Facebook nicht wirklich der Hit ist. Social Media ganz allgemein scheint aus der Perspektive der Performance Marketer nicht wirklich so dolle zu sein. Pinterest ist dabei eine Ausnahme, zumindest in den USA.

Was die Überleitungen auf die gewünschten Zielseiten betrifft, stimmt das tatsächlich. Dabei schneiden Pinterest und Twitter erheblich besser ab als Facebook. Wahrscheinlich hat die Abwertung durch die Referenten mit den Veranstaltungen an sich zu tun. Wer auf Perfomance aus ist, ignoriert offensichtlich emotionale und kognitive Effekte von Werbemaßnahmen. Man verschwendet kaum einen Gedanken daran – was zählt, ist die Generierung von Goals.

In der Analytics werden Handlungen gemessen

Dabei ist man mittlerweile so weit, dass man die Customer Journey wenigstens in Form von Kontakten mit einer Zielseite misst. In Google Analytics kann man diese Kontakte mittlerweile mit relativ einfachen Modellen optimieren. Es ist nicht mehr der letzte oder der erste Cookie, der gewinnt, wenn es um die Bewertung von Werbemaßnahmen geht. Wenn es sinnig erscheint, kann man auch mit der „Badewanne“ arbeiten. Dabei werden die Haupteffekte dem ersten und letzten Kontakt vor der Conversion zugeschrieben. Komplexere Modellberechnungen können in der nicht ganz billigen Premium-Version von Google-Analytics erfolgen. Soweit ist das schön und gut. Allerdings scheint mir diese Optimierung ein wenig kurzfristig und mehr oder weniger für den E-Commerce geeignet. Je länger die Beschaffungszyklen für Produktklassen sind, umso mehr sollte man aufpassen. Die alleinige Konzentration auf die Optimierung von Goals ist zu wenig (auch wenn in vielen Fällen Goals denkbar sind, die sehr lange vor einem erneuten Beschaffungsvorgang liegen). Klassifiziert man den derzeitigen Stand der Web-Analytics nach sozialwissenschaftlichen Maßstäben, handelt sich dabei um non-reaktive Forschung, wobei eine Vollerhebung angestrebt wird.

Modellverschiebung im Vergleich zur klassischen Mediaforschung

Es handelt sich dabei um eine grundsätzliche Modellverschiebung im Vergleich zur Vor-Internet-Zeit und im Vergleich zur noch üblichen TV- oder Print-Mediaforschung. Dabei handelt es sich größtenteils um reaktive Forschung – Befragungen. Im Bereich der non-reaktiven Forschung handelt es sich um Testverfahren, die in den meisten Fällen auch noch weit von Repräsentativität entfernt sind. Auch werden nur in Ausnahmefällen die Goals dokumentiert:  Beispielsweise im GfK-Testmarkt Hassloch. Diese Verfahren werden vorwiegend bei der Produktneueinführung eingesetzt, um die Erfolgswahrscheinlichkeit derselben zu testen.

Beurteilung von Pint-, Radio-, TV-Werbung etc.

Um die Sinnhalftigkeit von Werbemaßnahmen im Fernsehen, in Zeitungen- und Zeitschriften zu beurteilen, gibt es großangelegte Markt-Media-Studien – beispielsweise die Studien der agma.

Das Allmedia-Dach der agma
Das Allmedia-Dach der agma (Quelle: agma)

Wie ersichtlich, wird hier auch Online einbezogen. Allerdings höre ich gerade von Analytics-Experten immer wieder Aussagen wie „Was ist den das für ein Quatsch!“ oder „Das taugt doch nix!“. Aus meiner Sicht disqualifizieren solche Aussagen zu unrecht.  Haben Markenartikler seit über 50 Jahren nur Quatsch gemacht? – Wohl kaum. Es wahr und ist der wichtigste Ansatz, um im weitesten Sinne emotionale und kognitive Effekte von Werbung zu messen. Die Schaltung und Optimierung erfolgt dann nach Kontaktklassen. Parameter, nach denen optimiert wird, sind  Markenerinnerung und Kaufbereitschaft. Diese werden beispielsweise in der Typologie der Wünsche abgebildet. Dabei werden u.a. auch die so wichtigen Sinus Milieus als zusätzlicher Parameter genutzt.

Emotionale und kognitive Effekte sind den Handlungen vorgelagert

Idealtypisch müssten beide Methodenklassen ineinandergreifen. Prinzipiell sind emotionale und kognitive Effekte den Handlungen vorgelagert. Sie bilden sozusagen die Grundlage für Handlungen:

Methoden und Ziele
Methoden und Ziele

Im klassischen Marketing ist es so, dass das was da in der Analytics gemessen wird, eine Blackbox darstellt, während im aktuellen Online-Marketing die emotionalen und kognitiven Effekte – zumindest die außerhalb des Internet – die Blackbox darstellen. An der Verbindung beider Welten muss gearbeitet werden. Allerdings beschleicht mich der Eindruck, dass das Interesse auf beiden Seiten nicht sonderlich groß ist.

Die Ansatzpunkte sind auf beiden Seiten verhalten. Planung erfolgt unter Zuhilfenahme der AGOF-Zahlen, die mit Hilfe von connect direkt in die Datenbanken von Mediaganturen transferiert werden können. Das betrifft Großunternehmen oder solche, die auch in größerem Maße auf Print- und TV-Werbung setzen. Mitunter werden TV-Einschaltquoten mit in die Online-Planung und die Auswertung einbezogen. IntelliAd erlaubt beispielsweise diese Form des Multi-Channel-Tracking. Allerdings weiß man noch immer nicht, ob ein Fernsehzuschauer nun tatsächlich auch einen Werbespot gesehen hat, bevor er danach eine messbare Aktion startete. Ein gewaltiger Fortschritt ist dies dennoch – auch wenn noch ein sehr langer Weg bevorsteht. Zumindest scheint sich der BVDW bereits in den Gremien zu engagieren. Matthias Ehrlich, Präsident des BVDW, äußerte dies kürzlich in einem adizne-Interview.

Werbemaßnahmen ohne Goal ignorieren? – Nein!

Wo will ich hin? – Zurück zu Facebook und den mageren Referrals, die es liefert. Wenn ein Kanal vorgelagert ist und besser für die Kundenbindung, CRM und Markenbildung geeignet ist als zur Generierung von Referrals, was soll man dann machen? Soll man das Pontenzial ungenutzt liegen lassen? – Nein. Ganz sicher nicht.

Man kann natürlich wie Thomas Hutter argumentieren und fordern, dass das Community-Management stärker auf die Generierung von Referrals und Goals ausgerichtet wird. In vielen Fällen ist das auch die Richtung, die man zusätzlich einschlagen sollte – das „Weg vom Blabla-Dialogkanal zur Performance Marketing Plattform“ und die Professionalisierung des Community-Management im Sinne der Erreichung von Marketingzielen ist notwendig.

Ich sehe das Dilemma an einer anderen Stelle: Die alleinige Konzentration auf das was im Rahmen der Web-Analytics messbar ist, führt möglicherweise dazu, dass sinnvolle Maßnahmen unterbleiben, weil deren Erfolg nicht quantifiziert werden kann. Was man derzeit in der Analytics versucht, kann man vielleicht so beschreiben: Das was Touchpoints in einen Trichter gegossen wird, soll möglichst bis zur Conversion optimiert werden. Mit Tag-Management-Systemen schafft man es auch Sichtkontakte mit Werbemitteln in die Analyse einzubeziehen. Das ist schon der richtige Weg. Man sollte nur nicht den Fehler machen, die Sichtkontakte alleine als Größe im Rahmen des Werbedrucks zu verstehen. Sie bauen auch Bekanntheit und Image auf und das sollte man eben auch versuchen einer Erfassung zuzuführen.

Ziele und der Conversion Prozess

Gehen wir einfach nochmal einen Schritt zurück und sortieren die Marketing-Maßnahmen entsprechend ihrer Rolle im Online-Marketing und insbesondere im Conversions-Prozess ein. Gleichzeitig wird dadurch auch deutlich, dass Maßnahmen, die besonders nahe an einer Conversion liegen auch Bindungsinstrumente sind. Ich habe das in der folgenden Abbildung einfach mal in einen Trichter sortiert. Im oberen Bereich sehen Sie den Prozess. Im unteren Bereich Marketing-Ziele.

Werbeziele und Conversions-Prozess
Werbeziele und Conversions-Prozess

Von der Platzierung von Facebook in der Abbildung habe ich mich gedrückt. Es ist aus meiner Sicht ein klasse Bindungsinstrument, das jedoch im Bereich der Conversions abschmiert und nicht wirklich dolle ist. Das trifft vielfach auch auf Smartphone-Apps zu. Diese sind auch ein gutes Bindungsinstrument – im Bereich der Conversions schneiden sie meist bescheiden ab.

Wenn nun versucht werden soll weitere Daten zu integrieren, dann muss strukturiert vorgegangen werden. Mit der Abbildung sollte deutlich geworden sein, dass

  • Maßnahmen unterschiedliche – und auch mehrere Positionen – im Verlauf des Prozesses zu Conversion einnehmen (können),
  • die Durchführung von Maßnahmen aufgrund der Notwendigkeit zum erreichen unterschiedlicher Ziele erfolgt und
  • es Werbemaßnahmen gibt, die gleiche oder ähnliche Ziele verfolgen, die online Goals erzeugen, jedoch nicht (oder nur bedingt) messbar sind.

Daneben gibt es noch eine weitere Dimension: Es gibt Online-Werbekontakte, die zu Offline Goals führen, die ebenfalls nicht gemessen werden oder nur mit größter Anstrengung mit den Online-Werbemaßnahmen in Verbindung gebracht werden können.

Ansatzpunkte zum Auf- und Ausbau einer umfassenden Analytics

Die Web-Analytics darf nicht weiter im eigenen Brei kochen und sich auf die Erfassung und Auswertung von Nutzerhandlungen im Web beschränken. Die Verfahren sind mittlerweile derart elaboriert, dass man sich daran machen sollte einen Schritt weiter zu denken und die Analytics auf weitere Bereiche des Werbemarkts auszudehnen. Hier skizziere ich einige Ansatzpunkte.

Ansatzpunkt 1: Mehr vorhandene Daten in das Analytics System integrieren und analysieren

Die Universal Analytics von Google werden hierbei eine große Rolle spielen. Es ist relativ einfach Fremddaten zu integrieren, um darüber zu optimieren. Dabei handel sich um Daten, die ohnehin schon recht gut strukturiert vorliegen. Man kann diese Daten in verschiedene Klassen unterteilen:

1.1 Im Rahmen des Online-Marketing entstandene Daten

  • Linkverkürzer – also bit.ly & Co. inklusive Eigenentwicklungen. In vielen Fällen wird dies bereits praktiziert.
  • Social Media Analytics Daten aus den Schnittstellen der Netzwerke. Eine spannende Frage aus diesem Bereich ist beispielsweise, ob die Fans eines Unternehmens oder eine Marke auf einem bestimmten Netzwerk mehr kaufen als solche die keine Fans sind
  • Daten aus Tag Management Systemen
  • Daten aus AdServern, v.a. Reichweiten und Platzierungsinformationen. So kann man beispielsweise auch feststellen, ob Goals ohne Handlung in Form von Klicks durch den direkten Aufruf einer Website auf Werbekontakte zurückzuführen sind.
  • Auffüllen mit demographischen Daten, wie dies derzeit mit Google Analytics möglich ist.

1.2 Daten zu Offline-Werbemaßnahmen und mit Offline-Verfahren erhobenen Daten

Diese Daten können dann mit den bereits vorhandenen demographischen Daten gematcht werden:

  • Daten der agma & AGOF
  • GfK-Zahlen
  • Daten aus weiteren Markt-Mediastudien

Es handelt sich auf dieser Ebene um aggregierte Daten.

1.3 Rahmendaten

  • Wetterinformationen (hier hat Timo Aden aus dem Analytics Summit gezeigt wie es geht und Ed Brocklebank war sehr früh dran mit dieser Idee)
  • Fernsehprogramm
  • Verkehrssituation
  • etc.

Auch hier handelt es sich um aggregierte Daten.

Ansatzpunkt 2: Verbindung mit Offline-Convertions

Hier geht es darum, den Weg aus dem Netz zu kontrollieren und zu erfassen. Vielfach informieren sich Konsumenten vor der Beschaffung höherpreisiger und längerlebiger Produkte im Web und beschaffen diese dann offline. Auch hierbei sollte die im Internet erbrachte Media-Leistung bewertet werden.

Die Herausforderung besteht an dieser Stelle darin einen Identifizierungmerkmal zu finden, das die Zusammenführung der Daten erlaubt. Voll umfänglich wird dies nicht gelingen. Barverkäufe sind an dieser Stelle der kalte Schrecken des Analysen, wenn der Käufer nicht zufällig noch ein anderes Identifikationsmerkmal hinterlässt. Die Datenschutzbestimmungen stellen einem mitunter auch ein Bein.

Um es etwas zu vereinfachen: Es wird immer wichtiger werden Nutzer zur Registrierung und zum Login zu führen und sei es nur eine Minimal-Registrierung über ein Social Login von Facebook, Twitter oder Google+, um Wissen über seine Kunden zu erlangen, das mit Daten in der Offline-Welt verknüpft werden kann. So freundlich in beiden Fällen – On-und Offline – eine Kreditkartennummer zu hinterlassen, werden nur wenige Kunden sein.

Merkmale können beispielsweise sein:

  • Name
  • Geburtsdatum
  • Telefonnummer / Mobilnummer
  • Adresse
  • GPS-Koordinaten

Ansatzpunkt 3: Gewinnung von Rohdaten für weitere elektronische Medien

Aus meiner Sicht fehlt fehlt noch der Schritt zu Kontaktdaten übrigen elektronischen Medien auf individueller Ebene. Hier habe ich ohnehin den Eindruck, dass Google eine weitere Lead-Funktion übernehmen wird und in absehbarer Zeit zu einem der wichtigsten Fernsehvermarkter aufsteigen kann. Schon jetzt sollte es bald möglich sein, die wirklichen Kontaktzahlen von Werbespots zu messen. Smart-TVs können Zusatzmaterial der Sender einblenden und ermöglich den direkten Response. Dabei sollte man nicht vergessen, dass dieser Response eine Unterbrechung der Tätigkeit darstellt, die der Nutzer ausüben möchte – nämlich die Sendung ansehen. Aus dieser Perspektive sollten die Erfolge von Werbeformen, die auf den direkten Response ausgerichtet sind, nicht all zu groß sein. Deshalb wird es noch wichtiger die Reichweiten der Spots zu qualifizieren.

Etwas nachdenklich stimmt an dieser Stelle die Tatsache, dass die in der AGF versammelten Fernsehforscher an ihren Panels festhalten. Es wurde ein 25.000er Panel aufgebaut, um die Online-Einschaltquoten zu messen. Wegargumentiert wurde dies mit der Vermutung, dass der zeitversetzte TV-Konsum nur einen geringen Teil der gesamten Sehzeit ausmache. Aus meiner Sicht ist das falsch und von der Seite der Web-Analytics sollte gezeigt werden, welche Möglichkeiten es gibt. Wenn man schon einen Fernsehspot auf SAT1.de, voxnow.de oder sonstwo im Web schaltet nicht auch die Reichweite mit einem AdServer oder Google Analytics messen?

Ansatzpunkt 4: Gewinnung von Rohdaten Printmedien und weitere Werbemaßnahmen

Als Verlierer in diesem Spiel könnten sich ein weiteres Mal die Printmedien herausstellen. Ohne elektronischen Anschluss sind diese nur bedingt messbar. Integrationsansätze gehen häufig schief. So war der QR-Code beispielsweise ein Hoffnungsträger der Anzeigen und Plakatwerbung den Anschluss zum Internet eben sollte. Leider stellte sich das Verfahren mehr oder weniger als Holzweg heraus. Ausgesprochen selten werden damit dreistellige Resultate erreicht. Meist bleibt das Ergebnis im einstelligen Bereich und kommt bei Plakaten nicht über die Testklicks hinaus.

Man wird also etwas tiefer in die Trickkiste greifen und auf technische  Innovationen warten müssen, um solche Werte auf individueller Ebene erheben zu können. Wieder einmal spielt hier Google die Vorreiterrolle. So könnte Google Glas die erste Applikation sein, mit der die Verbindung von Print und Internet erfolgreich hergestellt werden kann. Ähnliches darf man von Assistenz-Anwendungen in Fahrzeugen erwarten, wenn diese von Internet-Konzernen und nicht von Automobilherstellern entwickelt werden.

Web-Analysen legt los und arbeitet an der Datenintegation

Bisher habe ich sorgfältig einen Begriff vermieden: Big Data. Genau das ist es worum es hier geht. Es geht darum Daten aus den unterschiedlichsten Quellen zusammenzuführen und daraus zu optimieren. Ich bin überzeugt davon, dass Web-Analysten hier die besten Vorraussetzungen mitbringen. Sie müssen nur stärker konzeptionell arbeiten, über den Tellerrand hinausschauen, sich dem allgemeinen Marketing und den Anforderungen der Mediaplanung für Print und TV öffnen, dann wird das etwas. Dass es Hürden in den Bereichen Datenschutz und Technik gibt sollte als Herausforderung verstanden werden. Man sollte eben immer brav ein Einverständnis der Konsumenten einholen und mit anonymisierten Daten arbeiten.

 

 

Goldbach Interactive – Social Media Monitoring Tool Report 2013

Es ist nicht meine Art, fremden Content auf meinem Blog zu platzieren. Hier halte ich es ausnahmsweise für angebracht. Goldbach Interactive hat sich wieder die Arbeit gemacht und superviele Monitoring Tools angeschaut.

Auch wenn ich zu einigen Ergebnissen meine eigene Meinung habe und für diskussionswürdig halte, sollte man sich schon anschauen was Goldbach so gemacht hat.

Mit dem Klick auf die Infografik gelangt man zu Goldbach.

Infografik Social Media Monitoring Toolreport 2013, Goldbach Interactive (Switzerland) AG

lala

Small Talk zu Big Data – ein paar Worte zum demexco „Night Talk“ Düsseldorf

Am 28. Mai 2013 gab es den demexco Night Talk zum Thema Big Data in Düsseldorf. Der Saal in den Rheinterrassen war voll, die 220 Damen und Herren gut gekleidet. Wenn man nun allerdings erwartete, dass einem da wer erzählt, was Big Data für das Online-Marketing und die Online-Werbung konkret bedeutet, dann wurde man schon etwas enttäuscht. Man blieb an der Oberfläche. Da wurde zunächst gesagt, dass Big Data für jeden etwas anderes ist. Klar ist es das. In der Physik, Biologie oder Medizin gibt es andere Fragen als im Marketing. Aber: Das Set der Fragen im Marketing im Zusammenhang mit Big Data ist für die kommenden zehn Jahre mehr oder weniger endlich.

dmxeco Night Talk

Ich hatte teilweise den Eindruck, dass Zenith, diese so große und ruhmreiche Agentur, lieber beim klassischen Fernsehgeschäft bleiben würde und fühlte mich schon ein wenig an Verleger erinnert, die gerne so lange wie möglich die Druckmaschine am Laufen halten wollen.

Vielleicht ist mein Eindruck auch falsch. Mit VivaKi gibt es ein Tochterunternehmen, das sich genau auf die Belange der Werbungtreibenden im großen Datenwald konzentriert und ziemlich gut sein muss. Möglicherweise war ich ja auch nicht in der Zielgruppe für den „Night Talk“. Vielleicht hatte Herr Lortz einen schlechten Tag oder der Moderator stellte die falschen Fragen. Man blieb dabei zu diskutieren, ob für Big Data Agenturen notwendig sind und ob Agenturen die Trennung in Kreativ und Media beibehalten werden. Das empfand ich als langweilig und überflüssig. Ich hätte eher erwartet, dass von der Agentur erläutert wird, was man mit Big Data machen kann und wie und warum man dadurch effektiver wird.

Big Data: Rohdaten auswerten und Segmente bilden

Big Data ist da. Es gibt tatsächlich Unternehmen, die Rohdaten im Terabyte-Bereich auswerten, Muster erkennen und optimieren müssen. Mit Amazon und ebay gibt es zwei wunderbare Beispiele.

In Big Data fließen im Rahmen des Online-Marketing nur Nutzeraktionen ein, die non-reaktiv messbar sind oder bei denen die Bewertung im Rahmen von Kauf- oder Informationsprozessen Teil quasi-natürlicher Handlungen der Konsumenten wird. Auch Marktforschung wird sich an dieser Stelle verändern. Die wahre Herausforderung besteht in der Zukunft in der Bildung von Typologien – sehr stark differenzierten Typen bzw. Segmenten. Der Bereich der Predictive Analytics wird sehr viel wichtiger werden. Es geht nicht mehr darum, zu erkennen was war und daraus Schlüsse zu ziehen. Es geht darum zu bewerten, wie sich ein Nutzer verhalten wird und entsprechend die Umfelder zu gestalten. Hier kann es sein, dass die Anforderung an Kreativagenturen durchaus steigt: Es werden möglicherweise mehr verschiedene Werbemittel benötigt. Das hebt den Umsatz.

Extended Analytics

Solche Hinweise waren bei der Diskussion eher verhalten. Insgesamt sollte man das, was diskutiert wurde, eher unter der Überschrift Extended Analytics zusammenfassen. Über mehr als Analytics wurde nicht diskutiert. Sicher – Peter Gensch ist ein toller Redner und  er schaffte es, zu erläutern wie man CRM mit Social Media Monitoring verbinden kann, um zu bestimmten Insights zu gelangen. Er versuchte auch, das mit weiteren Kanälen zu verknüpfen. So hat man wenigstens eine Vorstellung davon, wohin es mit CRM gehen könnte.

Mike Klinkhammer von ebay hat mit etwas größeren Datenmengen zu tun – mehr als 100.000 Produktkategorien und – wenn ich mich recht erinnere – 40 Millionen eingestellten Produkten. Wenn man hier per Retargeting & Behavioural Targeting und mit weiteren Kanälen arbeitet, hat man tatsächlich Big Data zu optimieren. Man muss Daten aus verschiedenen Quellen miteinander verbinden, um daraus neue Schlüsse zu ziehen. Man wird mit Tag Management Systemen arbeiten müssen, Attributionsmodelle bilden, segmentieren und nicht nur Vermutungen darüber anstellen, wie sich ein Nutzer verhalten wird, sondern mit Wahrscheinlichkeiten arbeiten. Darüber hätte ich gerne ein wenig mehr gehört. Allerdings wurde keiner der Begriffe genannt. Man blieb an der Oberfläche – vielleicht war das auch dem Rahmen und der knappen Zeit geschuldet oder man wollte die Anwesenden nicht überfordern.

Am angenehmsten fand ich Stefan Zilich, den GF von Spotify Deutschland.  Dabei gab es fassbare Ergebnisse. Er hat ein wenig erläutert, wie sich die Musikindustrie durch Spotify verändert, wie sie jetzt zum ersten mal weiß, wie häufig Titel wirklich gehört werden – also nicht die auf 200 bis 600 Titel beschränkten Playlists der Dudelfunker, sondern auch, welche Titel auf Alben besonders beliebt sind. Man weiß auch wo –  geografisch wo – die Fans einer Band sitzen und kann so Konzerte besser planen. Zudem kann man den Fans einer Band natürlich auch Konzertempfehlungen geben etc. Wenn ich mal wieder ein wenig Zeit finde, werde ich das noch ein wenig ausführlicher beschreiben. Meister Zilich war auch der Meinung, dass das, was da seine Analytics-Abteilung für Unternehmen wie Universal Music oder Sony Music macht, Analytics ist und nicht „Big Data“. Ausgesprochen angenehm diese Einstellung – werter Herr Zilich. Und das sage ich nicht nur, weil ich Spotify mag.

Resumee

Insgesamt muss ich sagen, dass die Agentur nicht wirklich vermitteln konnte, was sie kann. Ansonsten haben mich die anwesenden übrigen Agenturverkäufer auch nicht wirklich begeistert. Ein wenig mehr als Criteo, nugg.ad und Google Retargeting sollte man schon kennen.  Ich wünsche mir auf jeden Fall wen, der die Idee für ein integriertes System hat, in das ich in Realtime Daten aus verschiedenen Quellen kippen kann, das mir Muster in den Daten erkennt und mit dem ich dann sauber prognostizieren kann.

Ich muss sagen, dass ich die d3con als erheblich informativer empfand – auch wenn man auf das Buzz Word „Big Data“ verzichtete und die Veranstaltung mit dem eher schnöden „Data Driven Display Advertising“ überschreibt.  Gut – es geht „nur“ zum die Zuführung der Nutzer zur Website und der wirklich relevante Aspekt des Monitoring fehlt.