Organisation des A/B-Testing –
Rückblick auf die A/B Insights in Köln

A/B Insights

A/B Testing gehört einfach zum Kerngeschäft des Online-Marketing. Die Rolle des Testing als Teil der Digital Analytics ist in vielen Unternehmen mit ausgeprägtem Online-Geschäft fest implementiert. Es geht nicht mehr um die Frage, ob man testet oder darum, wie Tests funktionieren. Sicher – auch in diesem Zusammenhang gibt es beträchtliches Optimierungspotenzial. Hauptthema des Abends vergangene Woche war jedoch die Frage, wie es möglich ist, die relevanten A/B-Tests zu identifizieren und diese zu maximieren. Vorgetragen hierzu haben Bastian Schäfer (Senior Referent Website-Testing & Conversion-Optimierung bei der DB Vertrieb GmbH) sowie Viktoria Zenker und Hauke Floer aus der UX der Galeria Kaufhof GmbH. Es sind immer wieder Unternehmen, die direkt über das Netz absetzen, die weiter sind. Verlage und Fernsehsender sind hier weit abgeschlagen und sollten dringend aufholen!

Kreislauf A/B-Testing

Bastian Schäfer stellte ein Kreislaufkonzept zum A/B-Testing vor:

  • Ideensammlung
  • Hypothesenbildung
  • A/B-Testing
  • Umsetzung

Vor einigen Jahren und auch jetzt ist es noch immer so, dass Kreative sich ungern testen lassen. Dabei ist es doch viel angenehmer, viele Ideen zu entwickeln, und zu schauen, welche davon perfektioniert werden sollen. Deutlich sollte eben immer wieder werden, dass es nicht um Schönheitspreise geht. Es geht um »Funktionieren« sowie das Erreichen von Zielen. Ohne Tests sind die Ergebnisse meist suboptimal.

Ist das Bewusstsein für Tests geweckt, dann verkehrt sich die Problemlage: Es soll viel und ausgiebig getestet werden. Hierdurch wird der Zielerreichungsgrad höher. Eine große Herausforderung ist dabei das Aushebeln der eigenen Betriebsblindheit. Das betrifft die eigene Abteilung, aber auch andere Abteilungen, die zu integrieren sind.
Ideen sollten nun unabhängig von der Quelle gesammelt, organisiert und bewertet werden. Die wichtigste Quelle ist und bleibt dabei das Nutzerfeedback. Inzwischen scheint Jira ein Industriestandard für Kanban mit dem Netz zu sein – auf wirklich allen Veranstaltungen wurde darauf verwiesen. Gut – ich benutze das Tool auch. Es taugt zielmlich gut für die Arbeit mit dem Netz. Die Kollegen von Kaufhof verwenden es beispielsweise, um die Bewertung von Testideen zu realisieren. Finale Frage in diesem Zusammenhang: »Wie viel mehr an Umsatz ist nach dem A/B-Test zu erwarten?«

Jira erlaubt die Abbildung von mehreren Bewertungsdimensionen. Die Ermittlung des Erwartungswerts kann mit einer relativ großen Sicherheit erfolgen. Entsprechend des zu erwartenden Umsatzplusses wird das Ranking der Tests gebildet. Eigentlich ganz einfach, wenn man die Idee dazu hat und sich die Kollegen darauf einlassen. Ach – natürlich muss a priori noch geprüft werden, ob der Traffic auf den zu testenden Bereichen der Website ausreicht, um den Test mittels Conversions durchzuführen. Richtwert: 200 Stück pro Zelle.

Einig waren sich die Teilnehmer des Abends übrigens darüber, dass die Farbe eines Buttons nicht wirklich testwürdig ist, die darauf befindliche »Call to Action« sehr wohl.

A/B-Test Hypothesenbildung

Klar – Hypothesen sind notwendig. Ohne Hypothesen ist die Interpretation von Ergebnissen häufig schwierig. Wenn man diesen Schwierigkeiten aus dem Weg gehen möchte, ist eine Systematisierung erforderlich. Hilfreich dabei sind strukturierte Konzepte, wie das »Conversion Framework« von Khalid Saleh (invespcro) oder das, was Konversionskraft zu dem Thema schreibt.

A/B-Test – Analytics Maturity Model

Ich stehe auf Maturity Models – ehrlich. Die haben verschiedene Vorteile. Der wichtigste ist wohl, dass man sich selbst einordnen kann – also den eigenen Stand überprüfen. Hier hat Bastian Schäfer etwas an die Wand geworfen, das ich noch nicht kannte. Mit freundlichem Dank gebe ich es hier weiter.

A/B-Test - Analytics Maturity Model bahn.de
A/B-Test – Analytics Maturity Model bahn.de

Ansonsten noch ein großes Dankeschön an Trakken und Optimizely für die Organisation des Abends. Ich komme nächstes Jahr gerne wieder, und zwischendurch auf den Analytics Summit nach Hamburg.

SEO-Trends: Die Google Search Console

In meinem letzten Beitrag zu SEO-Trends habe ich über Content-Marketing geschrieben. Nun wird es die Google Search Console. Ein wenig verwundert hat es mich schon, dass auf allen von mir besuchten Veranstaltungen die Search Console ausführlich thematisiert wurde. Dabei arbeite ich schon recht lange damit – bereits als sie Webmaster-Tools hieß und einen geringeren Funktionsumfang hatte. Sie ist ein ausgesprochen wichtiges Werkzeug. SEO-Research-Werkzeuge beziehen darüber Daten. Wenn Sie die Search Console  noch nicht verwendet haben, sollten Sie sich dringend damit beschäftigen.

Die Grundfunktionalitäten der Google Search Console

Google Search Console
Google Search Console

Mit der Google Search Console kann man die Präsenz der eigenen Website in den Google Suchergebnissen analysieren und verwalten. Im Dashboard  der Console wird auf Crawling-Fehler verwiesen. Es gibt Informationen über den Indexierungsstatus der Sitemaps. Am wichtigsten dürfte mittlerweile die Suchanalyse sein:

Wenn Sie aus dem Bereich Web-Analytics kommen und auf dem Gebiet bereits einige Jahre arbeiten, kennen Sie das Problem: »Not Provided«. Daniel Waisberg , Analytics Advocate bei Google, wurde schon 2014 auf dem Analytics Summit in Hamburg darauf angesprochen. Es wurde gefragt, ob für die nicht übermittelten Keywords eine Lösung angedacht sei. Er verneinte. Nun ist es jedoch seit einiger Zeit möglich, die Search Console mit Google Analytics zu verbinden. Die benötigten Informationen sind zumindest zum Teil wieder vorhanden. Weiter unten gehe ich noch ein wenig genauer darauf ein.

Google hilft in der Search Console, strukturierte Daten zu übergeben. Das werde ich noch in einem eigenen Beitrag darstellen. Da Google nun auch Jobs explizit in den Suchergebnissen darstellt, hat ziemlich viel Staub aufgewirbelt. Es gibt Hinweise auf doppelte Title, Meta-Tags, zu kurze und zu lange von denselben. Sie haben diese Angaben möglicherweise auch vor geraumer Zeit in Werkzeugen wie XOVI oder OnPage entdeckt.

Auf die Suchanalyse gehe ich gleich ein. Es geht um die interne und externe Verlinkung, die internationale Ausrichtung (hreflang) sowie Nutzerfreundlichkeit auf Mobilgeräten. Es ist möglich, den Indexierungsstatus zu beobachten u.s.w. Relativ wichtig sind dann wieder die Crawling-Fehler, die Sitemaps und URL-Parameter. In den URL-Parametern sollten Sie dafür sorgen, dass Google die richtigen Seiten erwischt. Die erste Seite einer Produktliste ist – um ein Beispiel zu nennen – weitaus relevanter als die folgenden.

Die Suchanalyse in der Google Search Console

In der Search Console können Sie sehen, für welche Suchanfragen Sie in den Ergebnislisten auftauchen. Sie bekommen Impressions, die Klickrate und Positionen dafür. Das Besondere am Wert für die Positionen ist, dass es sich um den Durchschnittswert für alle Impressions im konfigurierten Zeitraum handelt. Dieser Wert ist also besser als einer, der von punktuellen Abfragen gemessen wurden.

Search Console Suchanalyse
Search Console Suchanalyse

In der Search Console direkt zu arbeiten, ist kein Vergnügen, besonders wenn es darum geht, zu prüfen wie die Performance von Landing Pages ist. Wenn man nun alle Pages einzeln filtern müsste, würde dies eine wilde Klickerei. Erheblich simpler ist es da, die Daten übersichtlich in einer Tabelle anzusehen. Das funktioniert dann mit der Search Console API. Die gibt es nun auch schon beinahe zwei Jahre, seit August 2015.

Search Analytics for Sheets
Search Analytics for Sheets

Was man damit macht? Ganz einfach. In der Regel arbeitet man in mit Landing Pages. Diese Landing Pages werden auf Keywords optimiert. Die Frage ist also, für welche Keywords eine Landing Page auf welcher Position rankt und wie viele Klicks bei welcher CTR erreicht werden können. In der Search Console filtert man für diese Fragestellung auf eine Seite. Dann wechselt man in die Suchanfragen und analysiert die Ergebnisse.

Mit der API können Sie dies für all Ihre Landing Pages in eine Tabelle packen. Ist Ihnen das zu kompliziert? Mögen Sie Google Docs? Arbeiten Sie mit Google Sheeds? Dann habe ich einen guten Tipp für Sie: Mihai Aperghis hat ein PlugIn für Google Sheeds programmiert, mit dem Sie alle Daten problemlos in Google Sheeds importieren und speichern können. Sie finden »Search Analytics for Sheets« unter https://searchanalyticsforsheets.com/ Kostenlos ist es noch dazu!

Prinzipiell braucht man die Hinweise zur Konfiguration auf der Website nicht. Das Tool ist einfach gestaltet und intuitiv bedienbar. Am wichtigsten ist das »Group By«, denn hier können Sie Spalten in die Tabelle integrieren. Ich habe das im Beispiel für Page und die Keywords gemacht (Query). Sie können auf diesem Weg also auch wochen- und monatsweise Daten in Tabellen schreiben und ganz wunderbare Zeitreihen aufstellen.

Etwas Ähnliches gibt es auch für Excel. Dafür müssen Sie dann ein wenig bezahlen. Die Analytics Edge kostet 75 US$/Jahr und kann noch etwas mehr als nur die Search Console.

Einen Tod müssen Sie allerdings sterben: Die Daten der Search Console sind nur für Keywords verfügbar, die mindestens einmal im Monat eine Impression in einer Suchergebnisliste bekommen haben. Sie bekommen also keine oder kaum Aussagen darüber, was auf den hinteren Plätzen der SERPs passiert. Vor allem, wenn man Kandidaten für die Optimierung von Treffern auf der dritten Ergebnisseite finden will, bleibt nichts anderes übrig, als in die Übersichten der Research Tools zu schauen.

Gütektiterien für Digital Analytics

In der empirischen Sozialforschung wird schon lange mit Gütekriterien gearbeitet. Das ist im Marketing genauso. Es gibt Gütekriterien wie diese: Validität, Reliabilität und Objektivität. Es soll korrekt gemessen werden, die Messung soll replizierbar sein und unabhängig von subjektiven Einflüssen. Oft werden noch weitere Kriterien genannt: Relevanz, Vollständigkeit, Aktualität sowie Sicherheit der Daten. Mit diesen Gütekriterien könnte man zweifellos auch solche für die Digital Analytics spezifizieren. Leider gibt es für die Digital Analytics eine anscheinend recht knifflige Herausforderung. Diese besteht einerseits häufig in der Unternehmensstruktur und in der jeweiligen Qualifikation der beteiligten Akteure. Digital Analytics oder Web Analytics wird noch immer zu sehr durch die IT-Abteilungen betreut und zu wenig durch das Marketing. Auch wenn die Konfiguration von Reports – beispielsweise in Google Analytics – nicht wirklich schwierig ist – steht davor noch die Datenerfassung. Einfach nur den Tag in die Website zu packen, reicht hier häufig nicht aus. So können – zumindest bei größeren Projekten – nicht alle relevanten Fragestellungen beantwortet werden. Manche Zeitgenossen stellen immer wieder Fragen nach der Repräsentativität der Daten. Warum diese Frage nicht so ganz einfach zu beantworten ist, erläutere ich noch in einem anderen Beitrag. Interpretiert man die Daten der Digital Analytics bzw. Web Analytics als Vollerhebungen für das zu analysierende Objekt, so ist die Antwort natürlich einfach: Die Frage der Repräsentativität stellt sich nur bei Stichproben und nicht bei Vollerhebungen. Aber zurück zum Thema Gütekriterien für Digital Analytics.

Das französische Analytics Unternehmen AT Internet hat nun vor einigen Wochen ein Whitepaper »Data Quality in Digital Analytics« veröffentlicht. Darin geht es um Gütekriterien – darum, wie eine hohe Datenqualität in den Digital Analytics erreicht werden kann. Genannt werden die folgenden Bereiche:

Data Quality in Digital Analytics
Data Quality in Digital Analytics (Quelle: AT Internet)
  • Accuracy (Does my data reflect reality over time? Can I trust the values being returned?)
  • Completness (Is data missing or corrupt? Do I have all the data I need to make informed decisions? Are all pages of my site tagged? Are all screens of my mobile app tagged? Is all my data being collected as expected?)
  • Cleanliness (Is my data error-free? Are my data values readable and correctly formatted?)
  • Timeliness (Is all data available when needed? Does my data allow me to react in real time?)
  • Consistency (Is my data consistent across platforms? Do I have a reliable “single point of truth”? Can everyone in my company access the same data?)

Visuell hat AT Internet dies als Kreis dargestellt. Sie sehen das in der Abbildung – ein Rundumschlag, der die Herausforderungen sehr schön beschreibt. Ich erläutere die Bereiche noch ein wenig und kommentiere diese:

Richtigkeit & Genauigkeit

Erlauben Sie mir bitte Übersetzung von »Accuracy« mit »Richtigkeit & Genauigkeit«. Wenn Sie sich das Whitepaper von AT Internet ansehen, verstehen Sie weshalb. Daten der Digital Analytics gaukeln leider immer Genauigkeit vor, selbst wenn diese nicht vorhanden ist. Von außen betrachtet ist das auch nicht weiter verwunderlich. Computer erheben Daten darüber, was auf Computern passiert. Was sollte dabei schief gehen? – Leider ziemlich viel. Ein Beispiel aus der SEO Analytics: Wenn Sie wissen möchten, auf welcher Position Ihre Website für ein Keyword auf einer Google-Ergebnisseite steht, ist es ein gewaltiger Unterschied, ob das Ergebnis durch eine Schnittstellenanfrage bei Google oder per Crawl erhoben wurde oder ob die Google Search Console abgefragt wurde. Im ersten Fall handelt es sich um eine Zeitpunktbetrachtung, im zweiten um eine Zeitraumbetrachtung. Die Richtigkeit des zweiten Wertes aus der Search Console ist mit größerer Sicherheit richtig als die Zeitpunktbetrachtungen – auch wenn diese natürlich an sich genau sind.

Vollständigkeit

Und wieder: Reports gaukeln Genauigkeit vor. Wenn eine Website beispielsweise nicht vollständig vertaggt ist, dann sind die Daten nicht vollständig. Es muss also zum Beispiel geprüft werden, ob das Tracking Script überall dort ist, wo es sein soll. Im einfachsten Fall muss es bei einer Website in alle Seiten integriert werden. Bei WordPress etwa ist das ganz einfach: Es gibt ein PlugIn, das sich darum kümmert. Wenn Ihre Website jedoch aus verschiedenen Quellen zusammengesetzt wird, kann dies knifflig werden. Auch in bei responsiven Websites tauchen hin und wieder Probleme auf: Es muss darauf geachtet werden, dass das Tagging in verschiedenen Viewports gleichmäßig funktioniert. Das betrifft vorwiegend das Event-Tagging.

Selbstverständlich müssen auch die Server zur Erfassung der Daten jederzeit voll in ausreichender Geschwindigkeit verfügbar sein etc. Insgesamt haben wir es hier mit einem ganz klassischen Gütekriterium zu tun (s.o.).

Sauberkeit

Selbst wenn Ihre Daten alle vollständig erhoben wurden, können noch gewaltige Schwierigkeiten auftreten. AT Internet nennt als Beispiel falsche Tags in E-Mail-Newslettern, die erst erkannt werden, wenn der Newsletter bereits verschickt wurde. Hier fühle ich mich schon ein wenig ertappt. Google-Analytics unterscheidet in der Auswertung der Daten bei UTM-Parametern Groß- und Kleinschreibung, ist also Case Sensitive. Schreiben Sie daher Parameter-Werte am Besten immer alles klein und verwenden Sie immer Bindestriche und keine Unterstriche in den Parametern, sonst ist das Chaos unausweichlich. Gerade bei Updates von Websites tauchen solche Fehler relativ häufig auf, z.B. weil inzwischen die Bearbeiter gewechselt haben. Sie sollten aus diesem Grund unbedingt Fachkonzepte entwickeln und sich sklavisch daran halten. Wurden die falschen Daten an den Server übertragen, ist der Aufwand zur Korrektur in der Regel erheblich. In solchen Fällen gibt es Einschränkungen hinsichtlich Validität und Reliabilität der Daten.

Rechtzeitigkeit

Mir ist schon klar, warum Rechtzeitigkeit kein Kriterium in der klassischen Marktforschung ist und lieber von Aktualität gesprochen wird. Marktforschung benötigt meist sehr viel Zeit und besonders junge Berater unterschätzen deren Aufwand. In den Digital Analytics kann das anders sein. Mitunter stellt sich auch die Frage, ob denn tatsächlich alles in Realtime ausgewertet werden muss. Ich empfinde das manchmal fehl am Platz. Die Geschwindigkeit in der Auswertung ist aus meiner Sicht nur dann notwendig, wenn durch eine schnellere Verfügbarkeit eines Wertes tatsächlich schneller reagiert werden kann. Das ist beispielsweise dann der Fall, wenn auf einer wichtigen Seite ein 404 auftritt. Kürzlich empfahl beispielsweise Michael Janssen (zedwoo) auf einen 404 in Google Analytics einen Event zu setzen. Diesen kann man sich sogar zumailen lassen. Was bei kleinen Websites tatsächlich eine hilfreiche Sache ist, muss bei größeren Projekten natürlich umfänglicher angegangen werden. Oft ist beispielsweise die Search Console schneller oder das Werkzeug, mit dem die grundsätzliche Aktivität in den Logfiles überwacht wird. Es geht hier also hauptsächlich um das Erkennen und die Beseitigung technischer Probleme. Ähnlich verhält es sich mit Kampagnen: Hier muss auch schnell reagiert werden können, wenn Probleme auftreten.

Zweifellos gibt es in diesem Bereich noch andere Kriterien. Wenn es beispielsweise bei einem Analytics Tool lange dauert, bis ein Bericht angezeigt oder gerechnet wird, dann ist es einfach nur nervig. Hier muss man prüfen.

Konsistenz

Nehmen Sie bitte an, dass Sie verschiedene Websites für unterschiedliche Produkte in Ihrem Unternehmen haben. Es könnte eine für Schokoriegel, eine für Müsli und eine für Getränke sein, die analysiert werden müssen. Natürlich soll ihr Web Analytics Tool für alle Websites die gleiche Datenqualität erzielen. Sessions und Impressions sollen gleich gezählt werden – sonst können Sie nicht vergleichen. Das ist klar. Leider ist dies in der Unternehmenswirklichkeit nicht ganz so einfach. Je nach Struktur der Unternehmen werden die Websites mitunter auf verschiedenen Plattformen betrieben, es werden verschiedene Analytics-Werkzeuge eingesetzt, Daten werden mehr oder weniger gefiltert. Und dann werden die Zahlen nebeneinander präsentiert, als ob sie mit einer geeichten Waage gewogen wurden. Aber das ist leider mitnichten so, denn erhebliche Abweichungen sind möglich. Diese treten auch schon dann auf, wenn der Tag des Tag Management Systems an unterschiedlichen Positionen in der Website sitzt. Auch in diesem Fall gibt es Einschränkungen hinsichtlich Validität und Reliabilität der Daten.

Zu Abweichungen kann es auch kommen, wenn Daten auf verschiedenen Plattformen erhoben werden (z.B. Betriebssystemen, Browsern). Man sollte auch prüfen, ob alle Empfänger, die gleiche Daten bekommen sollen, auch tatsächlich die gleichen Daten erhalten. Hier sind einige Überraschungen möglich.

Für tiefergehende Informationen empfehle ich die Lektüre des AT Internet Whitepaper.

SEO-Trends: Content-Marketing, der Hyper SEO-Trend

Ich habe dieses Jahr Kundenveranstaltungen bei OnPage & Searchmetrics besucht und war auf der SMX in München. Zudem kommen einem ja noch einige andere Infos vor die Nase. Hier also einfach mal eine mehr oder weniger kritische Zusammenfassung von SEO-Trends bzw. SEM-Trends, die für mich auffällig waren. Es werden insgesamt wahrscheinlich drei Beiträge in den nächsten Wochen. Etwas zur Search-Console und zu Schema etc. werden folgen.

Content Marketing, der Hyper SEO-Trend

Eigentlich sollte man ja immer vorsichtig sein, wenn Supertrends kolportiert werden. In diesem Fall geht es um Content-Marketing. Oh – erwischt! Das mache ich hier mit meinem Blog auch. Und um was geht es? – Darum, dass man für Social Media und SEO Inhalte braucht und diese möglichst so in die Seiten eingebunden werden sollte, dass hohe Positionen in den SERPs (Suchmaschinen-Ergebnislisten) erreicht werden. Durch die Ausprägung als Text kann Google diese Inhalte wunderbar nutzen. Eigentlich ist das ziemlich cool. Dann gibt es da aber solche Analyse-Tools wie Searchmetrics. Dort wird in Berichten gezeigt, wie die Lage ist: Texte auf der ersten Ergebnisseite sind länger als weiter hinten.

Wortzahl Searchmetrics
Wortzahl Searchmetrics (Quelle: Searchmetrics Whinepaper Rebooting Ranking-Faktoren 2017)

 

Mit 0,08 ist die Korrelation nicht sonderlich hoch. Erstaunlich ist auch, dass die Treffer auf den ersten Plätzen im Durchschnitt weniger Worte haben, als Treffer auf den Plätzen 4 bis 7. Genau: “Durchschnittlich” ist der entscheidende Ausdruck! Ist Ihnen schon aufgefallen, dass es recht oft Treffer auf den PLätzen 1 bis 3 gibt, die sehr wenig Text auf ihrer Seite haben? – Es ist eben nicht immer viel Text notwendig. Content muss nicht breit sein – die Relevanz von Inhalten und Funktionen für die Fragestellungen der Nutzer von Suchmaschinen ist entscheidend.

Wenn wir nun dieses Ergebnis bei Searchmetrics sehen, sollte es uns alarmieren. Wir sollten nicht nur auf Werkzeuge vertrauen, die uns mit mehr oder weniger großem analytischem Aufwand helfen, die richtigen Keywords in unseren Texten unterzubringen. Hier helfen OnPage und Xovi, indem die Treffer der ersten Ergebnisseite für einen Suchstring ausgewertet werden. Man sieht Worthäufigkeiten. Klar, das hilft. Vergleicht man jedoch die Worthäufigkeiten im Zeitverlauf, so könnte einem schon Angst und Bange werden. Ja – Content-Marketing ist ein Prozess und nicht ein Projekt. Die Jungs von OnPage geben deshalb den Tipp, die Worthäufigkeiten regelmäßig zu überprüfen und Texte gegebenenfalls anzupassen. Sicher – das Verfahren ist analytisch und prinzipiell etwas, das ich auch befürworte. Der Nachteil daran: Sie laufen immer nur ihren Wettbewerbern hinterher. Wenn Sie vor diesen stehen wollen, müssen Sie schneller relevante Suchen identifizieren als andere Marktteilnehmer. Das wiederum ist aufwändig: Sie müssen Themen systematisch aufarbeiten und Trends erkennen. Dazu ist wiederum eine tiefergehende Sachkenntnis erforderlich. Die Auslagerung der Wordings wird schwieriger. Zwar ist das machbar, dazu ist es allerdings erforderlich, Know-how und Strukturen aufzubauen.

Externe Effekte des SEO-Trends Content-Marketing

Nehmen wir nun einfach an, dass es uns gelingt, durch Content-Marketing Erfolge zu erzielen. Wir gewinnen dadurch Nutzer für unsere Website. Das ist toll. Doch was bedeutet das für Google? – Dort wird weniger verdient. Im Sinne von Google kann das nun wirklich nicht sein, dass durch Hinzufügen von passenden Texten eine Position auf der ersten Ergebnisseite erreichbar ist. Analysiert man noch das, was Kollegen zu dem Thema sagen und das, was die Notwendigkeit der Integration von Text in Webpages bringt, dann scheint das Ende der einfachen Textstrickerei nahe. Norman Nielsen von Zalando meinte bei der Searchmetrics-Veranstaltung, dass der Sinn von Content auch nicht 2,5 cm Text in der linken Spalte sein können (auch wenn das noch funktioniert). Genausowenig wird Text langfristig funktionieren, der vor den Nutzern versteckt wird – gleich ob das mit Tabs passiert oder ob die vielen Worte an das visuelle Ende einer Seite gepackt werden. Für Suchmaschinen besteht die Aufgabe schließlich nur darin, die Relevanz des Content für die jeweilige Fragestellung der Nutzer zu beurteilen. Sollten die Texte dazu nicht – oder nicht mehr – notwendig sein, dann kann viel Geld gespart werden. Der eine oder andere Kollege auf den Veranstaltungen verwies darauf, dass nach dem Löschen der Texte auf Testseiten schlichtweg nichts hinsichtlich der Position auf den SERPs passiert ist.

Aus meiner Sicht ist es ohnehin erstaunlich, dass sich Google auf diese Bewertung festgelegt hat. Sicher – es erfordert einiges an Aufwand, 300, 500 oder sogar 1.200 Worte für ein Thema zu texten. Aber was sollen diese Texte auf Übersichtsseiten zu Kleidern oder Joggingschuhen? Könnte Google hier nicht einfach die Texte der Zielseiten zu Rate ziehen? Wahrscheinlich wird das auch gemacht, nur fällt in der Analyse von außen die Bewertung etwas schwerer.

Tanker & Enten in der SEO

Google schraubt am Algo – ziemlich oft sogar. Manchmal wird etwas als Major-Update benannt, aber oft gibt es Spekulationen darüber, was gerade passiert ist. So war das beispielsweise beim Update im Mai 2017. Was Google macht, bewegt sich in ganz langsamen Bahnen – Google ist der Tanker im Meer von Websites, die wie lahme Enten auf echte oder vermeintliche Änderungen reagieren. Ein Beispiel: Der Page Rank basierte einmal auf den externen Links, die auf eine Seite gesetzt wurden. Anfangs war dies ein schwer zu erfüllendes Kriterium. Als es dann leicht wurde, an Links zu kommen, wurde dieser in der ursprünglichen Form für Google wertlos. Wenn es nun leicht wird, den entsprechenden Content zu generieren, dann wird Google neue Kriterien zu Rate ziehen müssen. Wir dürfen sicher sein, dass es diese schon gibt. Es wird dabei um die Verteilung von Inhalten gehen, darum wie Nutzer mit diesen interagieren und nicht zuletzt um Bilder.

Auf allen Veranstaltungen wurde mehr oder weniger deutlich die UX als der neueste SEO-Trend angesprochen, das neue Content-Marketing oder die neue SEO. Und genau das ist es – die User Experience wird wichtiger. Der Prozess der Erstellung von Websites muss integrierter stattfinden als bisher. Webdesign, Interaktionsdesign, UX und SEO müssen gemeinsam arbeiten und dürfen natürlich auch nicht die Anforderungen an die Analytics vergessen. Ganz klar – Content-Marketing wird mehr Strategie und Konzept brauchen und und weniger Masse. Dieser SEO-Trend wird aus meiner sicht derzeit übertrieben. Der Markt für Content-Marketing ist wahrscheinlich schon überhitzt. Damit wird zwangsläufig ein Rückgang erfolgen.

Tailwind App – ein Pinterest-Analytics Tool

Pinterest-Analytics Tools hab ich schon einige beschrieben. Die Tailwind App ist mittlerweile ziemlich wichtig geworden. Sie hat 9.000 Kunden. Das ist nicht zu unrecht so. Mir gefällt das Werkzeug ausgesprochen gut. Es ist für alle alle Unternehmensgrößen einsetzbar und eine richtig gute Hilfe wenn man den eigenen Erfolg auf Pinterest monitoren und Potenziale zu Optimierung finden möchte. Ich kann den Test des Werkzeugs nur empfehlen. Immerhin hat das Unternehmen jetzt 15 Mitarbeiter. Das garantiert aus meiner Sicht den stabilen Bestand des Werkzeugs.

Das Tailwind App Dashboard

Der gute Eindruck beginnt schon mit dem Dashboard. Es ist aufgebaut wie das bei einem Dashboard der Fall sein sollte. Am Kopf sieht man 4 KPIs und deren Entwicklung. Darunter befindest sich eine Abbildung, die sich auf jede der Kennzahlen anwenden lässt. Die Übergänge in den Ansichten sind wirklich sehr schön gelöst. Ich muss sagen, dass ist wirklich toll gemacht. Neben Standard-Zeitschnitten kann man das Tailwind App Dashboard auch auf selbst gewählte Zeitschnitte anpassen.

Das Tailwind App Dashboard
Das Tailwind App Dashboard

Das ist nicht alles. Das Dashboard hat im unteren Bereich drei Performance Scores. Dabei wird der für Pinterest wichtigste Wert zuerst gezeigt: Die Viralität. Also der Wert der angibt, wie stark sich die Pins verbreiten. Im Engagement Score wird dies dann zusätzlich auf die Zahl der Follower bezogen. BTW: Ich finde es sympathisch und professionell, dass die Kennzahlen im FAQ des Hilfebereichs alle sauber definiert werden. Das gibt es auch nicht bei jedem Werkzeug.

Die Zahlen kann man sich übrigens auch noch bezogen auf die einzelnen Boards eines Accounts ausgeben lassen. Gerade bei Unternehmen mit vielen Produktsparten erleichtert das die Übersicht. Alle Daten sind übrigens in der Professional Version als CSV exportierbar. Erschrecken Sie bitte nicht, wenn Sie das zum ersten mal machen. Sie erhalten für jeden einzelnen Tag einen Eintrag. Was im ersten Moment vielleicht ein wenig unübersichtlich wirkt, ist super, wenn man die Daten weiterverarbeiten möchte.

TailwindApp Engage Modul

Die TailwindApp zeigt einem übrigens auch bei welchen Nutzern sich ein wenig Engangement lohnt. Dabei ist bekommt man Übersichten hinsichtlich der Pin- und Repin-Aktivitäten. Es wird gezeigt, welchen der Pinner man folgt und welchen nicht. Durch einen einfachen Klick gelangt man zu den Accounts der relevanten Pinner.

TailwindApp Followers
TailwindApp Followers

Was hier noch ganz hübsch und sinnvoll aussieht, wir dann datenschutzrechtlich bedenklich, wenn man die Übersicht der Pinner von der eigenen Website ansieht. Diese Option hilft herauszufinden wer ein wahrer Fan ist. Gleichzeitig ist diese Transparenz schon ein wenig erschreckend – auch wenn in diesem Fall nur der Eigentümer eines Accounts diese Information bekommt.

TailwindApp Content Optimierer & ROI

Ich zweifele ein wenig – ist es schwer oder leicht über die Tailwind App zu schreiben? – Das Werkzeug ist einfach ziemlich umfangreich und dafür, dass es Pinterest erst so kurz gibt gewaltig gut. Man kann damit die Engagement-Zahlen zu den eigenen Pins entsprechend verschiedener Zeitschnitte bekommen. Es ist möglich zu filtern. Das ist einfach toll und zeigt wohin die Reise gehen soll. Man sieht eben sehr schnell, welche Pins erfolgreich sind und welche nicht. Dies kann sogar abhängig vom Pin-Zeitpunkt analysiert werden. OK – es ist auch stark vom Zeitpunkt des Pinnens abhängig.

TailwindApp Engagement Zeitpunkte
TailwindApp Engagement Zeitpunkte

Die Entwickler wählen die mittlerweile für diesen Zweck übliche Darstellung – vielleicht kennen Sie diese im Zusammenhang mit Twitter aus SocialBro. Noch ist es nicht möglich europäische Zeitzonen zu wählen. Das wird mit zunehmender Aktivität von Pinterest ist Europa sicher bald kommen. Mir wurde gesagt, dass dieses mit einem der nächsten Updates kommen wird.

Möglich ist schon die Verknüpfung mit einer Google Analytics Property. Das sollte in den meisten Fällen ausreichend sein, um den ROI vom Pin an sich bis zu Käufen durchzumessen. Wenn man allerdings mehrere Websites betreibt und diese mit unterschiedlichen Properties misst, wäre die Verbindung mit mehreren Properties hilfreich. Auch dies kann ja noch kommen – es wurde wohl schon von einigen Kunden gewünscht.

 

TailwindApp Konkurrenzbeobachtung

Wie gesagt: Die TalwindApp hat schon ziemlich viel von dem drin, was man in den Social Media Analytics so braucht. Möglich ist ja an einigen Stellen deutlich mehr als bei der Analyse der eigenen Website. So können viele Daten auch für Wettbewerber analysiert werden. Das ist in der TailwindApp sehr leicht konfigurierbar und ziemlich gut gestaltet.

TailwindApp Benchmarks
TailwindApp Benchmarks

In der Abbildung können Sie sehen, wie cipr, Klaus Eck und ich eigentlich relativ einträchtig nebeneinender die Zahl von Pins aufbauen. Der Kollege Klaus Eck fällt etwas ab, dafür schließt Christian Müller, den Sie vielleicht von der Karrierebibel kennen, stark auf. Man kann das Ganze auch auf der Basis weiterer Kriterien – Followern, Repins, Likes und Kommentaren – analysieren. Viel spannender dürften für Unternehmen jedoch die Domain-Benchmarks sein. Darin wird gezeigt, wie stark von den Websites der Wettbewerber gepinnt wird.

Resümee

Die TailwindApp hat auch eine Nutzerverwaltung, man kann sich auch Reports per E-Mail zuschickten lassen (auch mit CSV-Anhang) und es gibt noch einige weitere Merkmale, die das Tool richtig erwachsen und andere kleinere Werkzeuge überflüssig erscheinen lassen.  Ich finde das Werkzeug richtig gut. Die 99 US$ für die Pro Version ist angemessen und lohnend für Unternehmen, die sich auf Pinterest engagieren. Das wir immer wichtiger, das Pinterest nun in der Werbemarkt einsteigt und sich schon große Markenartikler für Werbung auf Pinterest interessieren.

 

RTB – Real Time Bidding – Retargeting und Zielgruppen-Targeting – ein d3con Rückblick

Am 11. Februar fand in Hamburg zum 4. Mal die d3con statt. Das ist so etwas wie das Klassentreffen der RTB-Branche – also rund um Real Time Bidding. Ich fand die Veranstaltung ziemlich gut und werde mit größter Sicherheit im kommenden Jahr wieder hingehen. Man erfährt so einiges wichtiges zur Raketentechnologie der Online-Werbung. Es geht um Retargeting und um die Direktansprache von Zielgruppen – also Zielgruppen-Targeting mit möglichst geringen Streuverlusten.

d3con

Klassentreffen?

Ein Klassentreffen an sich ist ja eine geschlossene Veranstaltung mit vielen Interna. Das ist gleichzeitig die Schattenseite eines Klassentreffens, wenn die Klasse wachsen möchte. Es gab viel Buzzword-Sprech von Referenten der außerhalb der Klasse nie im Leben verstanden worden wäre. Naja – vielleicht gab’s auch Gäste, die Verständnisprobleme hatten. Deshalb hier schonmal die Bitte sich hinsichtlich Abkürzungen und Spezialausdrücken zu mäßigen. Das wirkt aus meiner Sicht überheblich und zeugt von Unsicherheit. Viele der Sätze – v.a. in den Podiumsdiskussionen hätten auf deutsch reichlich banal und platt gewirkt. So ist es schwierig den Markt zu vergrößern. Es wurde viel auf Features eingegangen und Benefits unzureichend belegt. Das war ein wenig schade.
Gleichzeitig weit dies jedoch auch auf den Zustand des Marktes an sich hin: Dieser ist noch jung und muss sich entwickeln. Es müssen klare Linien herausgearbeitet werden. Darum muss man sich keine Sorgen machen. Das wird kommen. Es gibt einfach Schritte, die zu absolvieren sind und Klippen, die umschifft werden müssen.

Real Time Bidding – was taugt der Begriff?

Es fängt schon beim recht technischen Begriff „Real Time Bidding“ an. Der geneigte Werbungtreibende ohne größeres Verständnis für den Ausdruck wird sich an dieser Stelle sofort fragen, ob und wie er den nun bieten muss. Mit etwas Glück wird er auf die Idee kommen, dass es um etwas ähnliches wie das Bietverfahren von Google im Rahmen der AdWords geht. Das wäre aus meiner Sicht ein großes Glück. Kleinere Kunden, werden durch die Begrifflichkeit abgeschreckt. Das scheint ja auch nicht so schlimm zu sein. Die Beschwerden viele Diskutanten waren dahingehend, dass Publisher zu wenig Inventar zur Verfügung stellen. Dazu weiter unten noch etwas mehr.
Dann gab es da auch noch Jannette Flores von Google. Sie benutzte den Begriff „Audience Buying“. Wirklich geschickt ist die Einführung dieses Begriffs durch Google auch nicht. Der nicht dem RTB-Tunnelblick verfallene Online-Markter wird schnell auch an Fan- bzw. Follower-Käufe für Facebook, Twitter und Pinterest denken. Die taugen nunmal absolut nichts – was soll denn dann Audience Buying taugen? – Wahrscheinlich nicht viel. Dennoch muss man Google für die Suche nach einem Begriff dankbar sein. Nur mit einfach zu verstehenden Begriffen und klar erkennbaren Benefits wird der Markt wachsen.

Zielgruppen-Targeting

Zugegeben – mir fällt auch kein wirklich supertoller Begriff ein. Die Tatsache, dass Retargeting recht gut läuft ist ein Hinweis darauf, dass der Begriff gut verstanden wird. Im Eröffnungsvortrag erläuterte Konrad Feldman (quantcast) ziemlich ausführlich und anschaulich, dass Retargeting alleine nicht ausreicht. Das hätte auch ohne den Vortrag klar sein können. Es handelt sich dabei um eine Bindungsmaßnahme. Dadurch werden keine neuen Kundenschichten erreicht – nicht die Reichweite erhöht und nicht die Bekanntheit gesteigert.
Retargeting ist eben einfach zu verstehen: Der Kunde kommt zur Website, bekommt ein Cookie gesetzt und wird an anderer Stelle wieder eingefangen. Wie ist es jedoch mit anderen Methoden der Ansprache. Sobald der Kunde das Gefühl hat, dass zu viel Hokuspokus dabei ist oder die Sache zu intransparent läuft, ist er nur schwer zu einer Entscheidung zu bewegen. Hier sind Google und Facebook die Vorreiter von denen die Branche lernen sollte. Es wird in einfach gestaltet Interfaces zu den Schaltungen geführt und der Kunde weiß, dass er seine Zielgruppe anspricht, dass diese nach Alter, Geographie und Interessen einschränken kann. Das reicht dann völlig: Zielgruppen-Targeting. Der Florian Heinemann (Project A) stellt deshalb aus meiner Sicht völlig zurecht fest, dass Google und Facebook das Rennen machen werden.

Vielleicht wären an dieser Stelle auch andere Abrechnungsmodelle ratsam. Für Reichweite sind die Kunden traditionell bereit zu bezahlen. Reichweiten-Kampagnen sind bei einer klaren Zielgruppen-Ansprache überaus sinnvoll. Prinzipiell, gibt es diese Möglichkeiten ja schon. Schaut man auf die Seiten der großen Vermarkter, so sind die Informationen unzureichend und versteckt. Ob das ein Hinweis darauf ist, dass mit klassischen Umfeldbuchungen einfach mehr verdient wird? – Die Wahrscheinlichkeit dafür ist hoch. Möglicherweise liegt es auch daran, dass die Agenturen im Umfeld zu sehr an CpC und CpO denken – Gedanken für den E-Commerce-Markt – nicht für Marken und Reichweite. Doch in diese Richtung muss sich der Markt entwickeln.

Ich war richtig erfreut, dass hin und wieder der Begriff TV genannt wurde. Das ist nunmal die Riesenschaufel hinsichtlich der Reichweite und der TV-Markt bekommt noch immer den größten Batzen vom Werbekuchen ab. Dabei denke dabei nicht nur an die Reichweitenwerte, die sich in das eine oder andere Tool integrieren lassen. Mir geht es ganz konkret um die Verknüpfung der Daten auf individueller Ebene. Das wird in einigen Jahren zweifellos einen Schub bringen.

Unternehmensbeispiele

Am weitaus besten hat mir auf der d3con 2014 ein von Ralf Scharnhorst moderiertes Panel zu den Erfahrungen von Werbungtreibenden mir Real Time Advertising gefallen. Trivago, Vodafone und Zalando berichteten über Erfolge, Schwierigkeiten und Verfahren. Das war wirklich wertvoll. Damit kann man Kunden die Angst nehmen. Die Kollegen zeigten, wie anderswo gekocht wird. Eigenartigerweise gestanden diese Werbungtreibenden, dass sie mal auf die Schnauze fliegen. Dienstleistern scheint das zu peinlich zu sein. Zudem ist die Tatsache, dass trivago und Zalando Werbemitte intern produzieren und nur ungern Agenturen an diese Arbeit lassen, ein wichtiger Hinweis. Die Kreativen haben sich wohl noch nicht auf diese neue Art und Weise der Online-Werbung eingestellt. Nach Aussage der Unternehmen scheint es vor allem den ungenügend schnellen Abläufen zu liegen. Hier müsste also noch optimiert werden. Ich persönlich lassen auch am liebsten intern produzieren, weil so einfach eine bessere Feinabstimmung erfolgen kann.

Datenschutz

Das ganze Spiel um Real Time Advertising – Retargeting und Zielgruppen-Targeting – kommt ohne die Identifikation der Nutzer-Clients nicht aus. Die EU-Datenschutzverordnung drohte mit beträchtlichen Einschränkungen. Nun scheint diese nach Aussagen des BVDW umgesetzt. Wie und warum konnte nicht genau nachvollzogen werden. Klar scheint nur, dass es etwa ist wie mit dem US-Waffengesetz. Cookies dürfen in Deutschland benutzt werden, wenn darin keine personenbezogenen Daten stehen. Wenn doch, dann muss der Nutzer des Clients vorher gefragt werden. Das sorgt für etwas Klarheit. Also gerade, wenn es um die Verbindung mit CRM-Daten geht, sollte man den Nutzer explizit darauf hinweisen. Das hätte man auch ohne gesetzliche Vorschriften schon so machen sollen. Genauso wie man hinsichtlich des Retargeting nicht einfach drauf losballern sollte und dem Kunden nach einem Kauf beispielsweise Komplementärprodukte zeigen sollte und nicht noch drei Monate lang ein Produkt, das der Kunde schon besitzt.

Jochen Schlosser von uniquedigital  zeigte, dass man auch ohne Cookies Clients identifizieren kann – und das mitunter noch besser als mit den üblichen Identifikationsstrings. Das war schon schwer beeindruckend, weil so tatsächlich auch Nutzer angesprochen werden könnten, deren Clients Cookies ablehnen – aus welchen Gründen auch immer. Allerdings liegt Schlosser falsch, wenn er der Meinung ist, dass dies aus datenschutzrechtlicher Sicht unbedenklicher ist. Insbesondere dann, wenn die eindeutigen Clients mit Personendaten gekoppelt werden, muss der Nutzer nach seinem Einverständnis gefragt werden. Einfach so mal mit dem CRM koppeln ist also nicht ratsam.

Ich für meinen Teil freue mich auf jeden Fall schon jetzt auf das nächste Jahr und hoffe etwas mehr über die Verbindung mit Reichweitendaten zu hören, etwas mehr TV und ein paar mehr Belege für getroffene Aussagen zu bekommen.

 

Werbung: Wird Google der dominante Player in den elektronischen Medien?

Google hat den Sprung über die 1.000er-Marke geschafft. Mehr als 1.000 US$ für eine Aktie ist schon kräftig. Da sollte sich der geneigte Anleger fragen, wohin die Reise geht und mit was Google seine Umsätze tätigt. In der Presse wurde auf das Werbegeschäft verwiesen und darauf, dass auf Mobilgeräten die Preise pro Klick geringer sind. Das stimmt ganz allgemein schon. Es wurde wohl weitgehend einer dpa-Meldung gefolgt, wie bei FOCUS Online, was ja eigentlich auch OK ist. Ich empfehle dennoch einen Blick auf das Originaldokument.

Hier wird deutlich, dass Google knapp ein Viertel seiner Werbeeinnahmen nicht über die eigene Website tätigt, sondern über Partnerseiten – zum größten Teil wohl das AdSense Programm. Starkes Wachstum der Werbeeinnahmen gibt es in diesem Bereich nicht. Das wird sich in den kommenden Jahren ändern. Ich vermute hier das stärkste Wachstumspotenzial. Warum?

Goggle ist aus meiner Sicht so etwas wie ein Transmissionsmedium. Es ist der Kanal, über den Werbung in Zukunft verbreitet und bewertet wird. Das ist anders als bei News Corp.,  TimeWarner oder Bertelsmann, die ihr Geld mit Inhalten verdienen und Inhalte mitunter als Werbeträger nutzen: Inhalte sind für Google Nebensache. Die lässt man gerne von anderen machen. Es gibt dann Geld dafür, dass Google im Rahmen dieser Inhalte Werbung platzieren darf. Soweit ist das nichts besonderes.

Google ist für Werbung offen gebaut

Google ermöglicht es Websites – mehr oder weniger professionell gestalteten – mit Werbung Einnahmen zu erzielen. Die Verbreiterung dieser Programme ist enorm wichtig für die Erhöhung der Einnahmen. Es geschieht quasi automatisch: Eine Website meldet sich an. Google prüft ein wenig und schon geht es los. Das gleiche passiert bei Apps im Android Store. Mit eingebundener Werbung können die Anbieter Geld verdienen. Diese Grundlage ist so wichtig, dass das Android-System offen gehalten wird. Es wird die Reichweite der Android Smartphones stark erhöhen und damit die Einnahmen steigern. Im Store werden die Nutzer dann auch noch einkaufen und Google verdient sich eine Provision. Eine Einengung des Systems auf das hauseigene Hardware-Unternehmen wäre Unfug.

Google ist damit auch offener gebaut als Systeme, wie Entertain von der Telekom oder Sky, in die potenziell Spots individuell eingesteuert werden können.

Attribution & Werbung
Attribution & Werbung

Werkzeug-Entwicklung als Indikator für Werbeformen

Schaut man allerdings ein wenig darauf, was Google derzeit mit seinem Analytics-Werkzeug macht, dann kann es einem wie Schuppen von den Augen fallen: Es wurde ein Tag-Management-Werkzeug eingeführt, damit man die vielen JavaScript-Tags, die mittlerweile auf eine moderne Website eingebaut werden müssen, leichter verwaltet werden können. Google fischt damit schon wieder mit einer kostenlosen Lösung im Bereich mitunter recht teurer Lösungen. Mit Hilfe des Tag-Management ist die Attribution leichter möglich. Man kann also leichter sagen, durch welche Folge von Werbekontakten eine Konversion – also z.B. ein Kauf – ausgelöst wurde. Es kann entsprechend modelliert werden und die Aussteuerung von Werbekaktivitäten ist leichter möglich. In der Abbildung „Attribution & Werbung“ aus der Google-Hilfe wird das ein wenig verdeutlicht.

Doch das ist nicht alles: Google führte im Frühjahr mit den Universal Analytics ein Werkzeug ein, in das externe Daten auch über Schnittstellen importiert werden können. Nicht nur andere Werbekontakte – auch Wetterdaten oder Käufe an anderer Stelle können potenziell importiert werden.

Die Kurve zu Werbung in Fernsehen und Radio

Derzeit ist bei Videowerbung TimeWarner über seine Tochter AOL in den USA führend. Belegt wird das durch die gerade von comScore veröffentlichten September-Reichweiten. Die Abspielstationen in den USA sind eben etwas anders als es das deutsche Medienrecht erlauben möchte. Nach dem Kauf von Adap.tv, das hauptsächlich auf die Sender konzentriert ist, will AOL weltweit führend werden. Schaut man sich an, in welchen Märkten das Unternehmen  tätig ist, dann scheint das nicht abwegig. In einer Fallstudie für UK erklärt das Unternehmen, wie es arbeitet. Das sieht schon recht gut aus, die Frage ist jedoch, ob es gegen den Datenreichtum von Google bestehen kann. Es ist zu vermuten, dass die Position ähnlich sein wird, wie die anderer technologiegetriebener Intermediäre – beispielsweise Criteo, das einen beträchtlichen Marktanteil im RTB Retargeting-Markt hat.

Adap.tv Plattform
Adap.tv Plattform

Als ich dieses Jahr über die dmexco marschierte und am Google-Stand vorbeischaute, war nicht nur auffällig, dass es Hardware zu bestaunen gab. YouTube nahm recht viel Fläche ein. Video-Werbung kommt stärker. Auch wenn die Rezipienten mit dieser Werbeform ungern interagieren, so kann man ihre Rolle im Rahmen der Attribution bestimmen – man erfährt, inwieweit sie sich auf die Konversionsneigung auswirkt. Das ist ziemlich cool.

Buchen kann man die Zielgruppen wie bei AdWords – das ist noch ein Stück cooler. Phantastisch wäre es nun, wenn man das auch für Werbung im Fernsehen machen könnte. Kein Problem eigentlich bei dem was, über die Mediatheken angesehen wird. Dort sind die entsprechenden Daten verfügbar. Sieht man, wie Google seinen Weg in den RTB Retargeting-Markt gemacht hat und und wie man mit Behavioural-Daten arbeiten kann, dann wird klar, dass Google auch in diesen Markt einsteigen muss.

Gehen wir nun davon aus, dass der individuelle Abruf sequenzieller Inhalte in den kommenden 10 bis 15 Jahren auf mindestens 50 Prozent steigen wird, dann ist das schon ein ungeheuer spannender Markt. Wir reden alleine für Deutschland von über 2 Mrd. Euro. Nur noch eine kleine Verbindung fehlt: Wie kann man an einer Kasse im Kaufhaus nachverfolgen, ob jemand Werbung im Google-Universum gesehen hat? Eine Google Kreditkarte oder das Smartphone als Geldbörse wäre das Medium der Wahl. Der Kreislauf wäre geschlossen. Datenschutzbeauftragte werden in Panik ausbrechen und viele Nutzer werden sich freuen.

Ach ja – die Fernsehsender und die Planer von Fernsehwerbung werden Probleme bekommen, weil die Preise fallen werden und die Zahl der Spots abnehmen wird. Unwirksame Spots werden schneller entfernt. Man muss sich keine unpassende Werbung mehr anschauen. Es ist nicht unwahrscheinlich, dass im Jahr 2025 Online-Werbung den größten Teil am Werbemarkt ausmachen wird. In wenigen Jahren wird die Umverteilung von TV nach Online beginnen, wie diese vor 15 Jahren von Print nach Online einsetzte. Dem Radio steht ähnliches bevor.

Bedenklich?

Auf jeden Fall ist diese Entwicklung bedenklich. Die Mediengesetzgebung muss dringend angepasst werden. Das Zusammenwachsen der Medien auf den IP-Kanal ermöglicht internationalen Konzernen vieles, das in der Vergangenheit nur mit größtem Aufwand möglich war. Nationale Systeme werden es schwer haben, wenn nicht auf schnellstem Weg die entsprechenden Voraussetzungen geschaffen werden. Man stelle sich einfach vor, dass in 15 Jahren 50% des weltweiten Werbeumsatzes in elektronischen Medien über Google läuft. Gesund wäre das nicht.

Google Analytics nach Universal Analytics migrieren – sofort? Oder warten?

Google Analytics Universal AnalyticsAuf dem Google Analytics Summit wurde kürzlich angekündigt, dass die Migration von Google Analytics auf die Universal Analytics bald möglich werden soll. Eigentlich ist das eine erfreuliche Sache. Die Universal Analytics sind toll und inzwischen kann man die Daten auch mobil ansehen. In der Google Analytics Android App werden diese genauso angezeigt wie die ganz normalen Google Analytics Reports. Hinsichtlich der Standard Reports unterscheiden sich Google Analytics und Universal Analytics auch nicht. Unterschiede gibt es in der Erfassung, bei der Verarbeitung der Daten sowie in der Konfiguration.

Wichtige neue Features

Ich muss sagen, dass mich die Universal Analytics weniger deshalb begeistern, weil man Externe Daten integrieren kann. Das mag sicher toll sein und wird dazu führen, dass die Relevanz des Analytics Werkzeugs als Datentopf weiter steigt. Mich begeistern zwei Kleinigkeiten, die so zunächst nicht so großartig erscheinen:

  • Möglichkeit zum Ausschluss von Suchbegriffen aus der organischen Suche
  • Möglichkeit zum Ausschluss von Referrals

So kann man beispielsweise den Branded Traffic einfach aus den Reports zur organischen Suche ausschließen und erhält ein realistischeres Bild für die SEO – auch wenn natürlich „(not provided)“ eine wahre Qual ist. Bei den Referrals trifft ähnliches zu. Auch wenn man beides mit Filtern bewerkstelligen könnte, vereinfacht das neue Administrationsmenü die Arbeit beachtlich.

Wichtige Unterschiede

Visit Messung

Der wichtigste Unterschied besteht zunächst einmal darin, dass Visits anders gemessen werden. In Google Analytics sind diese Ausschließlich durch die Inaktivitätszeit definiert (Default 30 Minuten). In den Universal Analytics kommt der Externe Referrer als weiteres Kriterium hinzu. Wenn also jemand, bevor der Inaktivitätszeitraum überschritten wurde erneut mit einem externen Referrer auf die gleiche Proterty kommt, wird dies als neuer Visit gezählt. Das ist beispielsweise dann der Fall, wenn jemand in der Suchergebnisliste mehrere Treffer der gleichen Website anklickt.

Die Zahl der Visits ist also tendenziell höher mit den Universal Analytics – gleichzeitig ist die Visit-Länge geringer. Da die Zahlen rückwirkend in UA gerechnet werden stört das nur dann, wenn Visit-Zahlen in externen Reports stehen. Es kommt zu Datenbrüchen.

Nicht alle Integrations-Schnittstellen werden unterstützt

Google sagt selbst folgendes:

Not all data integrations are supported (yet).

AdSense, DoubleClick, Content Experiments, and Remarketing integration aren’t supported in UA. Look for messaging in the future regarding these feature integrations.

Tatsächlich ist es verwirrend: In der Administrationsoberfläche der Universal Analytics kann man AdSense bereits verknüpfen und man kann Remarketing-Listen anlegen. Wirksam werden diese derzeit noch nicht. Wenn man also an AdSense teilnimmt, bleiben die Reports aus dem Programm. Der Report in Google Analytics wird angezeigt, enthält jedoch keine Werte. Ganz tragisch ist das nicht. Das Retargeting-Nummer stört mehr, wenn man darauf angewiesen ist.
Allerdings ist es so, dass Google im Hinweis quasi schon die Integration ankündigt. Man sollte also noch etwas warten und bisweilen die UA testen. [Korrektur: AdSense funktioniert, Remarketing noch nicht – 6.10.13]

Ich empfehle die Lektüre der Guidelines und man sollte vor der Migration unbedingt prüfen inwieweit Visits in externen Reportings benutzt wurden. Auch wenn AdSense in Analytics auftauchen soll, müsste geprüft werden, ob dies erforderlich ist. Bei Retargeting ebenfalls.

Bounce Rate – Rolle und Interpretation in den Social Media Analytics

Ganz grundsätzlich ist die Bounce Rate definiert als Anteil der Visits mit einer PageImpression an den gesamten PageImpressions. In Analytics Werkzeugen wird die Rate mitunter verschieden gemessen, teilweise musste sie auch noch als Metrik manuell angelegt werden, dann ist sie abhängig von der Implementation.

Eine wirklich ganz wundervolle Einführung gibt Avinash Kaushik. Das Video ist allemal sehenswert.

Allerdings sollte man an dieser Stelle gerade für Social Media Analysen weiter differenzieren. Man könnte beispielsweise etwas wie eine Bounce Rate 1 und eine Bounce Rate 2 einführen – das ist ein wenig vergleichbar der Methode, die man aus der Deckungsbeitragsrechnung kennt. Avinash hat alle Bounces in einen Topf geworfen – alles was nur eine PageImpression lang war, ist aus dieser Sicht schlecht.

Bounce Rate 1 & Bounce Rate 2

Sicher ist es schlimm, wenn 75 Prozent der Nutzer eine Website nach nur einer PI verlassen. Es ist geradezu tragisch – man muss etwas tun. Stellen Sie sich bitte vor, Sie haben ein Blog und treue Leser. Ihre neuen Texte teasern Sie auf Twitter, Facebook und Google+. Wieviele Ihrer Seiten werden diese Nutzer anschauen? Der größte Teil der treuen Leser wird eine Seite ansehen. Wenn sie Ihren Artikel toll finden, wird der Artikel von einigen Nutzern erneut geteilt. Wie wird es sich mit neuen Nutzern verhalten? Wenn diese Ihr Blog toll finden, sollten sie mehr als eine Seite anschauen, Ihrem Blog in einem Social Network folgen etc.

Aus meiner Sicht ist die Differenzierung der Bounce Rate hinsichtlich neuer und wiederkehrender Besucher sehr wichtig. Das betrifft eben insbesondere Social Media Aktivitäten. Und das ganz abgesehen von der Messproblematik der Bounce Rate an sich. Google Analytics definiert die Bounce Rate, wie eingangs erwähnt, als den Anteil der Visits mit nur einer PageImpression an allen Visits. Bei einer genaueren Analyse bemerkt man, dass dies nicht ganz stimmt.. Es gibt schließlich Seiten, auf denen sich ein Nutzer auch etwas länger beschäftigen kann und vielleicht auch noch Aktionen ausübt, die mitunter als Event gemessen werden, aber nicht als PageImpression/PageView. Es kann sich um das Abonnement eines Newsletters, die Nutzung eines Social PlugIns etc. handeln. Justin Cutroni hat das sehr anschaulich beschrieben.

Um es nicht ausufern zu lassen:

  • Bounce Rate 1: Anteil unbekannter Nutzer, die bouncen.
  • Bounce Rate 2: Anteil bekannter Nutzer, die bouncen.

Durch diese Differenzierung wird die Interpretation der Daten, wie sie beispielsweise Avinash Kaushik empfiehlt, bereichert und damit sicherer.

Bounce Rate 1 & 2
Bounce Rate 1 & 2

In der Abbildung habe ich es etwas überzeichnet dargestellt: Der Balken entspricht der gesamten Bounce Rate. Der dunklere Teil ist der Teil der unbekannten Nutzer die bouncen. Der hellere Teil des Balkens sind bekannte Nutzer, die bouncen. Während bei Kanal 1 die Bounce Rate mit 60 Prozent recht hoch liegt und der Anteil der bekannten Nutzer gering ist, ist dies bei Kanal 3 anders. Hier stammt die Hälfte der Bounces von bekannten Nutzern. Das ist weit weniger tragisch. Es heißt schließlich, dass Nutzer regelmäßig zu einem Kurzbesuch der Seite zu bewegen sind.

Hinsichtlich Kanal 3 fällt auf, dass der Anteil neuer Besucher, die bouncen, mit Kanal 2 identisch ist. Allerdings ist der Anteil bekannter Besucher, die bouncen, geringer.

Es ergeben sich also sowohl neue Erkenntnisse als auch neue Fragestellungen aus dieser Betrachtung. Im Fall des Vergleichs von Kanal 2 und Kanal 3 sollte man die Besuche mit einer höheren Nutzungsintensität auch hinsichtlich neuer und bekannter Besucher vergleichen.

Es sollte klar geworden sein, dass man durch die weitere Differenzierung der Bounce Rate zu wertvollen Schlüssen kommen kann. Dass in diesem Zusammenhang die Web Analytics Tools noch unzureichend mit Standard-Berichten vorbereitet sind, ist sicher nur eine kleine Schwierigkeit. Einen Bericht zu kopieren, um ihn mit einer weiteren Dimension zu versehen, erscheint mir in vielen denkbaren Fällen allerdings durchaus lohnend – und das betrifft nicht ausschließlich Social Media. Auch bei AdWord-Kampagnen kann das hilfreich sein.