A/B Insights

A/B Testing gehört einfach zum Kerngeschäft des Online-Marketing. Die Rolle des Testing als Teil der Digital Analytics ist in vielen Unternehmen mit ausgeprägtem Online-Geschäft fest implementiert. Es geht nicht mehr um die Frage, ob man testet oder darum, wie Tests funktionieren. Sicher – auch in diesem Zusammenhang gibt es beträchtliches Optimierungspotenzial. Hauptthema des Abends vergangene Woche war jedoch die Frage, wie es möglich ist, die relevanten A/B-Tests zu identifizieren und diese zu maximieren. Vorgetragen hierzu haben Bastian Schäfer (Senior Referent Website-Testing & Conversion-Optimierung bei der DB Vertrieb GmbH) sowie Viktoria Zenker und Hauke Floer aus der UX der Galeria Kaufhof GmbH. Es sind immer wieder Unternehmen, die direkt über das Netz absetzen, die weiter sind. Verlage und Fernsehsender sind hier weit abgeschlagen und sollten dringend aufholen!

Kreislauf A/B-Testing

Bastian Schäfer stellte ein Kreislaufkonzept zum A/B-Testing vor:

  • Ideensammlung
  • Hypothesenbildung
  • A/B-Testing
  • Umsetzung

Vor einigen Jahren und auch jetzt ist es noch immer so, dass Kreative sich ungern testen lassen. Dabei ist es doch viel angenehmer, viele Ideen zu entwickeln, und zu schauen, welche davon perfektioniert werden sollen. Deutlich sollte eben immer wieder werden, dass es nicht um Schönheitspreise geht. Es geht um »Funktionieren« sowie das Erreichen von Zielen. Ohne Tests sind die Ergebnisse meist suboptimal.

Ist das Bewusstsein für Tests geweckt, dann verkehrt sich die Problemlage: Es soll viel und ausgiebig getestet werden. Hierdurch wird der Zielerreichungsgrad höher. Eine große Herausforderung ist dabei das Aushebeln der eigenen Betriebsblindheit. Das betrifft die eigene Abteilung, aber auch andere Abteilungen, die zu integrieren sind.
Ideen sollten nun unabhängig von der Quelle gesammelt, organisiert und bewertet werden. Die wichtigste Quelle ist und bleibt dabei das Nutzerfeedback. Inzwischen scheint Jira ein Industriestandard für Kanban mit dem Netz zu sein – auf wirklich allen Veranstaltungen wurde darauf verwiesen. Gut – ich benutze das Tool auch. Es taugt zielmlich gut für die Arbeit mit dem Netz. Die Kollegen von Kaufhof verwenden es beispielsweise, um die Bewertung von Testideen zu realisieren. Finale Frage in diesem Zusammenhang: »Wie viel mehr an Umsatz ist nach dem A/B-Test zu erwarten?«

Jira erlaubt die Abbildung von mehreren Bewertungsdimensionen. Die Ermittlung des Erwartungswerts kann mit einer relativ großen Sicherheit erfolgen. Entsprechend des zu erwartenden Umsatzplusses wird das Ranking der Tests gebildet. Eigentlich ganz einfach, wenn man die Idee dazu hat und sich die Kollegen darauf einlassen. Ach – natürlich muss a priori noch geprüft werden, ob der Traffic auf den zu testenden Bereichen der Website ausreicht, um den Test mittels Conversions durchzuführen. Richtwert: 200 Stück pro Zelle.

Einig waren sich die Teilnehmer des Abends übrigens darüber, dass die Farbe eines Buttons nicht wirklich testwürdig ist, die darauf befindliche »Call to Action« sehr wohl.

A/B-Test Hypothesenbildung

Klar – Hypothesen sind notwendig. Ohne Hypothesen ist die Interpretation von Ergebnissen häufig schwierig. Wenn man diesen Schwierigkeiten aus dem Weg gehen möchte, ist eine Systematisierung erforderlich. Hilfreich dabei sind strukturierte Konzepte, wie das »Conversion Framework« von Khalid Saleh (invespcro) oder das, was Konversionskraft zu dem Thema schreibt.

A/B-Test – Analytics Maturity Model

Ich stehe auf Maturity Models – ehrlich. Die haben verschiedene Vorteile. Der wichtigste ist wohl, dass man sich selbst einordnen kann – also den eigenen Stand überprüfen. Hier hat Bastian Schäfer etwas an die Wand geworfen, das ich noch nicht kannte. Mit freundlichem Dank gebe ich es hier weiter.

A/B-Test - Analytics Maturity Model bahn.de

A/B-Test – Analytics Maturity Model bahn.de

Ansonsten noch ein großes Dankeschön an Trakken und Optimizely für die Organisation des Abends. Ich komme nächstes Jahr gerne wieder, und zwischendurch auf den Analytics Summit nach Hamburg.

In meinem letzten Beitrag zu SEO-Trends habe ich über Content-Marketing geschrieben. Nun wird es die Google Search Console. Ein wenig verwundert hat es mich schon, dass auf allen von mir besuchten Veranstaltungen die Search Console ausführlich thematisiert wurde. Dabei arbeite ich schon recht lange damit – bereits als sie Webmaster-Tools hieß und einen geringeren Funktionsumfang hatte. Sie ist ein ausgesprochen wichtiges Werkzeug. SEO-Research-Werkzeuge beziehen darüber Daten. Wenn Sie die Search Console  noch nicht verwendet haben, sollten Sie sich dringend damit beschäftigen.

Die Grundfunktionalitäten der Google Search Console

Google Search Console

Google Search Console

Mit der Google Search Console kann man die Präsenz der eigenen Website in den Google Suchergebnissen analysieren und verwalten. Im Dashboard  der Console wird auf Crawling-Fehler verwiesen. Es gibt Informationen über den Indexierungsstatus der Sitemaps. Am wichtigsten dürfte mittlerweile die Suchanalyse sein:

Wenn Sie aus dem Bereich Web-Analytics kommen und auf dem Gebiet bereits einige Jahre arbeiten, kennen Sie das Problem: »Not Provided«. Daniel Waisberg , Analytics Advocate bei Google, wurde schon 2014 auf dem Analytics Summit in Hamburg darauf angesprochen. Es wurde gefragt, ob für die nicht übermittelten Keywords eine Lösung angedacht sei. Er verneinte. Nun ist es jedoch seit einiger Zeit möglich, die Search Console mit Google Analytics zu verbinden. Die benötigten Informationen sind zumindest zum Teil wieder vorhanden. Weiter unten gehe ich noch ein wenig genauer darauf ein.

Google hilft in der Search Console, strukturierte Daten zu übergeben. Das werde ich noch in einem eigenen Beitrag darstellen. Da Google nun auch Jobs explizit in den Suchergebnissen darstellt, hat ziemlich viel Staub aufgewirbelt. Es gibt Hinweise auf doppelte Title, Meta-Tags, zu kurze und zu lange von denselben. Sie haben diese Angaben möglicherweise auch vor geraumer Zeit in Werkzeugen wie XOVI oder OnPage entdeckt.

Auf die Suchanalyse gehe ich gleich ein. Es geht um die interne und externe Verlinkung, die internationale Ausrichtung (hreflang) sowie Nutzerfreundlichkeit auf Mobilgeräten. Es ist möglich, den Indexierungsstatus zu beobachten u.s.w. Relativ wichtig sind dann wieder die Crawling-Fehler, die Sitemaps und URL-Parameter. In den URL-Parametern sollten Sie dafür sorgen, dass Google die richtigen Seiten erwischt. Die erste Seite einer Produktliste ist – um ein Beispiel zu nennen – weitaus relevanter als die folgenden.

Die Suchanalyse in der Google Search Console

In der Search Console können Sie sehen, für welche Suchanfragen Sie in den Ergebnislisten auftauchen. Sie bekommen Impressions, die Klickrate und Positionen dafür. Das Besondere am Wert für die Positionen ist, dass es sich um den Durchschnittswert für alle Impressions im konfigurierten Zeitraum handelt. Dieser Wert ist also besser als einer, der von punktuellen Abfragen gemessen wurden.

Search Console Suchanalyse

Search Console Suchanalyse

In der Search Console direkt zu arbeiten, ist kein Vergnügen, besonders wenn es darum geht, zu prüfen wie die Performance von Landing Pages ist. Wenn man nun alle Pages einzeln filtern müsste, würde dies eine wilde Klickerei. Erheblich simpler ist es da, die Daten übersichtlich in einer Tabelle anzusehen. Das funktioniert dann mit der Search Console API. Die gibt es nun auch schon beinahe zwei Jahre, seit August 2015.

Search Analytics for Sheets

Search Analytics for Sheets

Was man damit macht? Ganz einfach. In der Regel arbeitet man in mit Landing Pages. Diese Landing Pages werden auf Keywords optimiert. Die Frage ist also, für welche Keywords eine Landing Page auf welcher Position rankt und wie viele Klicks bei welcher CTR erreicht werden können. In der Search Console filtert man für diese Fragestellung auf eine Seite. Dann wechselt man in die Suchanfragen und analysiert die Ergebnisse.

Mit der API können Sie dies für all Ihre Landing Pages in eine Tabelle packen. Ist Ihnen das zu kompliziert? Mögen Sie Google Docs? Arbeiten Sie mit Google Sheeds? Dann habe ich einen guten Tipp für Sie: Mihai Aperghis hat ein PlugIn für Google Sheeds programmiert, mit dem Sie alle Daten problemlos in Google Sheeds importieren und speichern können. Sie finden »Search Analytics for Sheets« unter https://searchanalyticsforsheets.com/ Kostenlos ist es noch dazu!

Prinzipiell braucht man die Hinweise zur Konfiguration auf der Website nicht. Das Tool ist einfach gestaltet und intuitiv bedienbar. Am wichtigsten ist das »Group By«, denn hier können Sie Spalten in die Tabelle integrieren. Ich habe das im Beispiel für Page und die Keywords gemacht (Query). Sie können auf diesem Weg also auch wochen- und monatsweise Daten in Tabellen schreiben und ganz wunderbare Zeitreihen aufstellen.

Etwas Ähnliches gibt es auch für Excel. Dafür müssen Sie dann ein wenig bezahlen. Die Analytics Edge kostet 75 US$/Jahr und kann noch etwas mehr als nur die Search Console.

Einen Tod müssen Sie allerdings sterben: Die Daten der Search Console sind nur für Keywords verfügbar, die mindestens einmal im Monat eine Impression in einer Suchergebnisliste bekommen haben. Sie bekommen also keine oder kaum Aussagen darüber, was auf den hinteren Plätzen der SERPs passiert. Vor allem, wenn man Kandidaten für die Optimierung von Treffern auf der dritten Ergebnisseite finden will, bleibt nichts anderes übrig, als in die Übersichten der Research Tools zu schauen.

In der empirischen Sozialforschung wird schon lange mit Gütekriterien gearbeitet. Das ist im Marketing genauso. Es gibt Gütekriterien wie diese: Validität, Reliabilität und Objektivität. Es soll korrekt gemessen werden, die Messung soll replizierbar sein und unabhängig von subjektiven Einflüssen. Oft werden noch weitere Kriterien genannt: Relevanz, Vollständigkeit, Aktualität sowie Sicherheit der Daten. Mit diesen Gütekriterien könnte man zweifellos auch solche für die Digital Analytics spezifizieren. Leider gibt es für die Digital Analytics eine anscheinend recht knifflige Herausforderung. Diese besteht einerseits häufig in der Unternehmensstruktur und in der jeweiligen Qualifikation der beteiligten Akteure. Digital Analytics oder Web Analytics wird noch immer zu sehr durch die IT-Abteilungen betreut und zu wenig durch das Marketing. Auch wenn die Konfiguration von Reports – beispielsweise in Google Analytics – nicht wirklich schwierig ist – steht davor noch die Datenerfassung. Einfach nur den Tag in die Website zu packen, reicht hier häufig nicht aus. So können – zumindest bei größeren Projekten – nicht alle relevanten Fragestellungen beantwortet werden. Manche Zeitgenossen stellen immer wieder Fragen nach der Repräsentativität der Daten. Warum diese Frage nicht so ganz einfach zu beantworten ist, erläutere ich noch in einem anderen Beitrag. Interpretiert man die Daten der Digital Analytics bzw. Web Analytics als Vollerhebungen für das zu analysierende Objekt, so ist die Antwort natürlich einfach: Die Frage der Repräsentativität stellt sich nur bei Stichproben und nicht bei Vollerhebungen. Aber zurück zum Thema Gütekriterien für Digital Analytics.

Das französische Analytics Unternehmen AT Internet hat nun vor einigen Wochen ein Whitepaper »Data Quality in Digital Analytics« veröffentlicht. Darin geht es um Gütekriterien – darum, wie eine hohe Datenqualität in den Digital Analytics erreicht werden kann. Genannt werden die folgenden Bereiche:

Data Quality in Digital Analytics

Data Quality in Digital Analytics (Quelle: AT Internet)

  • Accuracy (Does my data reflect reality over time? Can I trust the values being returned?)
  • Completness (Is data missing or corrupt? Do I have all the data I need to make informed decisions? Are all pages of my site tagged? Are all screens of my mobile app tagged? Is all my data being collected as expected?)
  • Cleanliness (Is my data error-free? Are my data values readable and correctly formatted?)
  • Timeliness (Is all data available when needed? Does my data allow me to react in real time?)
  • Consistency (Is my data consistent across platforms? Do I have a reliable “single point of truth”? Can everyone in my company access the same data?)

Visuell hat AT Internet dies als Kreis dargestellt. Sie sehen das in der Abbildung – ein Rundumschlag, der die Herausforderungen sehr schön beschreibt. Ich erläutere die Bereiche noch ein wenig und kommentiere diese:

Richtigkeit & Genauigkeit

Erlauben Sie mir bitte Übersetzung von »Accuracy« mit »Richtigkeit & Genauigkeit«. Wenn Sie sich das Whitepaper von AT Internet ansehen, verstehen Sie weshalb. Daten der Digital Analytics gaukeln leider immer Genauigkeit vor, selbst wenn diese nicht vorhanden ist. Von außen betrachtet ist das auch nicht weiter verwunderlich. Computer erheben Daten darüber, was auf Computern passiert. Was sollte dabei schief gehen? – Leider ziemlich viel. Ein Beispiel aus der SEO Analytics: Wenn Sie wissen möchten, auf welcher Position Ihre Website für ein Keyword auf einer Google-Ergebnisseite steht, ist es ein gewaltiger Unterschied, ob das Ergebnis durch eine Schnittstellenanfrage bei Google oder per Crawl erhoben wurde oder ob die Google Search Console abgefragt wurde. Im ersten Fall handelt es sich um eine Zeitpunktbetrachtung, im zweiten um eine Zeitraumbetrachtung. Die Richtigkeit des zweiten Wertes aus der Search Console ist mit größerer Sicherheit richtig als die Zeitpunktbetrachtungen – auch wenn diese natürlich an sich genau sind.

Vollständigkeit

Und wieder: Reports gaukeln Genauigkeit vor. Wenn eine Website beispielsweise nicht vollständig vertaggt ist, dann sind die Daten nicht vollständig. Es muss also zum Beispiel geprüft werden, ob das Tracking Script überall dort ist, wo es sein soll. Im einfachsten Fall muss es bei einer Website in alle Seiten integriert werden. Bei WordPress etwa ist das ganz einfach: Es gibt ein PlugIn, das sich darum kümmert. Wenn Ihre Website jedoch aus verschiedenen Quellen zusammengesetzt wird, kann dies knifflig werden. Auch in bei responsiven Websites tauchen hin und wieder Probleme auf: Es muss darauf geachtet werden, dass das Tagging in verschiedenen Viewports gleichmäßig funktioniert. Das betrifft vorwiegend das Event-Tagging.

Selbstverständlich müssen auch die Server zur Erfassung der Daten jederzeit voll in ausreichender Geschwindigkeit verfügbar sein etc. Insgesamt haben wir es hier mit einem ganz klassischen Gütekriterium zu tun (s.o.).

Sauberkeit

Selbst wenn Ihre Daten alle vollständig erhoben wurden, können noch gewaltige Schwierigkeiten auftreten. AT Internet nennt als Beispiel falsche Tags in E-Mail-Newslettern, die erst erkannt werden, wenn der Newsletter bereits verschickt wurde. Hier fühle ich mich schon ein wenig ertappt. Google-Analytics unterscheidet in der Auswertung der Daten bei UTM-Parametern Groß- und Kleinschreibung, ist also Case Sensitive. Schreiben Sie daher Parameter-Werte am Besten immer alles klein und verwenden Sie immer Bindestriche und keine Unterstriche in den Parametern, sonst ist das Chaos unausweichlich. Gerade bei Updates von Websites tauchen solche Fehler relativ häufig auf, z.B. weil inzwischen die Bearbeiter gewechselt haben. Sie sollten aus diesem Grund unbedingt Fachkonzepte entwickeln und sich sklavisch daran halten. Wurden die falschen Daten an den Server übertragen, ist der Aufwand zur Korrektur in der Regel erheblich. In solchen Fällen gibt es Einschränkungen hinsichtlich Validität und Reliabilität der Daten.

Rechtzeitigkeit

Mir ist schon klar, warum Rechtzeitigkeit kein Kriterium in der klassischen Marktforschung ist und lieber von Aktualität gesprochen wird. Marktforschung benötigt meist sehr viel Zeit und besonders junge Berater unterschätzen deren Aufwand. In den Digital Analytics kann das anders sein. Mitunter stellt sich auch die Frage, ob denn tatsächlich alles in Realtime ausgewertet werden muss. Ich empfinde das manchmal fehl am Platz. Die Geschwindigkeit in der Auswertung ist aus meiner Sicht nur dann notwendig, wenn durch eine schnellere Verfügbarkeit eines Wertes tatsächlich schneller reagiert werden kann. Das ist beispielsweise dann der Fall, wenn auf einer wichtigen Seite ein 404 auftritt. Kürzlich empfahl beispielsweise Michael Janssen (zedwoo) auf einen 404 in Google Analytics einen Event zu setzen. Diesen kann man sich sogar zumailen lassen. Was bei kleinen Websites tatsächlich eine hilfreiche Sache ist, muss bei größeren Projekten natürlich umfänglicher angegangen werden. Oft ist beispielsweise die Search Console schneller oder das Werkzeug, mit dem die grundsätzliche Aktivität in den Logfiles überwacht wird. Es geht hier also hauptsächlich um das Erkennen und die Beseitigung technischer Probleme. Ähnlich verhält es sich mit Kampagnen: Hier muss auch schnell reagiert werden können, wenn Probleme auftreten.

Zweifellos gibt es in diesem Bereich noch andere Kriterien. Wenn es beispielsweise bei einem Analytics Tool lange dauert, bis ein Bericht angezeigt oder gerechnet wird, dann ist es einfach nur nervig. Hier muss man prüfen.

Konsistenz

Nehmen Sie bitte an, dass Sie verschiedene Websites für unterschiedliche Produkte in Ihrem Unternehmen haben. Es könnte eine für Schokoriegel, eine für Müsli und eine für Getränke sein, die analysiert werden müssen. Natürlich soll ihr Web Analytics Tool für alle Websites die gleiche Datenqualität erzielen. Sessions und Impressions sollen gleich gezählt werden – sonst können Sie nicht vergleichen. Das ist klar. Leider ist dies in der Unternehmenswirklichkeit nicht ganz so einfach. Je nach Struktur der Unternehmen werden die Websites mitunter auf verschiedenen Plattformen betrieben, es werden verschiedene Analytics-Werkzeuge eingesetzt, Daten werden mehr oder weniger gefiltert. Und dann werden die Zahlen nebeneinander präsentiert, als ob sie mit einer geeichten Waage gewogen wurden. Aber das ist leider mitnichten so, denn erhebliche Abweichungen sind möglich. Diese treten auch schon dann auf, wenn der Tag des Tag Management Systems an unterschiedlichen Positionen in der Website sitzt. Auch in diesem Fall gibt es Einschränkungen hinsichtlich Validität und Reliabilität der Daten.

Zu Abweichungen kann es auch kommen, wenn Daten auf verschiedenen Plattformen erhoben werden (z.B. Betriebssystemen, Browsern). Man sollte auch prüfen, ob alle Empfänger, die gleiche Daten bekommen sollen, auch tatsächlich die gleichen Daten erhalten. Hier sind einige Überraschungen möglich.

Für tiefergehende Informationen empfehle ich die Lektüre des AT Internet Whitepaper.

Ich habe dieses Jahr Kundenveranstaltungen bei OnPage & Searchmetrics besucht und war auf der SMX in München. Zudem kommen einem ja noch einige andere Infos vor die Nase. Hier also einfach mal eine mehr oder weniger kritische Zusammenfassung von SEO-Trends bzw. SEM-Trends, die für mich auffällig waren. Es werden insgesamt wahrscheinlich drei Beiträge in den nächsten Wochen. Etwas zur Search-Console und zu Schema etc. werden folgen.

Content Marketing, der Hyper SEO-Trend

Eigentlich sollte man ja immer vorsichtig sein, wenn Supertrends kolportiert werden. In diesem Fall geht es um Content-Marketing. Oh – erwischt! Das mache ich hier mit meinem Blog auch. Und um was geht es? – Darum, dass man für Social Media und SEO Inhalte braucht und diese möglichst so in die Seiten eingebunden werden sollte, dass hohe Positionen in den SERPs (Suchmaschinen-Ergebnislisten) erreicht werden. Durch die Ausprägung als Text kann Google diese Inhalte wunderbar nutzen. Eigentlich ist das ziemlich cool. Dann gibt es da aber solche Analyse-Tools wie Searchmetrics. Dort wird in Berichten gezeigt, wie die Lage ist: Texte auf der ersten Ergebnisseite sind länger als weiter hinten.

Wortzahl Searchmetrics

Wortzahl Searchmetrics (Quelle: Searchmetrics Whinepaper Rebooting Ranking-Faktoren 2017)

 

Mit 0,08 ist die Korrelation nicht sonderlich hoch. Erstaunlich ist auch, dass die Treffer auf den ersten Plätzen im Durchschnitt weniger Worte haben, als Treffer auf den Plätzen 4 bis 7. Genau: “Durchschnittlich” ist der entscheidende Ausdruck! Ist Ihnen schon aufgefallen, dass es recht oft Treffer auf den PLätzen 1 bis 3 gibt, die sehr wenig Text auf ihrer Seite haben? – Es ist eben nicht immer viel Text notwendig. Content muss nicht breit sein – die Relevanz von Inhalten und Funktionen für die Fragestellungen der Nutzer von Suchmaschinen ist entscheidend.

Wenn wir nun dieses Ergebnis bei Searchmetrics sehen, sollte es uns alarmieren. Wir sollten nicht nur auf Werkzeuge vertrauen, die uns mit mehr oder weniger großem analytischem Aufwand helfen, die richtigen Keywords in unseren Texten unterzubringen. Hier helfen OnPage und Xovi, indem die Treffer der ersten Ergebnisseite für einen Suchstring ausgewertet werden. Man sieht Worthäufigkeiten. Klar, das hilft. Vergleicht man jedoch die Worthäufigkeiten im Zeitverlauf, so könnte einem schon Angst und Bange werden. Ja – Content-Marketing ist ein Prozess und nicht ein Projekt. Die Jungs von OnPage geben deshalb den Tipp, die Worthäufigkeiten regelmäßig zu überprüfen und Texte gegebenenfalls anzupassen. Sicher – das Verfahren ist analytisch und prinzipiell etwas, das ich auch befürworte. Der Nachteil daran: Sie laufen immer nur ihren Wettbewerbern hinterher. Wenn Sie vor diesen stehen wollen, müssen Sie schneller relevante Suchen identifizieren als andere Marktteilnehmer. Das wiederum ist aufwändig: Sie müssen Themen systematisch aufarbeiten und Trends erkennen. Dazu ist wiederum eine tiefergehende Sachkenntnis erforderlich. Die Auslagerung der Wordings wird schwieriger. Zwar ist das machbar, dazu ist es allerdings erforderlich, Know-how und Strukturen aufzubauen.

Externe Effekte des SEO-Trends Content-Marketing

Nehmen wir nun einfach an, dass es uns gelingt, durch Content-Marketing Erfolge zu erzielen. Wir gewinnen dadurch Nutzer für unsere Website. Das ist toll. Doch was bedeutet das für Google? – Dort wird weniger verdient. Im Sinne von Google kann das nun wirklich nicht sein, dass durch Hinzufügen von passenden Texten eine Position auf der ersten Ergebnisseite erreichbar ist. Analysiert man noch das, was Kollegen zu dem Thema sagen und das, was die Notwendigkeit der Integration von Text in Webpages bringt, dann scheint das Ende der einfachen Textstrickerei nahe. Norman Nielsen von Zalando meinte bei der Searchmetrics-Veranstaltung, dass der Sinn von Content auch nicht 2,5 cm Text in der linken Spalte sein können (auch wenn das noch funktioniert). Genausowenig wird Text langfristig funktionieren, der vor den Nutzern versteckt wird – gleich ob das mit Tabs passiert oder ob die vielen Worte an das visuelle Ende einer Seite gepackt werden. Für Suchmaschinen besteht die Aufgabe schließlich nur darin, die Relevanz des Content für die jeweilige Fragestellung der Nutzer zu beurteilen. Sollten die Texte dazu nicht – oder nicht mehr – notwendig sein, dann kann viel Geld gespart werden. Der eine oder andere Kollege auf den Veranstaltungen verwies darauf, dass nach dem Löschen der Texte auf Testseiten schlichtweg nichts hinsichtlich der Position auf den SERPs passiert ist.

Aus meiner Sicht ist es ohnehin erstaunlich, dass sich Google auf diese Bewertung festgelegt hat. Sicher – es erfordert einiges an Aufwand, 300, 500 oder sogar 1.200 Worte für ein Thema zu texten. Aber was sollen diese Texte auf Übersichtsseiten zu Kleidern oder Joggingschuhen? Könnte Google hier nicht einfach die Texte der Zielseiten zu Rate ziehen? Wahrscheinlich wird das auch gemacht, nur fällt in der Analyse von außen die Bewertung etwas schwerer.

Tanker & Enten in der SEO

Google schraubt am Algo – ziemlich oft sogar. Manchmal wird etwas als Major-Update benannt, aber oft gibt es Spekulationen darüber, was gerade passiert ist. So war das beispielsweise beim Update im Mai 2017. Was Google macht, bewegt sich in ganz langsamen Bahnen – Google ist der Tanker im Meer von Websites, die wie lahme Enten auf echte oder vermeintliche Änderungen reagieren. Ein Beispiel: Der Page Rank basierte einmal auf den externen Links, die auf eine Seite gesetzt wurden. Anfangs war dies ein schwer zu erfüllendes Kriterium. Als es dann leicht wurde, an Links zu kommen, wurde dieser in der ursprünglichen Form für Google wertlos. Wenn es nun leicht wird, den entsprechenden Content zu generieren, dann wird Google neue Kriterien zu Rate ziehen müssen. Wir dürfen sicher sein, dass es diese schon gibt. Es wird dabei um die Verteilung von Inhalten gehen, darum wie Nutzer mit diesen interagieren und nicht zuletzt um Bilder.

Auf allen Veranstaltungen wurde mehr oder weniger deutlich die UX als der neueste SEO-Trend angesprochen, das neue Content-Marketing oder die neue SEO. Und genau das ist es – die User Experience wird wichtiger. Der Prozess der Erstellung von Websites muss integrierter stattfinden als bisher. Webdesign, Interaktionsdesign, UX und SEO müssen gemeinsam arbeiten und dürfen natürlich auch nicht die Anforderungen an die Analytics vergessen. Ganz klar – Content-Marketing wird mehr Strategie und Konzept brauchen und und weniger Masse. Dieser SEO-Trend wird aus meiner sicht derzeit übertrieben. Der Markt für Content-Marketing ist wahrscheinlich schon überhitzt. Damit wird zwangsläufig ein Rückgang erfolgen.

Lange habe ich keinen Beitrag mehr veröffentlich. OK – ich schreibe an einem größeren Projekt. Nun werde ich versuchen, regelmäßig Texte zu bloggen. Anfangen möchte ich mit dem Zielgruppen-Begriff. Dieser ist aus meiner Sicht zentral für das Online-Marketing und damit auch eine Basis für jegliches datenorientierte Arbeiten. Aus diesem Grund sollte der Begriff an sich näher untersucht werden.

Definitionen Zielgruppe aus dem Lehrbuch

Grundsätzlich ist es so, dass man seinen Aussagen – einem Text – nicht losgelöst von der Umwelt existiert. Einordnung ist notwendig. Als ich in den Index des Buchs von Jochen Becker (Marketingkonzeption 1998) schaute, entdeckte ich weder den Zielgruppen-Begriff noch den der Target Group. Ich war enttäuscht. In Manfred Bruhns Kommunikationspolitik (1997) war ich erfolgreicher. Dort ist auf Seite 3 eine Definition:

Zielgruppen der Kommunikation sind mittels des Einsatzes des kommunikationspolitischen Instrumentariums anzusprechende Adressaten (Rezipienten) der Unternehmenskommunikation.

Definitionen dieser Ausprägung sagen auch etwas über den Ersteller aus. Da ist der Begriff „Kommunikation“ zu lesen. Genauer „Zielgruppen der Kommunikation“. Wenn ein Marketing-Mann das so definiert, dann sollte es also auch noch Zielgruppen der Produktpolitik, Preispolitik und Distributionspolitik geben. Das sollte so sein, weil das Adressaten mittels des kommunikationspolitischen Instrumentariums angesprochen werden. Abgesehen davon, dass das Konstrukt der Zielgruppe natürlich – und völlig richtig – in allen genannten Bereichen des Marketings eine Rolle spielen sollte, demonstriert die Definition eine Einstellung, die im Online-Marketing nicht vorherrschen sollte. Adressaten werden „angesprochen“. Die Adressaten werden auch noch als „Rezipienten“ bezeichnet. Salopp gesagt, möchte man anscheinend nur Botschaften loswerden – vielleicht auch überzeugen – mit Kunden reden wohl nicht.

Wenn ich mich recht erinnere, war das in den 80er und 90er Jahren tatsächlich die herrschende Einstellung. Mangels Rückkanal und in voller Breite messbarer öffentlicher Konsumenten-Kommunikation verwundert es im Nachhinein nicht mehr so stark. Das Internet, der verbreiterte Rückkanal und die erweiterten Möglichkeiten der öffentlichen oder halböffentlichen Kommunikation haben die Marketing-Umwelt diesbezüglich gravierend verändert. Online-Marketer sind sich des Rückkanals sowie Social Media & Co. sehr wohl bewusst. Die Definition sollte erweitert werden. Ich muss gestehen, dass ich hinsichtlich der Definition von Becker unsicher war. Das Buch in meinem Regal ist schließlich eine Auflage von 1997. Deshalb habe ich eine jüngere Kollegin gebeten in ihrem Bücherschrank nachzusehen. Christian Homburg (2012, S. 171) formuliert die Definition in seinem Lehrbuch ähnlich salopp, wie ich hier weitgehend formuliere:

Angestrebte Zielgruppe: Um den späteren Markterfolg des Produktkonzepts vorzubereiten, sollte festgelegt werden, wer als zukünftiger Käufer eines Produkts in Frage kommt.

Diese Definition findet sich in einem Kapitel zum Innovationsmanagement. Im Kapitel zum Instrumentalbereich „Kommunikationspolitik“ wird beschrieben, wie die Charakterisierung einer Zielgruppe operationalisiert wird. Homburg (2012, S. 216) nennt die üblichen Dimensionen:

  • demographische Kriterien
  • sozioökonomische Kriterien
  • allgemeine Persönlichkeitsmerkmale
  • Nutzenkriterien
  • kaufverhaltensbezogene Kriterien

Homburg formuliert hier etwas vorsichtiger und schreibt „bei wem soll etwas erreicht werden?“ Genau das ist richtig. Es soll etwas erreicht werden. Was erreicht werden soll, ist nicht zwingend ein Kauf. Vielleicht ist es lediglich die öffentliche Aussage über ein Produkt, Bekanntheit, Einstellungen etc.

Manfred Kirchgeorg ist bei der Definition der Zielgruppe im Gabler Wirtschaftslexikon viel formaler. Er schreibt explizit von „Adressaten“ und „Ansprache“. Vielleicht ist es der Kommunikationswissenschaftler in mir, der diese einseitigen Definitionen in der Tradition der Lasswell-Formel „Who says what in which channel to whom with what effect?“(1948) für unvollständig hält. In diesem Satz werden die verschiedenen Ansatzpunkte zur Analyse genannt. Diese werden auch noch immer forscherisch bearbeitet. Das große Dilemma des Satzes ist allerdings, dass es ein Satz ist und dieser mit „with what effect“ endet. Genau dieses Ende, der „Effekt“ kann zwar auch bedeuten, dass in einen Dialog einzutreten ist – aber eben nur implizit. Diese Tatsache wurde gerade im Marketing lange nur unzureichend berücksichtigt.

Im Online-Marketing ist die Lage etwas anders. Online ist Kommunikation gegeben und auffällig. Sicher – es ist nicht nur Kommunikation – auch wenn die Kommunikation notwendige Bedingung ist. Es gibt auch viele Aspekte der Distributions- sowie der Preispolitik. Vielleicht ist die größte Veränderung hinsichtlich der Zielgruppendefinition in hinsichtlich der Produktpolitik vorhanden.

Zielgruppen wurden und werden immer noch definiert, um abzuschätzen, welche Potenziale ein Produkt oder Unternehmen hat. Das wurde in der Definition von Homburg deutlich. Es muss antizipiert werden, wie hoch das Käuferpotenzial für dieselben ist und mit welchem Aufwand diese erreicht werden können. Hierbei hat das Internet zu merklichen Veränderungen geführt: Kleine Zielgruppen sind mitunter höchst effizient ansprechbar und die Produkte können über die mittlerweile entwickelten Logistiksysteme in Rekordzeit zu Konsumenten gebracht werden.

Definition Zielgruppe für das Online-Marketing

Die Definition der Zielgruppe sollte also auch für das Online-Marketing das gesamte Marketing-Instrumentarium betreffen. Natürlich sollte der Rückkanal berücksichtigt werden.

Zielgruppen im Online-Marketing sind Menschen oder Maschinen mit denen mittels Internet kommuniziert werden soll, um Marketing-Ziele umzusetzen und final gewünschte Handlungen zu erreichen.

Diese Definition ist prinzipiell dicht an die Definitionen in der Literatur angelehnt. Allerdings würde ich grundsätzlich im Plural formulieren, da ich nicht davon ausgehe, die gewünschte Handlung – wohl meist ein Kauf – direkt nur durch Kommunikation mit ebendiesem Personenkreis zu erreichen. Einen solchen Personenkreis kann man beispielsweise wie folgt beschreiben: Männer und Frauen zwischen 25 und 35 Jahren, die sich in Baden-Württemberg und Bayern aufhalten und mindestens einmal im Monat mehr als zehn Kilometer wandern.

Zielgruppen-Auswahl bei LinkedIn

Zielgruppen-Auswahl bei LinkedIn

Nur indem auf Facebook, Google oder an einer anderen Stelle die „Zielgruppe“ angeklickt und damit ausgewählt und Werbung gebucht wird, kann weder ein Kleidungsstück noch ein Rucksack oder ein Ticket für den Nahverkehr verkauft werden.  Nur weil das bei LinkedIn übersichtlicher ist (Abbildung) auch nicht. Die Kommunikation mit weiteren Personen oder Organisationen ist notwendig. Wenn es um Bekleidung geht, muss diese beispielsweise auch in den stationären Handel und in der Online-Handel gelangen. Häufig sind es tatsächlich eine ganze Reihe von Zielgruppen, die bestimmt und mit denen kommuniziert werden muss. In der Online-Welt sind dies teilweise auch Maschinen. Von Käufern spreche ich auch ausgesprochen ungern. Das Ziel von Marketing-Maßnahmen ist eben nicht immer ein Kauf. Gerade im Online-Marketing ist das Ziel sehr häufig auch Kommunikation oder eine andere Art von Handlung. Diese etwas allgemeinere Formulierung halte ich für günstiger. Selbst final muss es kein Kauf sein – auch nicht online. Denken Sie beispielsweise an das Marketing von Öffentlichen Einrichtungen oder den Bereich Personalmarketing. Wenn aus der Personalabteilung heraus Ingenieure erreicht werden müssen, dann ist das Ziel meist die Unterschrift eines Arbeitsvertrags.

 

In der aktuellen t3n (Ausgabe 42) ist ein Beitrag über Analytics-Tools für Start-ups bzw. kleinere Unternehmen. Darin werden einige Klassen von Werkzeugen besprochen. Grundsätzlich ist das nicht schlecht. Allerdings wirkt der Artikel schon so, als ob viele Fragestellungen nur mit diesen Tools zu lösen seien. Anschließend werden die Daten aus jeglicher Quelle Dashbord-Lösung gepackt und alles ist gut.  Hierzu gibt es einiges zu sagen. Ich erläutere deshalb hier rudimentär welche Analytics-Daten zur Steuerung eines Web-Projekts notwendig sind.

Google Analytics Homepage vor Login

Google Analytics Homepage vor Login

Analytics-Speziallösungen müssen administriert und gelernt werden

Vor allem wird die Mächtigkeit von Google Analytics als Werkzeug unterschätzt. Mit Custom Reports und Event-Tagging lässt sich vieles lösen und beantworten, wozu es kein Spezialwerkzeug braucht. Vor allem wurde im Beitrag ignoriert, dass auch Apps mit Google Analytics messbar sind. Die Daten kommen damit aus der gleichen Welt. Das hilft, weil nicht noch weitere Werkzeuge administriert und verstanden werden müssen. Fatal ist dann mitunter auch die Notwendigkeit zur Betreuung weiterer Schnittstellen. So schön in vielen Dashboards Daten aufbereitet werden – dedizierte Schnittstellen zu allen Werkzeugen, die eingesetzt werden gibt es meistens nicht. Ein oder zwei fehlen meistens. Eine eigene Datenhaltung und die Entwicklung eigener Schnittstellen wird notwendig. Das kostet Geld, Zeit und v.a. Nerven. Je weniger Analytics-Tools im Einsatz sind, um so effizienter kann mit den Resultaten umgegangen werden. Klar – die Google Analytics- bzw. Universal Analytics-Nutzverwaltung und die Weitergabe von Reports ist ein Ding an dem Google dringend arbeiten sollte. Allerdings hat eine so weit verbreitete Lösung einen entscheidenden Vorteil: Es gibt viele, die sich damit auskennen. Das spart Kosten. zudem lassen sich sogar Daten aus fremden Quellen integrieren.

A/B-Tests nicht vergessen!

Onsite würde ich kaum zu einem weiteren reinen Analytics Tools raten – außer natürlich zu Werkzeugen für A/B-Tests. Hierfür ist Google Analytics wirklich nicht die optimale Lösung. Ich mag hierfür Optimizely. Das lässt sich auch von kleineren und mittleren Unternehmen einsetzen. Diese Klasse an Analytics-Tools fehlt im Artikel. Im Marketing sind noch einige weitere Werkzeugklassen wichtig, die Werte generieren, die im Rahmen der Analytics relevant sind bzw. in Dashboards integriert werden müssen.

Onsite-Analytics heißt auch Performance und SEO

Bleiben wir bei der Website: Da sollten Werkzeuge zur Analyse der technischen Performance der Website im Einsatz sein. Wenn das Ding zu langsam wird, dann gibt es nicht nur Ärgern mit den Nutzern – auch die SEO leidet. Womit wir bei nächsten Punkt wären: SEO-Tools liefern auch wichtige Daten und geben Handlungsempfehlungen. In den Tools bekommt man diese früher als sich diese im organischen Traffic bei Google Analytics bemerkbar machen. Sicher – man kann sich über die Indices streiten, die Searchmetrics oder XOVI et al. produzieren streiten, grundsätzlich sind diese hilfreich. Die Werte gehören in ein Überblicks-Dashboard für die Marketing-Leitung. Zudem ergeben sich dadurch auch noch Hinweise hinsichtlich der Arbeit von Wettbewerbern.Wenn man einen Shop betreibt, dann ist die Bonität seiner Kunden wichtig. Auch die Ergebnisse dieser Prüfungen sollten aus dem E-Commerce-System oder auf anderem Wege einer Bewertung zugeführt werden.

Management-Werkzeuge liefern auch Analytics-Daten – was ist damit?

Verlässt man Website und App, dann geht es um die Zuleitungen zur Website. Ein sehr wichtiges Bindungswerkzeug in diesem Bereich ist die E-Mail. Man sollte beispielsweise einfach wissen, wenn die Öffnungsraten der Mails plötzlich sinken, Bounce Rates steigen etc. Grundsätzlich ist dafür kein extra Analytics-Werkzeug notwendig. Kampagnen-Werkzeuge verfügen i.d.R. über eine Auswertungs-Instanz. Die Daten müssen nur aus dem Werkzeug herausgeholt und in das Übersichts-Dashboard integriert werden. Ach ja – es sind auch noch Werte für die eigene Datenhaltung. Dazu hätte ich mir auch noch etwas in dem Artikel gewünscht: Wie geht man mit Analytics-Daten um, die in einem anderen Werkzeug eher nebenbei anfallen – wie dem E-Mail-Tool einem CMS oder einem Social Media Management-Werkzeug wie Hootsuite.

Genau analysieren, wie Werbemaßnahmen wirken

Relevant sind in diesem Zusammenhang auch die Daten von AdServern – schließlich sollte man nicht nur wissen wie oft jemand auf der eigenen Website gelandet ist, sondern auch, wie oft die eigene Display-Werbung im Netz gesehen wurde, welche Werbemittel funktionieren und welche nicht. Gerade im Bereich der zunehmenden Kontingenz von Bewegtbildwerbung über das Internet und bei Fernsehwerbung gibt es noch beträchtlichen Entwicklungsbedarf. Ich gestehe: Die Baustelle Bewegtbildwerbung und Analytics ist tendenziell etwas für größere Unternehmen.

Dashboards

Im Beitrag wird ganz richtig darauf verwiesen, dass bei all den unterschiedlichen Datenquellen eine Dashboard-Lösung notwendig ist, um den Überblick zu behalten. Es werden auch viele brauchbare Lösungen genannt. Allerdings fehlt Tableau. Hinsichtlich der Möglichkeiten zur Visualisierung ist das wirklich klasse. Zudem gibt es Tableau zu Preisen, die auch ein KMU bezahlen kann.

Das was ich jetzt geschrieben habe, ist auch nicht umfassend. Ich kann nur dazu raten sich entlang der gesamten stattfindenden Prozesse zu hangeln. In diesem Zusammenhang sollte man sich über seine Ziele klar sein. Nur so kann man nach Fragen Ausschau zu halten, die beantwortet werden sollten, um das Projekt zu optimieren. Tja – und dann geht es darum, zu sehen welche Werte Antworten auf die Fragen geben bzw. bei der Entscheidung helfen. Das müssen nicht sonderlich viele Werkzeuge sein – auch wenn es die gibt und sie an sich toll sind.

Seit letzter Woche hat Pinterest seine API stärker zur Nutzung freigegeben als bisher. Das ist toll und wird Pinterest einen weiteren Schub verpassen. Ein Partner mit dem Pinterest diese so erfreuliche Nachricht promotete ist IFTTT (IfThisThenThat). Damit kann vieles im Web und über das Web automatisiert werden. Ein Beispiel: Wenn Sie ein Instagram veröffentlichen, kann es automatisch auch auf ein Pinterest-Board gepinnt werden. In die andere Richtung ist auch vieles möglich: Wenn Sie auf ein bestimmtes Bord einen Pin setzen, können Sie diesen gleichzeitig auf Tumblr befördern oder das Bild in Google Drive speichern.

Pinterest & IFTTT: Featured Recipes

Pinterest & IFTTT: Featured Recipes

Pinterest selbst hat schon etwa 30 Rezepte angelegt, mit deren Hilfe die Automatisierung möglich ist. Auf der Startseite der Rezepte wird gleich das Rezept zum Pinnen von Instagrammen gezeigt. Es ist gleichzeitig eines bei dem nicht so viel schief gehen kann. Stellen Sie sich bitte vor, es würde jedes Mal ein neuer Pin angelegt, wenn ein Tweet mit einem bestimmten Hashtag und einem Bild auf Twitter auftaucht – grauenvoll. Die Integration ist schon recht vorsichtig gemacht – aus meiner Sicht hat das Pinterest so gelöst, dass keine größere Spam-Gefahr besteht.

IFTTT – Pinterest: So funktioniert’s

Zunächst müssen Sie sich einen Account bei IFTTT anlegen. Wählen Sie bitte ein Passwort, das Sie sonst nicht verwenden. Sie müssen andere Konten damit verknüpfen. Damit IFTTT richtig arbeitet, benötigt es Posting-Berechtigungen. Hier kann einiges schief gehen, wenn wer das Passwort hat.

Pinterrest Tumblr Rezept

Pinterrest Tumblr Rezept

OK – es gibt einige Rezepte die fertig angelegt sind. Diese können Sie natürlich verwenden und sich durch den Prozess leiten lassen. Wie gesagt, Pinterest hat schon etwa 30 Rezepte angelegt. Diese Rezepte bestehen immer aus Triggern und Actions. Im Trigger wird ein Auslöser definiert. Das können im Falle von Pinterest Likes sein oder Pins, die auf ein bestimmtes Board gesetzt werden. Die Action ist dann, was auf einer Anderen Plattform damit gemacht wird.  Ein Rezept für Pinterest mit Tumblr sehen Sie in der Abbildung oben.

Nachdem Sie beide Plattformen mit IFTTT verbunden haben, ist es ganz einfach. Sie wählen das Board aus, auf das gepinnt wurde und dann können Sie entscheiden, was damit auf Tumblr passiert. Es kann sofort gebloggt werden, in eine Queue wandern, als Vorlage gespeichert werden oder privat publiziert werden. Tumblr Nutzer sehen hier auch eine Schwierigkeit. Wenn Sie mehr als ein Blog auf Tumblr betreiben, fehlt die Möglichkeit zur Einstellung auf welchem Blog der Pin landet – es ist eine Überraschung! Sie müssen mit einem Test herausfinden, wo Ihr Pin landet – also in die Entwürfe Ihrer Blogs schauen.

Den Post selbst können Sie auch ein wenig beeinflussen. Im Fall von Tumblr können Sie bei einem Photo Post die URL editieren, den Text und die Tags. Wie Sie in der folgenden Abbildung sehen, ist es möglich aus einer Reihe von Parametern, die Pinterest an IFTTT übergibt, Felder zu editieren, die später in Tumblr erscheinen. Das ist recht einfach gemacht, wenn man über ein gewisses technisches Grundverständnis verfügt. Die Parameter werden über eine Auswahlmaske eingefügt stehen dann in doppelt geschwungenen Klammern in einem Text, der editierfähig ist – z.B. {{HexColor}}. Probieren Sie es einfach aus. Am besten bei einer Plattform, bei der nichts direkt veröffentlicht wird oder es zunächst verbergbar ist – also bei Tumblr, Google Drive oder GMail – nicht bei Facebook oder Twitter. Den Source-URL sollten Sie auf jeden fall reienpacken und auch die Quelle nennen. Sie wissen schon: Copyright.

 

IFTTT Rezept Editieren

IFTTT Rezept Editieren

 

Dann kann noch ein wenig an den Tags editiert werden. Deren Übernahme ist von Pinterest nach Tumblr leider nicht möglich. Sie können lediglich voreditiert werden. So kann man beispielsweise den Namen des Boards als Hashtag angeben und auch noch weitere passende Begriffe.

Für andere Plattformen und Anwendungen funktioniert das entsprechend. Wenn es sein muss können Sie sich sogar Lichtsignale geben, wenn ein Pin auf ein Gruppen-Board gepinnt wurde.

Tja – und lange dauert es nicht mehr. Dann erschein mein neues Buch – noch im Juli: Tumblr. Passt ziemlich gut zu Pinterest.

Pinterest lässt sich Zeit. Das betonte ich schon öfter. Allerdings tut das der Plattform ausgesprochen gut. Genau dies wird auch an den neuen Pinterest-Werberichtlinien deutlich. Bisher habe ich noch nichts dazu auf Deutsch gelesen. Grund genug für eine Analyse. Zum Januar führte Pinterest seine Werbeform für den Feed in Amerika breiter ein. In Deutschland werden wir wohl noch ein wenig warten müssen. Die Analyse dient also der Vorbereitung.

Auf der Seite zu den Werberichtlinien erläutert Pinterest sehr anschaulich, wie es sich Werbung im Feed vorstellt. Pinterest möchte, dass werbliche Inhalte der Nutzung förderlich sind und ein positives Erlebnis vermitteln. Pinterest soll dadurch besser werden – inspirierender. Beworbene Pins sollen aus der Sicht von Pinterest zum besten Inhalt gehören, den es auf der Plattform gibt. Sie sollen also nicht hingehen und Anzeigen entwerfen. Sie sollen schöne Pins nehmen, die ohnehin schon erfolgreich wären und Pinterest sorgt dafür, dass diese noch erfolgreicher werden. Zu diesem Zweck werden die Richtlinien formuliert. Sie sollen helfen, guten Content zu entwerfen und vielleicht den einen oder anderen dösigen Marketing-Honk davon abhalten, Anzeigen als Promoted Pins zu platzieren. Das betrifft übrigens auch alles, was nach dem Klick auf einen Pin passiert – also bitte keine großflächigen modalen Dialoge, die zum Abo von Newslettern motivieren sollen etc. Vielleicht bleibt den Nutzern ja das Unerfreuliche erspart, das sie auf Facebook und in Google-Werbung nur all zu oft ertragen müssen.

Verbotene Pinterest Werbung

Nicht den Pinterest-Werberichtlinien konform (Quelle)

Pinterest-Werberichtlinien – es sind einfache Regeln:

  • Sei autentisch (Na – passen athletische Typen und Süßigkeiten wirklich zusammen?)
  • Bewerbe Pins, die dich stolz machen (Edeka ist auf Lichtenberg sicher stolz!)
  • Bewerbe keinen Spam oder bösartiges (Honks werden rausgeworfen)
  • Befolgen Sie die Pinterest Policy und deren Geist (Pinterest ist das nette Netzwerk!)
  • Befolgen Sie die geltenden Gesetze und Vorschriften. (Das versteht sich von selbst und bezieht sich nicht auf die 8,50 €, die sie Praktikanten mit abgeschlossenem Studium zahlen sollten).

Pins – Bilder und Texte

Bei Ihren Pins sollten sich auf folgendes achten. Werbeanzeigen gehen nicht. Wirklich nicht. Stellen Sie sich vor Sie platzieren eine Anzeige und müssen sich das Ding in fünf Jahren noch immer ansehen. Noch schlimmer: Sie haben in der Anzeige einen Rabatt von 50% avisiert. Also einfach Finger weg von Anzeigen und her mit den schönen Bildern, die Sie ohnehin gerne verbreiten. Bei Events sollten sie das vollständige Datum mit Jahreszahl angeben. Ach ja – Preise gehören auch nicht in Bilder. Wenn Sie das möchten sollten Sie das mit Rich Pins lösen, die ziehen den aktuell gültigen Preis für Ihr Produkt.

Text muss nur selten in die Bilder. Wenn notwendig, dann bitte kurz ohne zu viele Ausrufezeichen. Claims stören. Pinterest-Nutzer wollen schöne Bilder – keine Werbeaussagen. Lassen Sie bitte auch Sachen weg, die Funktionalitäten vorgaukeln, die es nicht gibt – also beispielsweise Menüs, Metions oder Hashtags. Besonders Hashtags sind blödsinnig. Zumindest in den meisten Fällen. Auf solche Ideen können aus meiner Sicht nur digitale Analphabeten oder passionierte Printgestalter kommen. Weg lassen – bitte!

Ansonsten ist Pinterest frei von Sex. Busen gehen – manchmal. Wenn dann sollten die Bilder sehr ästhetisch sein. Pinterest ist politisch extrem korrekt. Lesen Sie nochmal die Nutzungsbedingungen, wenn Sie nicht verstehen, was das heißt. Natürlich dürfen Sie auch nicht sagen, dass Sie mit Pinterest in Verbindung stehen.

Landing-Pages

Wie oben schon geschrieben, sollten Sie nicht einfach nur Adresswerbung betreiben. Das ist langweilig und doof. Platzieren Sie auf der Zielseite nützlichen Content. Bei einem Kleidungsstück sollten Sie eben das Zeigen, was auf eine Produktseite gehört. Das sind sicher auch beschreibende Texte. Ebenso gehören Größenangaben, Verfügbarkeiten, Preise, Pflegehinweise dazu. Viele weitere Bilder sind ohnehin hilfreich. Diese fördern die Viralität. Also los – nützlich muss es sein und darf nicht gegen die Nutzungsbedingungen verstoßen.

Produkte, die nicht beworben werden können – zurecht!

  • Adult products and services – also Sex & Co.
  • Alkohol
  • Imitationen bzw. Blender
  • Drogen und Tabak
  • Bedrohte Tiere oder Produkte davon
  • Gefälschte Dokumente (Ausweise, Doktor-Titel etc.)
  • Glücksspiel inkl. Anleitungen
  • Ilegales
  • Zielseiten die Viren enthalten oder Hacking
  • Pharmaprodukte
  • Bezahlen fürs Pinnen
  • Bei Subscriptions muss klar erläutert werden, was abonniert wird (Kosten, Zeitraum etc)
  • Unakzeptabele Geschäftsmodelle (Schneeball, Pyramide etc.)
  • Waffen und Sprengstoff.

Das Jahr neigt sich dem Ende zu. Ich war fleißig und habe wieder die compete.com Reichweiten der Social Networks in den USA aufgearbeitet. Der Gesamtmarkt ist 2014 um knapp 15 Prozent gewachsen. Dabei gibt es drei eindeutige Gewinner. Twitter legte sagenhafte 77 Prozent zu, das Business-Netzwerk LinkedIn immerhin 45 Prozent. Mein Liebling Pinterest wuchs im Verlauf der vergangenen 12 Monate  um 41 Prozent. Twitter verpasste mit 79 Millionen Nutzern nur ganz knapp die 80 Millionen. Der Kurznachrichtendienst hat damit bald halb so viele Nutzer wie der Überflieger Facebook. Bei dem Mega-Netzwerk tut sich seit zwei Jahren kaum noch etwas. Seit im Juli 2012 die Marke von 160 Millionen Nutzern geknackt wurde, sind die Bewegungen nur graduell. Mal geht es etwas hoch, dann wieder etwas runter. Die 170 Millionen werden nicht erreicht. Der Markt ist absolut gesättigt. Zuwächse ließen sich nur noch über Diversifikation bzw. Zukäufe erzielen. Instagram kratzte mit 39 Millionen monatlichen Nutzer auch schon knapp an der 40 Millionen-Marke.

Wenn Sie die Entwicklung in der folgenden Abbildung anschauen, ist das nicht so ganz übersichtlich. Deutlich wird allerdings, dass MySpace der Verlierer des Jahres ist. Während sich das Netzwerk 2013 erfreulich entwickelte, zeigt die Tendenz jetzt klar in den Keller.

Reichweiten Social Networks USA 2014

Reichweiten Social Networks USA 2014

Reichweitengewinner Twitter

Spannender wird es, wenn man den Zeitschnitt länger wählt und die Zahl der Networks reduziert. Pinterest entwickelt sich – mit ganz wenigen Pausen – positiv und erreicht in drei Jahren 50.000.000 Nutzer pro Monat in den USA. Bei Google+ verläuft der Prozess sehr viel uneinheitlicher. Es gibt erhebliche Schwankungen. Der Konzern muss wohl erhebliche Anstrengungen unternehmen, um vor LinkedIn und Pinterest zu landen. Twitter wurde zwischenzeitlich überholt. Twitter kennt nach langer Zeit des Dümpelns seit einem Jahr nur noch den Weg nach oben. Wenn ich es richtig einschätze, haben wir diesen Erfolg in Deutschland bisher noch nicht wirklich wahrgenommen.

Reichweiten Social Networks USA 2011-2014

Reichweiten Social Networks USA 2011-2014

Wer die Zahlen noch ein wenig näher analysieren möchte. Hier liegt das Drive-Dokument.

Meinen Blogging-Kollegen hat die neue Pinterest Analytics ziemlich gut gefallen. Diese hat sich gegenüber dem Ansatz, den Pinterest davor über ein Jahr verfolgte, erheblich geändert. Früher war das Modul auf die Pins der eigenen Website konzentriert. Nun gibt es Daten in einer Umfänglichkeit, die sonst nicht üblich ist. Das Modul ist richtig toll geworden. Es ist übersichtlich und bietet viele verschiedene Sichten auf die Daten, die auch exportierbar sind. Die Daten stehen für Business Accounts zur Verfügung.

Pinterest Analytics Dahboard

Pinterest Analytics Dahboard

Pinterest Analytics – Reichweiten von Pins werden angezeigt

Nun bekommen Sie die Reichweiten Ihrer Pins angezeigt. Rich Pins sind entsprechend markiert und es fällt auf, dass diese bei meinen Infografiken viel mehr Interaktion abbekommen als normale Pins. Es wäre spannend zu erfahren, wie die Interaktionsraten sich hinsichtlich der Integration von Preisen etc. verändern. Auf jeden Fall erfährt man jetzt etwas über das Ausmaß der erzielten Reichweite. Das bezieht sich sowohl auf einzelne Pins als auch auf die Reichweiten der Boards.

Zielgruppen-Informationen – Demografie und Interessen

Ich war schon überrascht zu sehen, dass immerhin 42 Prozent meiner Zielgruppe aus Deutschland kommen. 6000 Personen aus Deutschland, die auf Infografiken gucken – das ist schon eigenartig. Mit Klamotten oder Möbeln wäre ich wohl ein Gigant geworden! Aber Spaß beiseite.

Pinterest Analytics: Zielgruppe

Pinterest Analytics: Zielgruppe

Sie sehen, dass das Dashboard noch nicht so perfekt ist. Ich wünsche mir neben den absoluten Werten noch Prozentangaben. Das würde es einfacher machen, weil nicht alle Länder in der Tabelle auftauchen. „City“ wurde offensichtlich mit „Innenstadt“ übersetzt. Facebook wählt hier den Begriff „Stadt“. Dieser sollte auch von Pinterest benutzt werden, und zu gegebener Zeit werden sicher auch die Namen der Städte erscheinen. Freuen wir uns einfach darauf.

Einen Screenshot hinsichtlich der Interessen meiner Zielgruppe möchte ich nicht vollständig publizieren. Ich müsste zu viel retuschieren – Datenschutz. Was ich zeigen kann ist die Darstellung des Interessenprofils meiner Nutzer. Besonders Bekleidungshersteller können hier unendlich viel lernen. Sie müssen lediglich auf eines der Bildchen klicken und schon bekommen sie eine wunderhübsche Ergebnisliste mit Pins angezeigt, die mit einem Profil überschrieben ist. Mir fällt dazu nur eines ein: Die Frage danach, wo man ansonsten noch solche Daten bekommen kann.

Pinterest Analytics: Interessen

Pinterest Analytics: Interessen

Ach ja – dann gibt es noch die Daten, die auch bisher von Pinterest Analytics geliefert wurden: Das was von der eigenen Website gepinnt wurde, und ziemlich viele Werte drumherum.

Insgesamt finde ich diese neue Version von Pinterest Analytics richtig toll. Es wurde intensiv gearbeitet und man hat sich viele Gedanken darüber gemacht, was Marketer an Daten benötigen und wie diese aufbereitet sein sollen. Es sieht eben alles sehr viel hübscher aus als bei Facebook und bei Twitter. Die Voraussetzungen für einen erfolgreichen Start in Deutschland sind geschaffen. Dann legt mal los!