Die Bestimmung der idealen Posting-Zeitpunkte für Facebook, Twitter & Co.

Die Bestimmung des idealen Posting-Zeitpunkts ist ein viel diskutiertes Thema. Natürlich wird es mit Methoden der Social Media Analytics angegangen. Aber um es gleich vorweg zu nehmen: Die präskriptive Bestimmung des idealen Zeitpunkts ist sehr schwierig und aufwändig. Man sollte natürlich Social Media Analytics einsetzen. Auf die Spitze treiben sollte man es jedoch nicht. Warum? – Man analysiert immer Vergangenheitsdaten. Leider bleibt das Verhalten der Nutzer nicht so stabil, wie es notwendig wäre, um einen idealen Zeitpunkt für eine Mitteilung a priori bestimmen zu können.

Aggregierte Daten – wenig hilfreich

Häufig sind allgemeine Empfehlungen – beruhend auf aggregierten Auswertungen der gesamten Nutzerschaft einer Plattform – zu finden, wie beispielsweise in der folgenden Infografik. Hierzu muss man sich nur eine Frage stellen: Sind meine Kunden gleich dem durchschnittlichen Nutzer einer Social Media Plattform – beispielsweise Facebook – oder unterscheiden sich meine Fans vom Durchschnitt? – Abgesehen davon, dass die Infografik von KISSmetrics sich auf die USA bezieht, sind solche Daten also nur dann relevant, wenn die eigenen Fans und Follower den Durchschnitt der Plattform darstellen.

Social Timing als Durchschnitt (Quelle KISSmetrics.com)
Social Timing als Durchschnitt (Quelle: KISSmetrics.com)

Es werden also Durchschnittswerte für

  • die beste Posting-Zeit in verschiedenen Zeitzonen
  • die beste Zeit für Retweets/Reshares
  • die beste Zeit für die höchste CTR/Interaktion

ermittelt. Aber wie schon geschrieben: Trifft das auch auf die eigenen Nutzer zu? Ich wage zu behaupten, dass dies in den seltensten Fällen so sein wird. Dennoch erhält man Anhaltspunkte für eigene Tests: Um die Mittagszeit bekommen Tweets die meisten Klicks und gegen „End of Business“ wird am stärksten Re-Tweeted. Dagegen werde Facebook Posts um die Mittagszeit am häufigsten geteilt.

Individuelle Bewertung

Erheblich aufschlussreicher sind die Ergebnisse von Tools wie SocialBro. Darin werden die Zeiten für Twitter-Nachrichten entsprechend der Zahl der Follower bewertet, die zu den jeweiligen Zeiten online waren, nicht „sind“. Ausgewertet werden Vergangenheitsdaten. Wenn man sich die Empfehlungen über einen Zeitraum mehrerer Wochen anschaut, so stellt man doch regelmäßig Änderungen fest.

Timing-Empfehlung für Twitter-Nachrichten des Datenonkel von SocialBro
Timing-Empfehlung für Twitter-Nachrichten des Datenonkel von SocialBro

Allerdings sind das auch wieder nur Durchschnittszahlen – bezogen auf den Durchschnitt der eigenen Follower. Dies müsste man – wenn man sauber arbeiten will – natürlich segmentieren und noch dazu das was man erreichen möchte auch noch berücksichtigen.

Was heißt das? – Die schwarzen Punkte in der Abbildung sagen, dass 10 % der Follower in der vergangenen Woche zu den jeweiligen Zeitpunkten online waren. SocialBro ist so nett und qualifiziert dies noch ein wenig. Es werden jeweils die 100 Follower mit dem größten Einfluss in die Bewertung aufgenommen. Dabei handelt es sich um diejenigen, die besonders viele eigene Follower haben und gleichzeitig selbst posten, retweeten etc.

Das ist schon sehr hilfreich. Follower, die zwar online sind, aber Tweets nicht verbreiten oder noch nicht einmal den enthaltenen Link anklicken sind deutlich weniger wert. Diese recht allgemeine Aussage sollte an dieser Stelle erlaubt sein.

Allerdings ergibt auch diese Methode lediglich Anhaltspunkte für Tests – mehr nicht! Eine tiefergehende Bewertung der Ergebnisse ist notwendig.

Ziele und Messgrößen

Auch wenn man mit Tools wie SocialBro arbeitet, kommt man nicht umhin, sich die Frage nach den Zielen des Social Media Engagements zu stellen. Aus diesen Oberzielen für Social Media lassen sich Ziele für einzelne Plattformen und für dort stattfindende Aktionen ermitteln. Dies sind in den meisten Fällen Meldungen unterschiedlicher Form. Auch wenn final Ziele wie Erhöhung von Kundenzufriedenheit, Steigerung der Kundenbindung und Umsatz im Vordergrund stehen, so müssen hierfür zunächst messbare Indikatoren gefunden werden. Dabei erfolgt die Datenerhebung in den meisten Fällen auf der Ebene von Postings bzw. wird Meldungen zugeordnet.

Was ist also zu tun? – Ein generelles und einfaches Rezept existiert leider nicht. Es gibt allgemeine Erfahrungswerte, wie sie oben geschildert wurden. Möglicherweise hat man von Mitbewerbern etwas hinsichtlich Erfahrungen gehört, vielleicht auch aus Branchen mit einer ähnlichen Nutzerschaft. Auf Social Media spezialisierte Agenturen sind hier deutlich im Vorteil. Diese verfügen durch ihre Arbeit über einen breiteren Erfahrungsschatz. Dennoch bleibt nichts anderes übrig als möglichst systematisch zu testen und die Ergebnisse zu dokumentieren.

Zunächst müssen „Learnings“ generiert werden, wie es neudeutsch so schön heißt. Es muss ein Aussendeplan erstellt werden, mit dessen Hilfe geprüft wird, wann welcher Typ von Meldung den größten Erfolg hat, um sich mit späteren Aktionen daran zu orientieren.

Facebook Optimierung

Facebook bietet hierfür die in der folgenden Abbildung dargestellte Gruppierung an:

Facebook Measures
Facebook Measures

So wird deutlich, dass man sich hinsichtlich der Ziele klar sein muss:

  • Hinsichtlich welcher Größe möchte man optimieren?
  • Möchte man die Measures gewichten und so ein allgemeines Optimum für die eigenen Posts erreichen?
  • Sollen unterschiedliche Optima für verschiedene Typen von Postings erreicht werden? (z.B. Fotoalben, Interaktions-Aufforderungen, Produktmeldungen, Pressemeldungen etc.)

Meistens sind die mit dem Social Media Engagement verbundenen Ziele nicht über ein einziges Kriterium abbildbar. Häufig werden zwar „Fans“ und „Follower“ als KPI genannt. Abgesehen davon, dass ein Fans & Follower an sich einen sehr geringen Aussagegehalt hinsichtlich des Erfolgs haben, leitet sich der Erfolg i.d.R. aus einer Kombination von verschiedenen Aktionen und den hierfür relevanten Messgrößen ab.

Datenaufbereitung

An die Zahlen für die eigene Nutzerschaft kommt man, indem man Nachrichten ähnlichen Inhalts und jeweils gleicher Form zu unterschiedlichen Zeitpunkten testet und die Ergebnisse hinsichtlich der einzelnen Beiträge sauber dokumentiert. Dabei muss man beachten, dass die Daten der Facebook Insights auf der Website oder im API für die beitragsweise Auswertung sehr viel genauer sind als die downloadbaren Daten. Diese sind lediglich auf ein Datum bezogen, nicht auf den einzelnen Beitrag.

Man kann die Liste der Beiträge Copy ’n Paste von der Website übernehmen. Hierbei geht einem allerdings der für die Auswertung überaus wichtige Sendezeitpunkt verloren. Dieser muss nachgetragen werden, genauso wie die inhaltliche Ausrichtung des Beitrags. Die Datentabelle sollte dann auch noch um eine Spalte für die Aussende-Stunde und den Aussende-Wochentag erweitert werden. Nun kann man schon durch einfaches Sortieren und Aggregieren erkennen, wann die für die eigenen Nutzer relevanten Aussende-Zeiten sind. Gegebenenfalls muss die Tabelle noch um weitere Spalten erweitert werden, wenn beispielsweise verschiedene Sprachen und Länder in unterschiedlichen Zeitzonen über die gleiche Page bedient werden. Mitunter sind auch das Wetter, Fernsehprogramm oder Branchenveranstaltungen relevante Kriterien.

Ist man damit zufrieden, dass eine Meldung in einen Stream geladen wurde, dann wird man hinsichtlich der Reichweite optimieren und Meldungen folglich dann aussenden, wenn möglichst viele der eigenen Nutzer online sind. Die Wirkung eines Inhalts ist zweifellos höher, wenn Fans auch noch damit interagieren und sogar Likes oder Comments abgeben. Leider sind solche Nutzer mitunter zu anderen Zeiten online als das Reichweitenmaximum. Wie soll nun reagiert werden? – Es ist notwendig Indexwerte aus den Facebook Insights zu generieren.

In Indexwerten wird die Relevanz einzelner Kriterien anteilsmäßig abgebildet. Man kann also der Reichweite beispielsweise ein Gewicht von 40 Prozent geben, Engaged Users 20 Prozent, Talking about this 20 Prozent und der Virality ebenfalls 20 Prozent. Dabei muss man beachten, dass der Ergebniswert standardisiert ist. Das heißt, dass durch eine Veränderung der gesamten Fanzahl kein Einfluss auf den Indexwert stattfinden darf. Dies kann man beispielsweise so erreichen:

(Reichweite / Fans)*0,4 + (Engaged Users / Fans)*0,2 + (Talking about this / Fans)*0,2 + ((Virality*Reichweite)) / Fans)*0,2

Nun muss man nur noch die Indexwerte sortieren und nach den Aussende-Zeitpunkten schauen. Gleichartige Nachrichten sollten dann in der nächsten Periode zum ermittelten Zeitpunkt verschickt werden.

Auch die Häufigkeit von Postings kann mit dieser Methode überprüft werden. In diesem Fall sind Redaktionspläne für verschiedene Zeitfolgen zu entwickeln und deren Ergebnisse zu bewerten.

Das Verfahren an sich sollte rollierend eingesetzt werden. Es handelt sich um einen fortlaufenden Optimierungsprozess.

Dies sind nicht alle Instrumente, mit dem man hinsichtlich der einzelnen Posts arbeiten kann. Relevant sind auch die erzielten Referrals. Diese verbergen sich in obiger Abbildung im Bereich der „Engaged Users“. Es handelt sich dabei um Nutzer, die durch das Anklicken eines Links auf eine andere Seite geleitet wurden. Wie in diesem Zusammenhang vorzugehen ist, wird weiter unten erklärt. Zunächst wird das eben geschilderte Verfahren noch auf Twitter umgesetzt.

Twitter Optimierung

Für Twitter ist die Optimierung leider etwas aufwändiger, je nach Abhängigkeit der benutzten Tools. Um eine gewisse Vergleichbarkeit der Bewertung zu ermöglichen, sollten die Messwerte möglichst synchron genutzt werden. In der folgenden Abbildung ist ein Versuch zu sehen, die möglichen Metriken von Twitter hinsichtlich der von Facebook im Herbst 2011 vorgegebenen Struktur einzuordnen:

Twitter Measures entsprechend Facebook Struktur
Twitter Measures entsprechend der Facebook Struktur

Für Kunden oder VIPs gibt es mittlerweile Statistiken für die Beiträge. Einen ersten Einblick gewährt Sascha Lobo. Das Twitter-Tool weist nach Einschätzung von Sascha Lobo nicht vollständig valide Werte aus. Es kommt zu Abweichungen gegenüber anderen Tools. Dies sollte insgesamt jedoch nicht weiter stören. Die Relationen bleiben, soweit ich dies beurteilen kann, gewahrt. Da auch noch eine Index-Bildung stattfindet, sind die konkreten Werte ohnehin von nachrangiger Bedeutung.

Man sollte sich auf ein Tool oder ein festes Set von Werkzeugen konzentrieren und sicherstellen, dass es zu keiner Verwechselung hinsichtlich der Werte kommt. In einigen Tools werden beispielsweise die Klicks auf Links mit Views übersetzt. Dabei handelt es sich um die von Twitter selbst gemessenen Klicks. Meist werden diese mit Tools wie Bit.ly  gemessen oder in Tools wie HootSuite (Ow.ly).  Mitunter werden auch Impression-Werte genannt, beispielsweise bei SproutSocial, die keine valide Grundlage haben.

Das Vorgehen entspricht nun komplett dem bei Facebook. Es muss getestet werden. Beachten sollte man dabei, dass es

  1. zwischen den Fans auf Facebook und den Followern auf Twitter Unterschiede geben kann;
  2. Posts, die auf Facebook zu einem bestimmten Zeitpunkt funktionieren, bei Twitter eine Bruchlandung erleiden können;
  3. ein entsprechend angepasster Testplan notwendig ist.

Die resultierenden Daten werden in eine Tabelle übertragen und angereichert sowie mit einer Typologie versehen. Die Auswertung erfolgt wie bei Facebook.

Crossposting-Effekte

Mit der hier vorgestellten Methode wird isoliert ausgewertet. Man optimiert Facebook. Man optimiert Twitter. Effekte hinsichtlich des Verschickens gleicher oder ähnlicher Inhalte zu gleichen oder unterschiedlichen Zeitpunkten wurden nicht untersucht. Hierfür wäre ein eigenes Testdesign zu entwickeln.

Messung von Referral-Effekten

Facebook und Twitter bieten Möglichkeiten, die Zahl von Referrals zu messen. Vielfach ist dies jedoch nicht ausreichend. Gerade bei Produkt-Postings gibt es zu recht die Anforderung, nicht nur die Zahl zu ermitteln, sondern unter Umständen noch die resultierende durchschnittliche Visit-Länge in Impressions, möglicherweise sogar zurechenbaren Umsatz.

Hierfür muss die Web-Analyics Applikation für die zu prüfende Website zum Einsatz kommen. Dies geschieht – soweit ich dies beurteilen kann – noch viel zu selten. Der Grund hierfür: Es sind oft unterschiedliche Dienstleister und Abteilungen, die sich um Social Media und die Websites kümmern, so dass es hier zu einer unzureichenden Nutzung von Optimierungspotenzialen kommt.

Google hat hier etwas vorgearbeitet und bietet einen Standard-Reportsatz an, mit dessen Hilfe einige Fragestellungen beantwortet werden können. Justin Cutroni hat die Einsatzmöglichkeiten ein wenig erläutert. Allerdings – und hier liegt die Einschränkung – werden die Auswertungen an dieser Stelle lediglich für die Netzwerke an sich gemacht. In den Standard-Reports ist das Herunterbrechen auf einzelne Postings nicht vorgesehen, auch wenn eine Zuordnung von Landingpages möglich ist, was immerhin brauchbare Anhaltspunkte ergibt.

Immerhin ist es ohne großen Aufwand möglich, Bounces herauszufiltern oder nur Besuche mit Conversions. Weitere Anpassungen verursachen etwas Aufwand. Allerdings ist es bei Google so, dass es nur zwei Nutzertypen für die Reports gibt und man vielleicht deshalb einer Social Media Agentur keinen Zugriff auf die vollständigen Daten gewähren möchte. Ein Ausweg könnte hier das regelmäßige Versenden des Reports per E-Mail sein.

Eine Umsetzung mit Webtrends oder Omniture ist ebenfalls möglich. Man kann beispielsweise die Referrer-Reports filtern. Leider gibt es nach meinem Wissen bisher noch keine entsprechenden vorbereiteten Standard-Reports die für die Aufgabe genutzt werden können, gleichwohl können für diese Produkte entsprechende Reports konstruiert und angelegt werden. Der Aufwand hierfür kann leicht bei 3-5 Personentagen liegen.

Die so gewonnenen Werte müssen ebenfalls in die für Facebook und Twitter angelegten Tabellen übertragen werden. Die Indexwerte sind anzupassen und entsprechend zu konstruieren. Das Verfahren der Optimierung bleibt gleich. Man ist damit auch in der Lage, den Zeitpunkt für Meldungen hinsichtlich direkter Conversions zu optimieren. Dabei sollte man allerdings beachten, dass lediglich ein Teil der tatsächlich auf eine Aktion zurückzuführenden Konversionen mit diesem Verfahren gemessen wird, nämlich die, die im gleichen Visit erfolgen. Kommt ein Fan oder Follower später erneut zur Website, um ein in einem Post beworbenes Produkt zu kaufen, dann wird dies normalerweise nicht zugerechnet. An dieser Stelle sollte man sich genau über die Funktionsweise des eigenen Reportings informieren.

Anforderungen an Pinterest Analytics & Monitoring

Pinterest ist ein großer Wurf. Das scheint sicher. Hier sind sich die Forscher von ComScore und compete.com einig. Auch im Februar legte der Foto-Bookmark-Dienst wieder ausgesprochen kräftig zu – beinahe 50 Prozent. Dann scheint es auch noch so zu sein, dass Pinterest mehr sehr viel Referral-Traffic liefert als andere Social Media Plattformen. Dies ist Grund genug zu schauen, wie man das Phänomen aus Sicht der Social Media Analytics und des Monitoring angehen sollte, um die Leistung möglichst realistisch zu bewerten und einzuordnen. Erste Dienste, die ein entsprechendes Dashboard entwickelt haben, gibt es bereits – Pinerly & PinReach. Allerdings ist die Datentiefe noch etwas mager. Es handelt sich um Daten, die über das Pinterest API ausgewertet werden – diese beziehen sich eben nur auf die eigene Page. Das ist aber noch lange nicht alles, was an Referral Traffic produziert wird. Deshalb formuliere ich hier eine erste systematische Anforderung. Dabei gehe ich davon aus, dass Methoden der Analytics und des Monitoring kombiniert genutzt werden müssen, um den Effekt von Pinterest umfassend beurteilen zu können.

Bitte beachten Sie, dass hier eine Maximalanforderung formuliert wird. Eine Aufwandsabschätzung findet nur rudimentär statt. 

Wie wird gepinnt?

Die erste und entscheidende Frage ist tatsächlich, wie gepinnt wird. Dafür gibt es unterschiedliche Wege. Durch die folgende Abbildung wird deutlich, dass es sich bei über drei Viertel der Pins um sogenannte Repins handelt – also um solche, die von Nutzern aus einem anderen Board in das eigene oder ein anderes Board übertragen wurden.

Methoden des Pinnens (Quelle: RJMetrics)
Methoden des Pinnens (Quelle: RJMetrics)

Der wichtigste Weg, auf dem Bilder originär auf Boards gepinnt werden, ist die Verwendung des sogenannten Pinmarklets. Daneben gibt es Browser-Erweiterungen. So kann man beispielsweise durch die Verwendung der rechten Maustaste pinnen oder auch, indem man ein „P“ anklickt, das bei dem Mousover einer Grafik auf derselben erscheint. Viel weniger wichtig ist die Direkteingabe von Bild-Adressen auf Pinterest selbst. Die Erweiterungen und die Direkteingabe wurden in obiger Abbildung unter „other“ subsumiert.

Wenn man sich nun dafür interessiert, was von der eigenen Website gepinnt wurde, dann lässt sich das im Überblick relativ leicht ermitteln. Die Kollegen von futurebiz.de haben freundlicherweise darauf hingewiesen. Pinterest zeigt alle Bilder an, die von einer Domain gepinnt wurden. Dabei ist jeweils sogar die Zahl der Repins enthalten:

Pinterest Source Function
Pinterest Source Function

Die Funktion ist relativ einfach:

http://pinterest.com/source/Ihre_Domain/

Wenn man an der Stelle von „Ihre_Domain“ die eigene einträgt, bekommt man eine Übersicht vergleichbar der obigen Abbildung angezeigt. Freilich gibt es dabei einiges zu beachten.

  • Es handelt es sich lediglich um Pins, die durch die Verwendung des Marklets gemacht wurden.
  • Wird ein Bild der gleichen Domain mehrfach direkt gepinnt, so wird es jeweils einzeln angezeigt. Das ist in obiger Abbildung leicht zu erkennen. Ebenso werden Repins dieser Bilder einzeln zu den Pins zugerechnet.
  • Der Zeitraum für den Ergebnisse gezeigt werden, ist begrenzt.
  • Wenn mehrere Domains benutzt werden, müssen alle einzeln analysiert werden.
  • Bilder, die kopiert und auf anderen Plattformen eingebunden wurden, können auf diesem Weg nicht erfasst werden.

Man sollte sich also darüber klar sein, dass etwa ein Siebtel der Pins mit dieser Methode nicht gezählt werden. Das ist durchaus zu verschmerzen. Man könnte prinzipiell einfach hochrechnen. Allerdings ist zu vermuten, dass die Verwendung von Browser-Erweiterungen zunehmen wird. Studien wie die von RJMetrics müssten also regelmäßig durchgeführt werden. Zudem müssten Anhaltspunkte hinsichtlich der Verwendung des Marklet und der Nutzer von Browser-Erweiterungen etc. gewonnen werden. Im ersten Schritt ist dies aus meiner Sicht aber nachrangig.

Für das strukturierte Arbeiten wäre es ausgesprochen hilfreich, wenn die Daten für ein Bild zusammengefasst erhältlich wären. Von Pinterest werden diese Daten leider nicht in dieser Form angeboten. Die Daten manuell aufzusummieren, ist auch nicht allzu erquicklich.

Datenaufbereitung der Pins, Repins & Kommentare

Es wird rasch deutlich, dass gerade für Unternehmen mit vielen Produkten und einem großen Fanpotenzial die oben angesprochene Einfachmethode kaum ausreichen wird, um effizient zu arbeiten. Für die Bekleidungsunternehmen wird Pinterest eine wichtige Plattform zur Generierung von Traffic werden.

In einem ersten Schritt müssen die Werte für die Pins gleicher Inhalte zusammengeführt werden. Auf den ersten Blick sieht das nicht schwierig aus: Man zählt die Bilder durch und addiert Repins und Kommentare jeweils auf. Was manuell – also durch den Einsatz menschlicher Arbeitskraft zwar aufwändig, aber absolvierbar ist, stellt für einen Automaten vor eine große Herausforderung dar. Die Ursache hierfür ist in der Tatsache zu finden, dass Pinterest zumindest in der Bildausgabe, jede einzelne Grafik mit einem individuellen Namen versieht. Aus der Perspektive von Pinterest ist dies wahrscheinlich sogar zwingend, damit Bilder, die repinnt wurden, nicht verschwinden, wenn das originale Pin gelöscht wird.

Eine neue Anforderung kommt auf die Social Media Analytics und das Social Media Monitoring zu: Bilder müssen unabhängig vom Dateinamen erkannt werden oder – und dies ist wahrscheinlich der einfachere Weg – alle Links angeklickt werden, um in einer eigens konstruierten Datenbank jedem Pin einen Ziel-URL zuzuordnen und hierüber die eindeutige Identifikation des Produkts etc. zu gewährleisten. Dennoch ist dies auch keine ganz einfache Aufgabe: Bei Textilwebsites werden Produkte beispielsweise mehrfach an verschiedenen Positionen in die Website eingehängt, es gibt Bekleidungsstücke in unterschiedlichen Farben, die Websites verschiedener Unternehmen funktionieren unterschiedlich etc. In der folgenden Abbildung für

http://pinterest.com/source/gap.com/

können Sie beispielsweise in der rechten Bildspalte das gleiche Bild mit und ohne Preisangabe finden.

Mehrfach gleiche Bilder und Bilder in verschiedenen Versionen bei GAP
Mehrfach gleiche Bilder und Bilder in verschiedenen Versionen bei GAP

Es geht nun darum, mit welcher Granularität die Anforderung umgesetzt werden soll. Sollten tatsächlich verschiedene Platzierungen auf einer Website und verschiedene Farbvarianten eines Produkts zusammengefasst werden, so sehe ich keine allgemeine Lösung. Es würde sich jeweils um eine individuelle Anpassung pro Website (einer bestimmten Funktionsweise) handeln. Deshalb gehe ich davon aus, dass zunächst der allgemeinere Ansatz hinsichtlich der Zuordnung von Ziel-URLs zu Bildern realisiert wird. Um im daraus generierten Report die Übersicht zu erleichtern, könnte dieser entsprechend eines Pages-Reports in einem Web-Analytics Tool  aufgebaut sein. Dort werden i.d.R. die URLs in Verbindung mit den Page Titles gezeigt, um den Nutzern die Übersicht zu erleichtern.

Die Dimension wäre in diesem Fall also der URL in Verbindung mit dem Page Title. Als Metriken sollten dienen

  • Zahl der Original Pins,
  • Zahl der Likes
  • Zahl der Repins
  • Zahl der Comments

Diese Auswertung kann für die eigene und beliebige weitere Websites durchgeführt werden. So kann beispielsweise auch die Aktivität für verschiedene Länderwebsites gemessen werden, Wettbewerber können beobachtet werden etc.

(Noch) keine Reichweitenzahlen

Wichtig ist an dieser Stelle allerdings, dass die einfache Nutzung der Inhalte in Form von Views derzeit nicht messbar ist. D.h. es ist ebenso wie bei Twitter. Allerdings sind Views bei Twitter schon alleine aus seiner technischen Struktur heraus nicht messbar. Bei Pinterest würde das technisch schon funktionieren – die Plattform müsste es realisieren und die Daten ihren Nutzern zur Verfügung stellen. Hierbei könnte es zu Problemen hinsichtlich des Datenschutzes kommen. Aus meiner Sicht sind hier nur zwei Wege denkbar:

  • Grundsätzlicher Zugriff auf alle Daten
  • Zugriff auf Daten der eigenen Domain, bzw. auf im Zugriff befindliche Domains

Strukturierung der Daten

Es handelt sich dabei um quantitative Daten, die durchaus mit denen von Facebook vergleichbar sind. Dabei sind im Grunde genommen alle Pins, die nicht selbst gesetzt wurden „viral“ – um in der Facebook-Nomenklatur zu bleiben. Insgesamt lassen sich die Daten abbilden, wie dies bei Facebook seit Herbst 2011 gemacht wird. Allerdings gibt es nach die oben angesprochenen Lücken hinsichtlich der Nutzung – also weder Reichweitendaten noch Daten hinsichtlich VIews:

Pinterest Daten in Facebook Struktur
Pinterest Daten in Facebook Struktur

Sentiment?

Social Media Monitoring Tools werten auch das sogenannte „Sentiment“ aus. Es wird dabei ermittelt, ob die Aussage innerhalb eines Kommunikats positiv, neutral oder negativ ist. Dabei wird das Produkt, die Organisation, das Thema etc., auf die sich die Aussage bezieht, aus dem Text an sich herausgelesen. Pinterest nennt hier an der konkreten Stelle lediglich die Domain der Website. In vielen Fällen wird im oft knappen, dafür aber stark wertenden Text kein Name oder ähnliches zur Identifikation genannt. Auch für den Zweck des Monitoring muss also dem Link gefolgt werden, um den Text zuzuordnen und weiter zu qualifizieren. Der Produktname steht in den allermeisten von mir getesteten Fällen auf der Zielseite des gezeigten Bildes, müsste allerdings auch automatisiert identifiziert werden. Dabei handelt es sich um eine Aufgabe, die im Crawling von Informationen durchaus bekannt ist bisher nach meinem Wissen jedoch noch nicht im Monitoring eingesetzt wurde.

Pins eigener Produkte von fremden Websites

Insgesamt ist die Lage jedoch noch um ein Stück komplexer. Die eigenen Produkte werden in vielen Fällen ja nicht nur über die eigene Website vertrieben, sondern auch über viele andere Plattformen. Wenn man nun wissen möchte, wie oft die eigenen Produkte gepinnt werden, dann wird es knifflig. Wenn es darum geht, die Kommentare auf Produktbewertungsportalen zu monitoren, ist das auch nicht ganz einfach. Der Produktname wir leider nicht immer einheitlich geschrieben. Im Falle von Pinterest erhält man den Produktnamen mitunter erst nach zwei Klicks. Die große Frage ist dann, wo der Produktname steht, um ihn der Bewertung unterhalb des Produktbilds zuzuordnen. Nach meiner Einschätzung erfordert dies jeweils starke manuelle Eingriffe bei der Einrichtung des Monitoring für einen Kunden. Meistens steht der Produktname im Titel der Seite. Dieser Titel hat dann oft auch noch eine Erweiterung, wie beispielsweise „kaufen im Laden XY“. Diese Erweiterung ist glücklicherweise auch fast immer gleich, so dass diese automatisiert gelöscht werden kann.

Leider gibt es noch eine weitere Schwierigkeit: Auch wenn die Unternehmen ihre Stammdaten per CSV oder auf anderen Wegen an Händler übergeben, so lassen viele Online-Shops den Produktnamen nicht unberührt. Der Name wird im Sinne der SEO bearbeitet und erweitert. Aus Jacket wird Jacke, der Verwendungszweck wird ergänzt, etc. Das alles ist für den Verkauf richtig und wichtig. Für das Monitoring verursacht es einen nicht zu unterschätzenden Aufwand. Ob dieser für eine automatisierte Rücktransformation gerechtfertigt und notwendig ist, muss in der Diskussion mit dem Kunden eruiert werden. Eine allgemeine Lösung ohne Anpassungsaufwand kann ich mir derzeit nicht vorstellen.

Tracking von Pins auf der eigenen Website

Ein anderer Weg, den man einschlagen kann, um zu einer Einschätzung darüber zu gelangen, wie häufig Bilder von der eigenen Website gepinnt werden, besteht darin, dies auch auf der eigenen Website zu tracken. Ganz einfach ist das nicht, da beispielsweise der Pin-Button in einem I-Frame untergebracht ist. Eine Lösung bei der Verwendung von Google Analytics wurde von Luna Metrics formuliert.

Leider bezieht sich diese Methode zum einen nur auf Google Analytics. Hinweise zur Umsetzung in anderen Tools gibt jedoch es schon: Events können auch in Webtrends oder Adobes Omniture getrackt werden. Zum anderen – und das ist erheblich wichtiger – bezieht sich diese Methode nicht auf das Tracking unter der Verwendung des Pinmarklet, das am häufigsten zum Pinnen benutzt wird. Hier müsste auf jeden Fall geprüft werden, ob ein Tracking möglich ist. Pinterest ruft zwar das zu pinnende Bild vollständig beim Server ab. Diese Information stünde dann allerdings nur im Server-Logfile. On Demand Services wie Omniture könnten diese Information nicht auswerten. Hier wäre Webtrends on Premise im Vorteil. Eleganter wäre es, den Einsatz des Marklet an sich zu tracken, auch wenn hierbei nicht klar ist, welches Bild einer Page tatsächlich gepinnt wird. Das Marklet zeigt alle pinnbaren Bilder einer Page an und der Nutzer entscheidet durch einen Klick, welches er pinnen möchte. Ob tatsächlich gepint wurde, würde man mit dieser Methode auch nicht messen können. Tatsächlich gemessen würde lediglich die Auslösung des Marklets.

Pinterest Marklet: Oft viele Bilder
Pinterest Marklet: Oft werden viele Bilder angezeigt.

Es könnte also kaum zugeordnet, werden um welches Produkt es sich handelt. Allerdings wäre durch den Ziel-URL die Zuordnung zu einer Produktgruppe möglich.

Tracking des Referral Traffic

Das Tracking des Referral-Traffic muss in der Web-Analytics Applikation erfolgen. Für die Referrer gibt es in allen mir bekannten Lösungen Standard-Reports. Diese müssen dann nur noch auf Pinterest gefiltert werden, was auch meistens möglich ist. Für Google Analytics gibt es eine entsprechende Erläuterung.

Ratsam ist es die eigenen Pins mit Kampagnen-Codes zu versehen, dann kann der Erfolg der eigenen Pins mit dem Gesamterfolg in Relation gestellt werden. Das Vorgehen mit Google-Analytics ist denkbar einfach – auch wenn die Bearbeitung derzeit noch manuell erfolgen muss und etwas Aufwand verursacht, der aus meiner Sicht vertretbar ist. In der folgenden Abbildung, sehen Sie die beispielhafte Generierung der Tracking URL für diesen Artikel:

Google-Analytics Gernerierung Pinterest Tracking URL
Google-Analytics Gernerierung Pinterest Tracking URL

Wenn man ein Produktbild oder wie ich ein Bild aus diesem Artikel pinnt, dann kann man bei Pinterest im ersten Schritt den URL des Bildes nicht editieren, wohl aber wenn man wen man das Bild anschaut und auf Edit klickt. Sie müssen dann einfach die Tracking-URL in das entsprechende Feld kopieren (Link):

Editieren der Pinterest Tracking-URL
Editieren der Pinterest Tracking-URL

Wenn man einen eigenen Report für Pinterest haben möchte, so lässt sich das mit Produkten der Enterprise Klasse auch recht einfach lösen. Es wird ein Report angelegt, der entsprechend gefiltert ist. Wenn man es für erforderlich hält, kann man auch noch resultierenden Umsatz zuordnen und Bounces – also Besuche mit nur einem View – aus dem Report herausfiltern.

Hinweise & Diskussion?

Ich würde ich über Hinweise und eine lebhafte Diskussion freuen!

Facebook Mobile Advertising: Mögliche mobile Werbeformen bei Facebook

Eigentlich ist es mir nicht wirklich aufgefallen: In den mobilen Applikationen von Facebook gibt es keine Werbung. Wenn man das Registration Statement analysiert und Worthäufigkeiten durchzählt, so bekommen „Advertising“ und „Mobile“ jeweils 123 Treffer. Knapp die Hälfte der Nutzer greift mobil zu.

Ich habe das Registration Statement nun einfach mal in eine „Tag Cloud“ umgesetzt. Das verschafft schon einen gewissen Überblick:

Schaut man sich die Wolke etwas näher an, so findet man für Advertising zwei weitere semantisch sehr naheliegende Begriffe „Advertisers“ und „Ads“. „Mobile“ taucht auch auf.

In meinem letzten Beitrag, habe ich analysiert, welche neuen Werbeformen Facebook wohl in den kommenden beiden Jahren einführen wird. Mobile hatte ich ausgeklammert. Nun ja – ich bin der Meinung, dass sich nach der Einführung der Sponsored Stories noch sehr viel mehr im Feed abspielen wird. Die Nutzer kennen dieses Verfahren. Der Feed ist auch nicht die Ergebnisliste einer Suchmaschine und so würde Werbung mehr ins Blickzentrum der Nutzer wandern.

Und siehe da: In den Mobil-Applikationen gibt es eigentlich nur noch den Stream – keine Navigation links oder rechts. Dieses mögliche Platzierungsfeld für Werbung fällt völlig weg. Das betrifft bisher sowohl Telefone als auch Tablets, die genug Fläche für eine entsprechende Spalte mit Werbung böten. Daneben gibt es noch einen Start Screen, der potenziell genug Fläche für Werbung hätte.

Damit haben wir drei Ansatzpunkte:

  • der Feed
  • der Start Screen
  • angepasste Applikationen für Tablets

Nach dem „Wo“ stellt sich die Frage nach dem „Was“ und „Wie“. Am wahrscheinlichsten wird es wohl sein, dass die „Sponsored Stories“ auch im Stream bei Mobil Applikationen erscheinen.

Intra Facebook Werbung

Nach meiner Einschätzung macht es darüber hinaus am meisten Sinn im Stream zunächst mit Werbeformen zu beginnen, die sich innerhalb von Facebook abspielen bzw. innerhalb der Applikation. Ein Verlassen der App wäre aus Sicht von Facebook im ersten Schritt kontraproduktiv, weil Nutzer für weitere Nutzungsvorgänge verloren gingen. Das würde heißen, dass Werbung, dies bisher auf der Website in der rechten Randspalte platziert ist und keine externen Links enthält in den Feed integriert wird.

Werbeformen mit externen Links im Stream

Mobile Werbeformen wurden immer wieder mit Location Based Services in Verbindung gebracht. Nun gibt es schon Dienstleister, die hier tätig sind. Google besitzt mit AdMob wohl den größten Dienstleister weltweit. Facebook wird hier sicher nicht zu einem Vermarkter gehen oder selbst etwas entwickeln. Sollte Facebook sich im Bereich Websites entschließen ein Network vergleichbar Googles AdSense aufzubauen, dann wäre es nur naheliegend, dass für Mobile ein Dienstleister gekauft würde. Genug Geld hierfür dürfte durch den Börsengang ja in der Kasse sein. Über eine ausreichende Datenbasis verfügt Facebook mit bald einer Milliarde Nutzer bereits – und die Hälfte davon greift bereits mobil auf das Netzwerk zu.

Keine große Inspiration?

Supertoll und neu wäre dieses Vorgehen nicht – muss es auch nicht sein. Es wäre aus meiner Sicht die konsequente Ausnutzung von Potenzialen, die sich aus einer großen Netzwerk-Nutzerschaft ergeben. Google wurde für Google+ nach einigen gescheiterten Versuchen mit anderen Netzwerken auch vorgeworfen nicht sonderlich innovativ zu sein. Allerdings wurden mit Google+ eben die zur Verfügung stehenden Potenziale gebündelt. Genau das würde Facebook auch machen, wenn es über entsprechend in die Mobile Online-Werbung einsteigen würde. Es wäre in diesem Fall nur nicht der Vorreiter.

Facebook-Nutzer sind nicht gleich Facebook-Accounts – weniger als 20 Millionen Facebook Nutzer in Deutschland

Zum Jahresbeginn wurde in der Presse und in Blogs ein Wert von 22 Millionen aktiven Facebook-Nutzern kommuniziert. Die Zahlen kommen aus dem Facebook-Werbetool. Es handelt sich dabei allerdings um einen Wert für die aktiven Accounts bei Facebook und nicht um die aktiven Nutzer. Ein Nutzer kann über mehrere Accounts verfügen. Der wirkliche Wert liegt unter 20 Millionen.

Die Gründe für multiple Identitäten können ganz unterschiedlicher Natur sein. Im simpelsten Fall handelt es sich um Personen, die aus privaten Gründen zwei oder mehr Accounts haben möchten.

Zudem gibt es “professionelle” Gründe, eine Vielzahl von Accounts zu pflegen. Dabei handelt es sich beispielsweise um Accounts die von Agenturen betrieben werden, um bei Gewinnspielen teilzunehmen. Mitunter wird für die Zahl der registrierten Adressen bezahlt und die Dienstleister manipulieren schlichtweg.

Agenturen oder Unternehmen züchten sich jedoch auch gerne virtuelle Facebook-Identitäten, um die Kommunikation mit ihren Posts in einem möglichst positiven Licht erscheinen zu lassen.

Das ist jedoch nicht der einzige Grund: Die von Facebook genutzten Edge- und GraphRanks. In diesem Zusammenhang werden Beiträge bei der Anzeige in der Pinnwand bevorzugt, die rasch viele Interaktionen aufweisen können.

Ich gehe von einem Anteil von mindestens zehn Prozent aus. Es sollten also unter 20 Millionen in Deutschland lebende Menschen sein, die Facebook nutzen. Werden die Zahlen nicht nach unten korrigiert, so sind diese nicht mit Befragungsdaten vergleichbar.