Irgendwas mit Daten
KI, Marken, Analytics, Mediaplanung, DAM, PIM etc.
Ich mache etwas mit Daten
KI, Marken, Analytics, Mediaplanung, DAM, PIM etc.
Die Bestimmung des idealen Posting-Zeitpunkts ist ein viel diskutiertes Thema. Natürlich wird es mit Methoden der Social Media Analytics angegangen. Aber um es gleich vorweg zu nehmen: Die präskriptive Bestimmung des idealen Zeitpunkts ist sehr schwierig und aufwändig. Man sollte natürlich Social Media Analytics einsetzen. Auf die Spitze treiben sollte man es jedoch nicht. Warum? – Man analysiert immer Vergangenheitsdaten. Leider bleibt das Verhalten der Nutzer nicht so stabil, wie es notwendig wäre, um einen idealen Zeitpunkt für eine Mitteilung a priori bestimmen zu können.
Aggregierte Daten – wenig hilfreich
Häufig sind allgemeine Empfehlungen – beruhend auf aggregierten Auswertungen der gesamten Nutzerschaft einer Plattform – zu finden, wie beispielsweise in der folgenden Infografik. Hierzu muss man sich nur eine Frage stellen: Sind meine Kunden gleich dem durchschnittlichen Nutzer einer Social Media Plattform – beispielsweise Facebook – oder unterscheiden sich meine Fans vom Durchschnitt? – Abgesehen davon, dass die Infografik von KISSmetrics sich auf die USA bezieht, sind solche Daten also nur dann relevant, wenn die eigenen Fans und Follower den Durchschnitt der Plattform darstellen.
Es werden also Durchschnittswerte für
ermittelt. Aber wie schon geschrieben: Trifft das auch auf die eigenen Nutzer zu? Ich wage zu behaupten, dass dies in den seltensten Fällen so sein wird. Dennoch erhält man Anhaltspunkte für eigene Tests: Um die Mittagszeit bekommen Tweets die meisten Klicks und gegen „End of Business“ wird am stärksten Re-Tweeted. Dagegen werde Facebook Posts um die Mittagszeit am häufigsten geteilt.
Individuelle Bewertung
Erheblich aufschlussreicher sind die Ergebnisse von Tools wie SocialBro. Darin werden die Zeiten für Twitter-Nachrichten entsprechend der Zahl der Follower bewertet, die zu den jeweiligen Zeiten online waren, nicht „sind“. Ausgewertet werden Vergangenheitsdaten. Wenn man sich die Empfehlungen über einen Zeitraum mehrerer Wochen anschaut, so stellt man doch regelmäßig Änderungen fest.
Allerdings sind das auch wieder nur Durchschnittszahlen – bezogen auf den Durchschnitt der eigenen Follower. Dies müsste man – wenn man sauber arbeiten will – natürlich segmentieren und noch dazu das was man erreichen möchte auch noch berücksichtigen.
Was heißt das? – Die schwarzen Punkte in der Abbildung sagen, dass 10 % der Follower in der vergangenen Woche zu den jeweiligen Zeitpunkten online waren. SocialBro ist so nett und qualifiziert dies noch ein wenig. Es werden jeweils die 100 Follower mit dem größten Einfluss in die Bewertung aufgenommen. Dabei handelt es sich um diejenigen, die besonders viele eigene Follower haben und gleichzeitig selbst posten, retweeten etc.
Das ist schon sehr hilfreich. Follower, die zwar online sind, aber Tweets nicht verbreiten oder noch nicht einmal den enthaltenen Link anklicken sind deutlich weniger wert. Diese recht allgemeine Aussage sollte an dieser Stelle erlaubt sein.
Allerdings ergibt auch diese Methode lediglich Anhaltspunkte für Tests – mehr nicht! Eine tiefergehende Bewertung der Ergebnisse ist notwendig.
Ziele und Messgrößen
Auch wenn man mit Tools wie SocialBro arbeitet, kommt man nicht umhin, sich die Frage nach den Zielen des Social Media Engagements zu stellen. Aus diesen Oberzielen für Social Media lassen sich Ziele für einzelne Plattformen und für dort stattfindende Aktionen ermitteln. Dies sind in den meisten Fällen Meldungen unterschiedlicher Form. Auch wenn final Ziele wie Erhöhung von Kundenzufriedenheit, Steigerung der Kundenbindung und Umsatz im Vordergrund stehen, so müssen hierfür zunächst messbare Indikatoren gefunden werden. Dabei erfolgt die Datenerhebung in den meisten Fällen auf der Ebene von Postings bzw. wird Meldungen zugeordnet.
Was ist also zu tun? – Ein generelles und einfaches Rezept existiert leider nicht. Es gibt allgemeine Erfahrungswerte, wie sie oben geschildert wurden. Möglicherweise hat man von Mitbewerbern etwas hinsichtlich Erfahrungen gehört, vielleicht auch aus Branchen mit einer ähnlichen Nutzerschaft. Auf Social Media spezialisierte Agenturen sind hier deutlich im Vorteil. Diese verfügen durch ihre Arbeit über einen breiteren Erfahrungsschatz. Dennoch bleibt nichts anderes übrig als möglichst systematisch zu testen und die Ergebnisse zu dokumentieren.
Zunächst müssen „Learnings“ generiert werden, wie es neudeutsch so schön heißt. Es muss ein Aussendeplan erstellt werden, mit dessen Hilfe geprüft wird, wann welcher Typ von Meldung den größten Erfolg hat, um sich mit späteren Aktionen daran zu orientieren.
Facebook Optimierung
Facebook bietet hierfür die in der folgenden Abbildung dargestellte Gruppierung an:
So wird deutlich, dass man sich hinsichtlich der Ziele klar sein muss:
Meistens sind die mit dem Social Media Engagement verbundenen Ziele nicht über ein einziges Kriterium abbildbar. Häufig werden zwar „Fans“ und „Follower“ als KPI genannt. Abgesehen davon, dass ein Fans & Follower an sich einen sehr geringen Aussagegehalt hinsichtlich des Erfolgs haben, leitet sich der Erfolg i.d.R. aus einer Kombination von verschiedenen Aktionen und den hierfür relevanten Messgrößen ab.
Datenaufbereitung
An die Zahlen für die eigene Nutzerschaft kommt man, indem man Nachrichten ähnlichen Inhalts und jeweils gleicher Form zu unterschiedlichen Zeitpunkten testet und die Ergebnisse hinsichtlich der einzelnen Beiträge sauber dokumentiert. Dabei muss man beachten, dass die Daten der Facebook Insights auf der Website oder im API für die beitragsweise Auswertung sehr viel genauer sind als die downloadbaren Daten. Diese sind lediglich auf ein Datum bezogen, nicht auf den einzelnen Beitrag.
Man kann die Liste der Beiträge Copy ’n Paste von der Website übernehmen. Hierbei geht einem allerdings der für die Auswertung überaus wichtige Sendezeitpunkt verloren. Dieser muss nachgetragen werden, genauso wie die inhaltliche Ausrichtung des Beitrags. Die Datentabelle sollte dann auch noch um eine Spalte für die Aussende-Stunde und den Aussende-Wochentag erweitert werden. Nun kann man schon durch einfaches Sortieren und Aggregieren erkennen, wann die für die eigenen Nutzer relevanten Aussende-Zeiten sind. Gegebenenfalls muss die Tabelle noch um weitere Spalten erweitert werden, wenn beispielsweise verschiedene Sprachen und Länder in unterschiedlichen Zeitzonen über die gleiche Page bedient werden. Mitunter sind auch das Wetter, Fernsehprogramm oder Branchenveranstaltungen relevante Kriterien.
Ist man damit zufrieden, dass eine Meldung in einen Stream geladen wurde, dann wird man hinsichtlich der Reichweite optimieren und Meldungen folglich dann aussenden, wenn möglichst viele der eigenen Nutzer online sind. Die Wirkung eines Inhalts ist zweifellos höher, wenn Fans auch noch damit interagieren und sogar Likes oder Comments abgeben. Leider sind solche Nutzer mitunter zu anderen Zeiten online als das Reichweitenmaximum. Wie soll nun reagiert werden? – Es ist notwendig Indexwerte aus den Facebook Insights zu generieren.
In Indexwerten wird die Relevanz einzelner Kriterien anteilsmäßig abgebildet. Man kann also der Reichweite beispielsweise ein Gewicht von 40 Prozent geben, Engaged Users 20 Prozent, Talking about this 20 Prozent und der Virality ebenfalls 20 Prozent. Dabei muss man beachten, dass der Ergebniswert standardisiert ist. Das heißt, dass durch eine Veränderung der gesamten Fanzahl kein Einfluss auf den Indexwert stattfinden darf. Dies kann man beispielsweise so erreichen:
(Reichweite / Fans)*0,4 + (Engaged Users / Fans)*0,2 + (Talking about this / Fans)*0,2 + ((Virality*Reichweite)) / Fans)*0,2
Nun muss man nur noch die Indexwerte sortieren und nach den Aussende-Zeitpunkten schauen. Gleichartige Nachrichten sollten dann in der nächsten Periode zum ermittelten Zeitpunkt verschickt werden.
Auch die Häufigkeit von Postings kann mit dieser Methode überprüft werden. In diesem Fall sind Redaktionspläne für verschiedene Zeitfolgen zu entwickeln und deren Ergebnisse zu bewerten.
Das Verfahren an sich sollte rollierend eingesetzt werden. Es handelt sich um einen fortlaufenden Optimierungsprozess.
Dies sind nicht alle Instrumente, mit dem man hinsichtlich der einzelnen Posts arbeiten kann. Relevant sind auch die erzielten Referrals. Diese verbergen sich in obiger Abbildung im Bereich der „Engaged Users“. Es handelt sich dabei um Nutzer, die durch das Anklicken eines Links auf eine andere Seite geleitet wurden. Wie in diesem Zusammenhang vorzugehen ist, wird weiter unten erklärt. Zunächst wird das eben geschilderte Verfahren noch auf Twitter umgesetzt.
Twitter Optimierung
Für Twitter ist die Optimierung leider etwas aufwändiger, je nach Abhängigkeit der benutzten Tools. Um eine gewisse Vergleichbarkeit der Bewertung zu ermöglichen, sollten die Messwerte möglichst synchron genutzt werden. In der folgenden Abbildung ist ein Versuch zu sehen, die möglichen Metriken von Twitter hinsichtlich der von Facebook im Herbst 2011 vorgegebenen Struktur einzuordnen:
Für Kunden oder VIPs gibt es mittlerweile Statistiken für die Beiträge. Einen ersten Einblick gewährt Sascha Lobo. Das Twitter-Tool weist nach Einschätzung von Sascha Lobo nicht vollständig valide Werte aus. Es kommt zu Abweichungen gegenüber anderen Tools. Dies sollte insgesamt jedoch nicht weiter stören. Die Relationen bleiben, soweit ich dies beurteilen kann, gewahrt. Da auch noch eine Index-Bildung stattfindet, sind die konkreten Werte ohnehin von nachrangiger Bedeutung.
Man sollte sich auf ein Tool oder ein festes Set von Werkzeugen konzentrieren und sicherstellen, dass es zu keiner Verwechselung hinsichtlich der Werte kommt. In einigen Tools werden beispielsweise die Klicks auf Links mit Views übersetzt. Dabei handelt es sich um die von Twitter selbst gemessenen Klicks. Meist werden diese mit Tools wie Bit.ly gemessen oder in Tools wie HootSuite (Ow.ly). Mitunter werden auch Impression-Werte genannt, beispielsweise bei SproutSocial, die keine valide Grundlage haben.
Das Vorgehen entspricht nun komplett dem bei Facebook. Es muss getestet werden. Beachten sollte man dabei, dass es
Die resultierenden Daten werden in eine Tabelle übertragen und angereichert sowie mit einer Typologie versehen. Die Auswertung erfolgt wie bei Facebook.
Crossposting-Effekte
Mit der hier vorgestellten Methode wird isoliert ausgewertet. Man optimiert Facebook. Man optimiert Twitter. Effekte hinsichtlich des Verschickens gleicher oder ähnlicher Inhalte zu gleichen oder unterschiedlichen Zeitpunkten wurden nicht untersucht. Hierfür wäre ein eigenes Testdesign zu entwickeln.
Messung von Referral-Effekten
Facebook und Twitter bieten Möglichkeiten, die Zahl von Referrals zu messen. Vielfach ist dies jedoch nicht ausreichend. Gerade bei Produkt-Postings gibt es zu recht die Anforderung, nicht nur die Zahl zu ermitteln, sondern unter Umständen noch die resultierende durchschnittliche Visit-Länge in Impressions, möglicherweise sogar zurechenbaren Umsatz.
Hierfür muss die Web-Analyics Applikation für die zu prüfende Website zum Einsatz kommen. Dies geschieht – soweit ich dies beurteilen kann – noch viel zu selten. Der Grund hierfür: Es sind oft unterschiedliche Dienstleister und Abteilungen, die sich um Social Media und die Websites kümmern, so dass es hier zu einer unzureichenden Nutzung von Optimierungspotenzialen kommt.
Google hat hier etwas vorgearbeitet und bietet einen Standard-Reportsatz an, mit dessen Hilfe einige Fragestellungen beantwortet werden können. Justin Cutroni hat die Einsatzmöglichkeiten ein wenig erläutert. Allerdings – und hier liegt die Einschränkung – werden die Auswertungen an dieser Stelle lediglich für die Netzwerke an sich gemacht. In den Standard-Reports ist das Herunterbrechen auf einzelne Postings nicht vorgesehen, auch wenn eine Zuordnung von Landingpages möglich ist, was immerhin brauchbare Anhaltspunkte ergibt.
Immerhin ist es ohne großen Aufwand möglich, Bounces herauszufiltern oder nur Besuche mit Conversions. Weitere Anpassungen verursachen etwas Aufwand. Allerdings ist es bei Google so, dass es nur zwei Nutzertypen für die Reports gibt und man vielleicht deshalb einer Social Media Agentur keinen Zugriff auf die vollständigen Daten gewähren möchte. Ein Ausweg könnte hier das regelmäßige Versenden des Reports per E-Mail sein.
Eine Umsetzung mit Webtrends oder Omniture ist ebenfalls möglich. Man kann beispielsweise die Referrer-Reports filtern. Leider gibt es nach meinem Wissen bisher noch keine entsprechenden vorbereiteten Standard-Reports die für die Aufgabe genutzt werden können, gleichwohl können für diese Produkte entsprechende Reports konstruiert und angelegt werden. Der Aufwand hierfür kann leicht bei 3-5 Personentagen liegen.
Die so gewonnenen Werte müssen ebenfalls in die für Facebook und Twitter angelegten Tabellen übertragen werden. Die Indexwerte sind anzupassen und entsprechend zu konstruieren. Das Verfahren der Optimierung bleibt gleich. Man ist damit auch in der Lage, den Zeitpunkt für Meldungen hinsichtlich direkter Conversions zu optimieren. Dabei sollte man allerdings beachten, dass lediglich ein Teil der tatsächlich auf eine Aktion zurückzuführenden Konversionen mit diesem Verfahren gemessen wird, nämlich die, die im gleichen Visit erfolgen. Kommt ein Fan oder Follower später erneut zur Website, um ein in einem Post beworbenes Produkt zu kaufen, dann wird dies normalerweise nicht zugerechnet. An dieser Stelle sollte man sich genau über die Funktionsweise des eigenen Reportings informieren.
One Reply to “Die Bestimmung der idealen Posting-Zeitpunkte für Facebook, Twitter & Co.”