IPv6 – Web-Analytics & Datenschutz

Diese Woche gab es einen neuerlichen Test von IPv6, das den derzeit genutzten Standard IPv4 ablösen soll. Schon folgt der substanzlose Hinweis von Datenschützern auf mögliche Gefahren. Der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit (BfDI) Peter Schaar weiß eigentlich recht gut, was IPv6 bedeutet und welche Komponenten es gibt. Im vergangenen Jahr gab es mehrere Konferenzen dazu und eine wirklich brauchbare Empfehlung. Auch wenn man im Detail vielleicht noch ein wenig darüber diskutieren müsste.

Ich finde es eben erstaunlich, dass in der entsprechenden Pressemitteilung nur Rumgeeiere und Forderungen zu lesen war und kein Hinweis darauf wie IPv6 funktioniert und was Unternehmen – wie beispielsweise die Telekom oder 1&1 – in diesem Zusammenhang bereits geleistet haben. Dabei war Herr Schaar dabei, als die Telekom ihr Konzept vorstellte. Eigentlich hätte man ja auch in der Pressemitteilung mal ein Wort hinsichtlich der Privacy Extensions verlieren können.

Um es kurz zu machen: Die Adresse hat zwei Hauptbestandteile, einen Präfix und einen Interface Identifier (Genaueres bei Wikipedia). Für die Kommunikation zwischen Server und Access Provider ist nur der Präfix absolut notwendig. Deshalb wird es beispielsweise die Telekom, wie es in den Privacy Extensions vorgesehen ist, den Nutzern ermöglichen, die Weitergabe des Interface Identifier zu verweigern. Zudem wird die Adressvergabe des Präfix auch weiterhin dynamisch erfolgen.

Für die Web-Analytics ändert sich dadurch also letztlich nichts. Allerdings sind die Tool-Anbieter gefordert, damit es bei der Umstellung der Protokolle zu keinem Datenbruch kommt. Das wird aus meiner Sicht eine echte Herausforderung, mit der sich die Anbieter langsam beschäftigen sollten. Noch hört man hinsichtlich dieser Problematik wenig.

Klout, Kred, PeerIndex & Co. – für was sind sie nützlich und was taugen sie?

Scores wie Klout oder PeerIndex sind aufgrund ihrer Konstruktion grobe Schätzungen hinsichtlich des Einflusses von Kommunikatoren im Social Web und als solche sollten sie auch behandelt werden. Wenn ein Score einer Person höher ist als der einer anderen Person, dann sollte sich eine Nachricht durch sie c.p. stärker verbreiten.

Zur Identifikation relevanter Kommunikatoren sind die Instrumente schwach. Sie geben erste Anhaltspunkte. Monitoring-Werkzeuge sind hierzu weitaus besser geeignet, auch wenn diese Leistung dann mit mindestens fünfstelligen Summen pro Jahr zu Buche schlägt.

Beachten sollte man die Scores dennoch. Suchmaschinen werden in Zukunft stärker das Social Web als Relevanzgeber heranziehen und dabei Kommunikatoren Scores geben.

Kürzlich gab es auf Google+ eine ausgedehnte Diskussion über den Klout-Score. Klaus Eck fragte: Wie wichtig ist Klout wirklich?

Abgesehen von,Überlegungen zu einem eventuellen Nutzen von Klout, wurde in erster Linie über seine Validität diskutiert – darüber ob er er tatsächlich misst was er zu messen vorgibt: Den tatsächlichen Einfluss von Kommunikatoren. Auf dieses Thema werde ich weiter unten noch eingehen.

In diesem Beitrag versuche ich, das Thema „Einfluss-Scores“ strukturiert aufzuarbeiten. Die Beschäftigung mit dem Thema ist durchaus lohnend. Wenn die herausgearbeiteten Defizite beseitigt werden, handelt es sich – neben der Relevanz für die SEO – um ein ausgesprochen nützliches Instrument für Online-Marketing und E-Commerce.

Nützlich könnten solche Score-Information in verschiedenen Bereichen sein:

  • Suchmaschinen nutzen Scores als Relevanzmaß.
  • So identifizierte einflussreiche Kommunikatoren können als Fan für das eigene Angebot angesprochen und gewonnen werden.
  • Relevante Kommunikatoren für bestimmte Themen können identifiziert werden, um diese beispielsweise zu Tests für bestimmte Produkte einzuladen.
  • Wenn man in einem Service-Center weiß, dass eine Anfrage von einem einflussreichen Kommunikator gestellt wurde, kann dieses einem besonders qualifizierten Mitarbeiter zugewiesen werden. In diesem Zusammenhang ist beispielsweise auch der Kauf von Radian6 durch SalesForce zu verstehen.
  • Die Scores können ein Motivator hinsichtlich der Steigerung des Einflusses für Mitarbeiter oder für Fans zur Erlangung von Perks sein.

Dabei sagen die Anbieter auch selbst, für was ihre Daten nützlich sind. Nicht nur Klout setzt dabei auf sogenannte „Perks“. Nutzer mit einem Klout Score ab einem bestimmten Niveau erhalten Vergünstigungen. Ein Beispiel ist in der folgenden Abbildung zu sehen:

Audi Perk Ergebnisse
Audi Perk Ergebnisse

Zusammengefasst funktioniert das Business-Konzept hinter Klout so: Wenn einflussreiche Personen über Produkte kommunizieren, ist das spannend für Unternehmen. Über Klout können sie diese erreichen. Klout ist dabei so angelegt, dass die Teilnehmer dazu motiviert werden, ihre Reichweite und ihre Kommunikationsfrequenz zu erhöhen. Dies könnte für Unternehmen vorteilhaft sein. Man gibt einem einflussreichen Kommunikator ein Produkt billiger oder kostenlos und dann kommuniziert dieser möglicherweise über das Produkt. Die Kommunikation von einzelnen Personen oder Freunden wird im allgemeinen als vertrauenswürdiger empfunden als Werbung. Über den Umweg Klout wird dies erreicht. Der PR-Mann Bernhard Jodeleit hält dieses Vorgehen allerdings für bedenklich.

Die ethische Dimension

Was Klout macht, kann man nicht einfach mit einem Journalisten-Rabatt vergleichen. Es gibt zwei wichtige Unterschiede: Nutzer, die Perks erhalten – beispielsweise ein Smartphone –  empfangen nicht gleichzeitig Anzeigengelder. An dieser Stelle kann man sicher anmerken, dass auch freie Journalisten den entsprechenden Rabatt erhalten. Allerdings schiebt Klout nach eigener Aussage einen weiteren Riegel dazwischen: Das Perks vergebende Unternehmen bekommt nicht die Adressen der Personen, an die die Produkte vergeben werden. Es gibt also keinen weiteren Weg der Einflussnahme als die Vergünstigung selbst.

Welche Kriterien zur Unterscheidung und Beurteilung von Scores gibt es?

Scores kann man hinsichtlich der untersuchten Plattformen einteilen in

  • allgemeine, die über viele Netzwerke hinweg gültig sind (z.B. Klout, Kred, PeerIndex),
  • spezielle, die einen Score lediglich für eine Plattform angeben (z.B. TweetLevel, PinReach).
  • Zudem gibt es Ranglisten, die sich lediglich auf die Zahl von Fans bzw. Followern beziehen (z.B. CircleCount).

Ein weiteres Unterscheidungsmerkmal ist die Identifikation von Themen:

  • Es gibt Scores, die auch Themen oder Themenbereiche einbeziehen (z.B. Klout, PeerIndex, TweetLevel) und solche,
  • bei denen es keine Berücksichtigung von Themen gibt (z.B. PinReach).

Eng verknüpft mit diesem Kriterium ist die Sprachabhängigkeit:

  • Sprachunabgängige Scores zählen einfach häufig vorkommende Begriffe / Hashtags in Kommunikaten aus und ordnen diese den Nutzern zu. Eine Hierarchie der Begrifflichkeit gibt es nicht (z.B. TweetLevel).
  • Sprachabhängige Scores werten lediglich einzelne Sprachen aus und verlassen sich zusätzlich auf vorgegebene Dictionaries. Klout macht das so.

Gemeinsam ist in der Tat allen, dass sie Nutzer dazu motivieren möchten, mehr Freunde zu haben. Die meisten empfehlen auch die Zahl der Nachrichten zu erhöhen, um den Score zu steigern. Edelmanns TweetLevel fordert zusätzlich Reaktionen auf Tweets – Diskussionen. Die Funktionsweise der Scores kann man an dieser Stelle hinsichtlich des bevorzugten Aktivitätsmusters unterscheiden in

  • Tachometer /Performance-Funktion: Der Score berücksichtigt lediglich die Entwicklung der vergangenen 90 Tage (Klout) oder 30 Tage (PeerIndex).
  • Höhenmesser: Der Score zählt alle vorhandenen Daten zusammen (z.B. PinReach).
Auch nicht ganz unwichtig ist eine weitere Dimension für die Beurteilung von Scores ist die Transparenz bei der Erstellung.
  • Nahezu völlige Intransparenz herrscht bei Klout, das zugegeben auch das komplexeste Instrument ist.
  • Sehr viel transparenter sind Dienste wie Kred oder pinpuff mit Pinfluence.
  • An transparentesten sind Ranglisten, die einfach nur Fans und Follower auszählen.

Um diese Scores in Deutschland einsetzen zu können und Influencer für Themen zu identifizieren, müssten dies Scores also für die deutsche Sprache verfügbar sein oder sprachunabhängig.

Wie valide sind die Scores?

Die Frage der Validität der Scores – ihre Gültigkeit – ist natürlich ausgesprochen wichtig für den professionellen  Einsatz. Messen die Scores, was sie vorgeben zu messen?  Nur bedingt entscheidend ist dafür der Einfluss, der den Kommunikatoren außerhalb des Netzes zugewiesen wird – Spitzenpositionen, wie sie von hochrangigen Politikern oder Firmenchefs eingenommen werden. Aber – und um es salopp zu sagen – die interessieren für den Verwendungszweck auch kaum. Auch die viel zitierten „Stars“ – Lady Gaga, Justin Bieber & Co. sind nicht wirklich relevant. Die sind ohnehin bekannt und für die meisten Unternehmen kaum erreichbar oder schlicht zu teuer.

Auch wenn die Werte für einzelne Nutzer oder ein einzelne  Unternehmen en detail spannend sein mögen, ebenso wie die Veränderung ihrer Scores, so sind für die generelle Nutzung Werte ausreichend, die den Einfluss grob abbilden. Es ist unwichtig, ob jemand, wie bei einem Sportwettbewerb auf dem Treppchen landet. Es ist völlig ausreichend zu wissen, dass die Kommunikatoren – je nach Fragestellung, Zielsetzung und Größe eines Themas – etwa zu den Top 100 oder vielleicht auch zu den Top 10.000 – Kommunikatoren gehört.

Die Scores an sich

Die genaue Formel, die hinter der Berechnung eines Scores steckt, bleibt i.d.R. das Geheimnis des Anbieters. Das ist auch gut so. Ansonsten wären die Scores zu leicht manipulierbar. Sicher – Kred ist transparenter als Klout. Beschweren sollte man sich dennoch nicht oder haben Sie bei den Sinus Milieus schon mal überlegt, wie diese genau ermittelt werden?

Am Beispiel des Pinfluence Scores von pinpuff lässt sich das schon ein wenig erläutern:

Pinfulece Score von pinpuff
Pinfluece Score von pinpuff

Deutlich wird, dass der Reichweitenaspekt das größte Gewicht hat. Würden die Werte gleichmäßig gewichtet, so wäre das Ergebnis ein Score von 59.  Das Gewicht des Reach-Scores ist zehn Mal höher als das Gewicht der beiden anderen Scores. Würden die Scores näher beieinander liegen, dann wären die Gewichte andere.

Für meine eigene Pinterest-Aktivität sagt mir der Score, dass ich meine Reichweite ausbauen soll. Meine Pins sind eigentlich schon super-viral und ich mache auch schon recht viel bei Pinterest.

Klout arbeitet mit ähnlichen Parametern, die allerdings leicht verklausuliert dargestellt werden:

  • True Reach: Die Zahl von Menschen, die direkt oder indirekt beeinflusst werden.
  • Amplification: Die Stärke der Beeinflussung (Frequenz von likes, RTs etc.).
  • Network Impact: DieStärke des Einflusses von Freunden, Fans & Followern.

Verständlich ist, dass bei der Reichweite nicht einfach die Zahl der Köpfe errechnet wird. Um Einfluss zu generieren, müssten die Menschen erreicht werden. Doch das kann Klout nicht messen – zumindest nicht korrekt. Sichtkontakte mit Twitter-Mitteilungen sind schlichtweg nicht messbar und Schätzungen schlecht. Der Aufwand, dies bei Facebook aus den Insights zu errechnen, wäre gigantisch. Ich glaube nicht daran, dass dies entsprechend umgesetzt wird und Google gibt die Daten bisher nicht heraus. Was bleibt ist die Möglichkeit, sich einfacher Metriken wie Retweets, Mentions, Likes oder Reshares zu bedienen. Wenn es zu solchen Aktionen kommt, wird bei der Ermittlung der Werte der Klout oder einer seiner Bestandteile für die Kalkulation benutzt. Dieses Verfahren bietet Möglichkeiten zur Manipulation.

Der PeerIndex ist prinzipiell ähnlich aufgebaut. Der Einfluss errechnet sich aus Aktivität, Publikum und Autorität. Zusätzlich wird noch die PageAuthority von Blogs berücksichtigt. Analysiert man das Instrument näher, so wird klar, dass ein höheres Gewicht auf Twitter liegt. Wohl möglich werden Facebook und LinkedIn nicht ausgewertet. Werte werden derzeit nicht angezeigt:

PeerIndex Coming Soon
PeerIndex Coming Soon

Kred erlaubt es, zusätzlich Offline-Statusmerkmale einzubeziehen. Journalisten, Politiker, Unternehmenslenker erhalten so einen höheren Score. Diese Kreds können selbst beantragt werden oder von anderen Teilnehmern zugewiesen werden. Man könnte auf diesem Weg beispielsweise Werner Feymann zu einem weltweit sehr einflussreichen Mann machen. Derzeit begrenzt sich diese Einflussnahme wohl vorwiegend auf Österreich und einige Aspekte innerhalb der EU. Ausgewertet werden bei Kred derzeit Twitter und Facebook.

Mess- und Übertragungsfehler

Natürlich stellt sich die Frage, ob der Status entsprechend dem, was die Scores vorgeben zu messen, korrekt kalkuliert wird. Schon bei der internen Validität stößt man auf Schwierigkeiten. Ein Beispiel sehen Sie in der  nachfolgenden Abbildung:

Blog Authority im PeerIndex
Blog Authority im PeerIndex

Obwohl ich mein Blog schon seit mehreren Wochen bei PeerIndex angegeben habe, werden die Moz Rank-Werte, die über den OpenSiteExplorer abrufbar sind, nicht inkludiert. Die Frequenz und der korrekte Abruf von Zählwerten (Fans, Likes, Retweets etc.) erfolgt sowohl bei Klout als auch bei PeerIndex mitunter stark verzögert und zum Teil fehlerhaft. Bei PeerIndex wird beispielsweise nur eine Stichprobe der Tweets ausgewertet.

Verständlich ist dieses Verfahren: Die Datenmengen, die über die APIs ausgewertet werden müssen, sind gewaltig und die Anbieter der Scores nicht wirklich Unternehmen, die sich ausreichend Rechenpower leisten können.

Sprünge durch notwendige Anpassungen

Besonders die Betreiber der komplexeren Systeme, wie Klout oder PeerIndex, leiden unter Veränderungen des Gesamtsystems Social Media. Es kommen neue Plattformen hinzu, die abgebildet werden sollten. Existierende Plattformen verändern ihr Konzept oder ihr API und schon muss der Index angepasst werden. In der folgenden Abbildung sind zwei Sprünge in den Scores bei Klout zu sehen (Kästen), die höchstwahrscheinlich auf die Anpassung des Instruments zurückzuführen sind:

Sprünge im Klout Verlauf
Sprünge im Klout Verlauf

Weder bei mir noch bei Volker Meise lagen nach meinem Wissen entsprechende Ereignisse vor (z.B. Zugewinne von Fans, viele Shares etc.). Kürzlich veränderte Pinterest die Zählweise der Follower, mit nahezu katastrophalen Folgen für die Anbieter von Analytics Tools.

Sprache & Land als Hürde

Besonders wenn es das Ziel ist, Influencer für einen bestimmten Bereich zu identifizieren, muss die Zuweisung von Themen möglichst korrekt sein. Hierzu gibt es verschiedene Ansätze. Gerade bei Klout kommt es für deutsche Kommunikatoren zu Fehlmessungen. Themen werden bei Klout aus einem Katalog vergeben. Wie ein Begriff in den Katalog kommt, bleibt verborgen. Bei PeerIndex ist der Einfluss auf die Themen noch geringer.

Begriffe englischen Ursprungs werden bei Klout korrekt abgebildet – also beispielsweise „Marketing“ oder „Social Media“. Dagegen findet man „Maschinenbau“ oder „Getriebe“ nicht, wohl aber „Bier“ und „Sauerkraut“. Es ist eigentlich ein gewaltiges Durcheinander. Also habe ich mir Edelmans TweetLevel angeschaut. Dabei werden häufig vorkommende Begriffe sprachunabhängig aus den Tweets extrahiert. Leider bin ich dabei auf eine andere Herausforderung gestoßen. Klaus Eck ist sehr einflussreich für „Infografik“. Eigentlich würde mein Score auch für die Top 40 ausreichen, nur schreibe ich in meinen Tweets immer „Infographic“. Wer sauber arbeiten wollte, müsste also sogenannte Dictionaries einsetzen – Synonymen-Wörterbücher. Zusätzlich ist die Eingrenzbarkeit auf Länder tatsächlich absolut notwendig.

Berühren müsste uns das eigentlich noch nicht. Perks kann man bisher nur für den englischen Sprachraum kaufen. Man sollte sich also (noch) keine Sorgen machen. Obwohl – ich habe einen Perk für LoveIt.com genutzt. Sorgen müssen sich also eher die Amerikaner und Briten machen. Einen mir angebotenen Perk für 3 Monate Deezer habe ich bei PeerIndex übrigens nicht bekommen, weil ich keine IP-Adresse im UK hatte. Die werde ich mir dann beim nächsten Starbucks-Besuch abholen – deren WLAN wird im UK verortet.

Die Frage ist letztlich, in welche Sprache(n) die Scores erweitert werden. Naheliegend sind Spanisch, Französisch und Deutsch. Bevor Deutsch als Sprache eingeführt wird, ist die Arbeit mit den Scores leider nur selektiv sinnvoll. Wenn im interessierenden Themenbereich vorwiegend mit englischsprachigen Fachausdrücken  kommuniziert wird, sollte das durchaus möglich sein. Allerdings werden in diesem Fall Kommunikatoren, die vorwiegend deutschsprachige Pendants der englischen Fachausdrücke benutzen, untermessen.

Fehlende Individualisierung

Besonders Großunternehmen haben mitunter besondere Ansprüche an Kommunikatoren und Instrumente. Oft geht es dabei um die Individualisierung derselben. Die Reichweite eines Kommunikators ist manchem aber vielleicht gar nicht so wichtig, ihre Vertrauenswürdigkeit soll höher gewichtet werden. Bei meinen Recherchen habe ich nur ein Instrument gefunden, das eine solche Möglichkeit erlaubt. Es ist CircleCount aus – Deutschland! Ein Unternehmen aus Essen erstellt dieses Ranking für Google+, das eine Gewichtung der Parameter erlaubt.

Parameter-Gewichtung bei CircleCount
Parameter-Gewichtung bei CircleCount

Scores nur eingeschränkt nutzbar in Online-Marketing und E-Commerce

Perks sind für Deutschland ohnehin noch nicht verfügbar. Dennoch erscheint mir die Möglichkeit attraktiv, auf diesem Weg Produkte zu Promoten. Neben einer ausreichend granularen Möglichkeit Kommunikatoren zu identifizieren, muss die Einschränkung auf Länder gegeben sein. Derzeit eignet sich im Grunde lediglich der TweetLevel für solche Arbeiten. Die übrigen Scores müssten ihre Defizite beseitigen, ansonsten sind sie wirklich nur sehr eingeschränkt einsetzbar. Sie geben erste Anhaltspunkte – Monitoring-Werkzeuge (z.B. Sysomos, Radian6, BIG) sind hierzu weitaus besser geeignet, auch wenn diese Leistung dann mit mindestens fünfstelligen Summen pro Jahr zu Buche schlägt.

Der SEO-Aspekt von Scores

Google lässt mehr und mehr Aspekte aus dem sozialen Web in seinen Suchalgorithmus einfließen. Besonders zur Erlangung einer höheren Aktualität der Suchergebnisse ist dies sehr wichtig. Gleichzeitig ist es (noch) schwerer zu manipulieren als andere Aspekte des Algorithmus. Allerdings ist kaum davon auszugehen, dass Unternehmen wie Google sich auf eingeschränkt valide und wenig performante Instrumente verlassen. Vielmehr sollte man davon ausgehen, dass Google bereits ein Instrument mit weniger Schwächen als Klout & Co. im Einsatz hat oder dieses sich wenigstens im fortgeschrittenen Entwicklungsstadium befindet. Es wird noch diskreter behandelt werden als Klouts Verfahren zur Erstellung des Score, um Manipulationen einzuschränken.

Unternehmen wird deshalb nichts anderes übrig bleiben, als die vorhandenen Instrumente zu nutzen und sich in ihrem Agieren an den Relevanz-Kriterien zu orientieren. Hilfreich sind die zugänglichen Scores schon. Das Ranking von Pages, die von Personen mit hohen Score verbreitet wurden, sollte man auf jeden Fall mit Rankings von vergleichbaren Seiten, die von Personen mit niedrigem Score verbreitet wurden, beobachten.

Scores und ihre Nutzer

Damit Mitarbeiter bzw. das relevante Personal strukturiert Einfluss aufbauen kann, gibt es Hilfsmittel, die von Klout und PeerIndex zur Verfügung gestellt werden.

Dadurch, dass ein Nutzer seinen Score abfragt kann er wissen, wie relevant / einflussreich er ist und das am besten noch im Vergleich zu anderen Nutzern. Die Scores kommunizieren,  was sie dazu machen müssen: Mehr und am besten einflussreiche Freunde haben, viele Nachrichten versenden und darauf achten, dass die verschickten Nachrichten sich weiter verbreiten. Klout bietet ein Modul an, mit dessen Hilfe man den Score in Twitter angezeigt bekommt:

Twitter mit Klout Score
Twitter mit Klout Score

PeerIndex arbeitet mit einigen Tool-Herstellern zusammen. Nachfolgend die Abbildung des PeerIndex in SocialBro:

PeerIndex in SocialBro
PeerIndex in SocialBro

Während die Anzeige in Twitter sehr aufdringlich ist und darauf angelegt ist, bei der Benutzung der Website immer wieder mit den Scores der Verfolgten zu konfrontieren, um zu motivieren, erscheint der PeerIndex in SocialBro eher als Beurteilungs- und Sortierkriterium für das Twitter-Management. Dazu sollte der PeerIndex auch geeignet sein: Einflussreiche Kommunikatoren auf Twitter werden bestimmt. Ob diese thematisch passen, ist eine manuell zu bearbeitende Aufgabe.

Fragen?

Das Thema ist komplex und in Deutschland derzeit v.a. hinsichtlich SEO-Aspekten spannend. Man sollte beobachten, wie sich der Bereich weiter entwickelt. Hierfür ist v.a. wichtig, dass die Instrumente Deutsch als Sprache berücksichtigen und regionale Abgrenzungen möglich sind.

Wie immer freue ich mich über Fragen und Anregungen!

Links zu den genannten Scores

Pintics – viel mehr als ein Pinterest Analytics Tool

Ich habe bisher schon einige Social Media Analyse Werkzeuge für Pinterest besprochen. Pintics geht weit über diese hinaus und bildet den gesamten „Funnel“ ab. Man sieht nicht nur, wie erfolgreich einzelne Boards sind. Das ist wie in den anderen Tools: Fans, Likes und Repins werden angezeigt. Sondern man kann, wenn man Google Analytics benutzt, auch noch Visits, PageViews, die Bounces und, wenn bewertete Conversions erreicht wurden, die induzierten Sales sehen. Die Zahl der Pins sollte vielleicht noch ergänzt werden, sie fehlt noch in der Übersicht.

Pintics Übersichts Dashboard
Pintics Übersichts-Dashboard

Pintics unterscheidet drei Ebenen der Analyse. Es gibt das Übersichts-Dashboard, in dem das Ergebnis eines Accounts zusammenfasst wird. Eine Ebene tiefer liegen die Boards. Man erhält die gleichen Werte, die es schon im Übersichts-Dashboard gibt und eine Ebene weiter die Pins.

Pintics Ergebnisse Boards
Pintics: Boards Übersicht

Das ist auf der Ebene der Boards bereits jetzt – das Produkt ist in der Beta-Phase – sehr übersichtlich gelöst. Wenn es Pins gibt, die zu groß sind, um diese in der Tabelle sauber darzustellen, werden diese wie bei Pinterest selbst beschnitten. Leider fehlen in der Tabelle noch relative Werte, sowie die Zahl der Pins. In Webtrends, einem Tool der Enterprise-Klasse, gibt es hierfür die „Calculated Measures“. Vielleicht kommt diese Funktion ja in einer Professional Version von Pintics.

Zudem wäre es hilfreich, wenn man die Zahlen als CSV exportieren könnte. Dann wären eigene weitere Berechnungen mit weniger Aufwand möglich. Auch dies ist eine Funktionalität, die in eine Professional Version eingebaut werden sollte. Bei Curalate gibt es diese Download-Möglichkeit.

Pintics Pins Übersicht über alle
Pintics: Pin Übersicht (alle)

Eine entsprechende Übersicht gibt es auch über alle Pins. Allerdings werden die Pins hier immer in ihrer vollen Länge angezeigt, was die Darstellung bei Infographiken etwas unübersichtlich macht. Behebbar ist dies – schließlich unterscheidet sich das Template kaum vom vorhergehenden.  Zusätzlich gibt es noch eine weitere Darstellung auf der Ebene der Boards.

Pintics Pin Boards Popular
Pintics: Pin by Boards (Popular)

Diese ist zweigeteilt. Es gibt die Popular Pins und in der nächsten Abbildung die erfolgreichsten Pins hinsichtlich Traffic.

Pintics Boards Traffic from Pins
Pintics: Pin by Boards (Traffic)

In diesen Darstellungen wird der Umsatz nicht mehr angezeigt. Diesen müsste man, wenn er relevant ist, in der Einzelübersicht ablesen. Der Raum wird an dieser Stelle für den Verlauf der Metriken innerhalb der vergangenen sieben Tage benutzt. Ein Verschieben der Grafik an den  Kopf und damit einhergehend eine etwas größere Darstellung wären vorteilhaft. Leider werden auch in dieser Darstellung die besonders langen Pins nicht begrenzt.

Ein ausgesprochen nützliches Werkzeug

Auch wenn es hinsichtlich der Darstellung und der Ergonomie noch einigen Verbesserungsbedarf gibt: In Kombination mit Google Analytics bietet Pintics das, was man sich für Social Media wünscht – es wird nicht nur innerhalb der Plattform analysiert, sondern auch noch der Erfolg, der auf der eigenen Website erzielt wird. Dabei wird selbst ein kritisches Moment hinsichtlich Pinterest berücksichtigt. Viele der generierten Referrals enden in Bounces. Diese werden ausgewiesen und können eliminiert werden. Da stört es kaum, dass über der Tabelle ein Prozentzeichen steht, obwohl es sich um die absolute Zahl von Visits handelt.

Im Vergleich zu Pinerly ist der Aufwand sehr viel geringer, wenn man mit Google Analytics arbeitet, weil nicht jeder Pin einzeln getaggt werden muss. Allerdings funktioniert die Erfolgsmessung nur für die eigene Website. Dafür werden nicht nur Referrals gemessen – auch Conversions werden in die Analyse einbezogen.

Demnächst soll es noch einen Scheduler für das zeitgesteuerte Pinnen geben. Das ist eine Funktionalität, die sich viele Pinner wünschen. Ich drücke den Jungs derweil die Daumen. Sie leisten eine großartige Arbeit. Wie geschrieben Pintics ist beta. Derzeit kann man sich für einen kostenlosen Test registrieren.

Für die Technikspezialisten noch ein Hinweis: Wenn Sie einen Google Analytics Admin-Account verknüpfen, wird automatisch der Traffic aller enthalten Accounts analysiert.

Bedanken mochte ich mich noch bei den aktiven Teilnehmer der deutschen Pinterest Gruppe auf Facebook. Ohne Euch wären meine Tests viel schwerer relaisierbar.

Weitere Tools & Ansätze zur Pinterest Analyse

Pinerly – bald nicht mehr nur ein Pinterest Analytics Tool

PinReach – ein Pinterest Analytics/Insights Tool

Pinfluence – ein Klout für Pinterest & Analytics Daten

Repinly – Pinterest Statistik

Pinterest: Tracking von Pins der eigenen Website mit Google Analytics

PinAlerts -tracken welche Pins von der einen Website gesetzt wurden

Anforderungen an Pinterest Analytics & Monitoring

Herleitung von KPIs (Teil 4 Facebook Insights Guide )

Für mich ist der Umgang mit dem Begriff KPI (Key Performance Indicator) immer wieder überraschend. Auffällig ist aus meiner Sicht zunächst was alles als KPI benannt wird, es jedoch ganz sicher nicht sein kann. Dann aber auch Listen von KPIs, die als der Weisheit letzter Schluss verkauft werden.

Deshalb halte ich eine Begriffsklärung auch hinsichtlich der Entwicklung von KPIs aus den Daten der Facebook Insights für absolut notwendig. KPI setzt sich auf drei Worten mit eigener Bedeutung zusammen. Richtig verständlich wird der Begriff, wenn man ihn in ungekehrter Reihenfolge erläutert:

  • Indicator Bei dem Wert handelt es sich um einen Indikator für etwas. In den ersten Teilen des Guide wurde der Begriff Indicator recht oft benutzt. Ein Indikator steht immer für etwas, das man wissen möchte – nicht zwingend direkt – aber möglicherweise indirekt.
  • Performance  Performance zeigt immer eine Veränderung an. Performance Indikatoren sind also immer Werte, die eine Entwicklung verdeutlichen. Im Zusammenhang dieses Beitrags wäre also nicht die Zahl der Fans der Performance Indikator, sondern die Veränderung der Zahl der Fans.
  • Key KPIs sind die wichtigen Performance Indikatoren, die  dem Management auf den ersten Blick zeigen sollten, wie die Performance in der jeweils beobachteten Periode war. Allgemein sollte man davon ausgehen, dass es sich in diesem Zusammenhang nicht um mehr als fünf bis sieben Werte bzw. Wertebündel handeln kann. Beachten sollte man auch, dass Anwender – wie im realen Leben – mitunter auch verschiedene Schlüssel benötigen. Ein Social Media-Redakteur benötigt andere Zahlen als der Leiter des Online-Marketing, als der Geschäftsführer etc.

Social Media Analytics & Monitoring
Mein Buch zum Thema für
34,90 € bei Amazon

Damit sollte auch schon klar geworden sein, dass in diesem Beitrag nicht „die“ KPIs hergeleitet und genannt werden – zumal aus den Facebook Insights heraus ohne Verbindung mit weiteren Daten der Web-Analytics nicht alle relevanten Fragen beantwortet werden können – noch kann Facebook isoliert analysiert werden. Deshalb werden Leitlinien für die Entwicklung von KPIs formuliert.

Das Web-Analytics Verfahren

Die wichtigste Prämisse bei der Entwicklung von KPIs sollte im Unternehmen darin bestehen, vergleichbare Werte für die Performance verschiedener Marketing-Aktivitäten zu generieren. Diese müssen bewertet und gewichtet werden, um die Vergleichbarkeit der Werte zu gewährleisten. In diesem Rahmen müssen Social Media mit der Einzelaktivität Facebook auch eingeordnet werden. Deshalb können an dieser Stelle keine KPIs entwickelt werden, die immer gültig sind – wohl aber Vorschläge, Leitlinien für ein Vorgehen.

Freilich ist es so, dass es für Social Media andere Kenngrößen gibt als für Fernsehen oder Zeitschriften. Warum sollte man aber die Leistung eines Postings nicht mit der Leistung eines E-Mail Newsletters vergleichen? Die erzielbaren Resultate können ähnlich sein.

Aus dieser Situation heraus ist klar, dass es bestimmte Anforderungen des allgemeinen Marketing, bzw. der Geschäftsleitung an die Datenaufbereitung geben kann. Gleichzeitig gibt es natürlich auch Anforderungen aus der ausführenden Abteilung bzw. vom Social Media Team.

Wie in den Web-Analytics üblich, sollte ein Workshop durchgeführt werden, um beispielsweise mittels Metaplan-Technik, die Anforderungen zu sammeln und zu bewerten. Anschließend können die KPIs entwickelt werden.

Anpassung an das im Unternehmen übliche Berichtswesen 

Besonders bei größeren Unternehmen gibt es in der Regel schon ein ausgeprägtes Berichtswesen. KPIs müssen in diesen Kontext eingeordnet werden. Es muss eine Anpassung stattfinden. Allerdings sollten die KPIs im Rahmen eines Gegenstromverfahrens entwickelt werden. Facebook und andere Social Media Plattformen haben Besonderheiten, die zu berücksichtigen sind. Durch ein Top-Down-Verfahren gingen diese verloren, genauso würde der Anschluss an das übliche Reporting vermutlich verfehlt, wenn nur Bottom-up gearbeitet würde.

Für jede Zielgruppe im Unternehmen gibt es ein eigenes Dashboard mit der jeweils passenden Datendichte. Richtig und wichtig ist dabei, dass es ein oder zwei KPIs gibt, die alle Adressaten nutzen. So kann das gemeinsame Verständnis von der Performance entwickelt werden.

Verschiedene Plattformen beachten

Bei der Konstruktion sollte – eigentlich selbstverständlich – auch beachtet werden, dass die KPIs einen Performance-Vergleich mit anderen Plattformen erlauben. Das soll nicht heißen, dass es keine KPIs zu Besonderheiten einzelner Plattformen geben soll. Eine isolierte Betrachtung von Facebook alleine ist nicht sinnvoll – auch wenn dies aufgrund seines Gewichts und des Grades an Ausdifferenzierung der Insights einige Vorgaben machen darf.

Der Aufbau der KPIs kann also – wenn man dies grob hierarchisch sieht – so erfolgen, dass KPIs pro Plattform entwickelt werden. Diese müssen zumindest zum Teil miteinander vergleichbar sein. Beispielsweise können Indikatoren im Zusammenhang mit Fans auf Facebook und Followern auf Twitter stehen.

Datenspeicherung nicht nur für Dashboards

Eine Frage, die auch beantwortet werden sollte: Wie werden die KPIs aufbereitet und wo sind diese zu finden? Insgesamt sollte bereits klar geworden sind, dass beispielsweise die Zahl der Fans nicht wirklich ein KPI ist, der Performance-Aspekt würde nicht hinreichend berücksichtigt, auch wenn diese Zahl natürlich kommuniziert werden muss. Das Ziel sollte darin bestehen, ein regelmäßiges Reporting aufzubauen, so dass eine Dokumentation über einen längeren Zeitraum möglich ist. Durch Umstellungen im Reporting von Facebook kam es in der Vergangenheit immer wieder zu Schwierigkeiten, so dass es ratsam ist, die Werte aus dem Tool zu exportieren, um diese an einer sicheren Stelle zu archivieren, wenn nicht ohnehin ein Werkzeug eingesetzt wird, das diese Aufgabe automatisiert übernimmt.

Es gibt Werkzeuge, wie allfacebookstats.com, die gegen Bezahlung länger Daten speichern als Facebook selbst – allerdings auch nur für Facebook. Arbeitet man breiter, mit mehreren Plattformen, dann ist es, wenn man das angehen sinnvoller, die Daten gleich systematisiert in einem Tool abzulegen. Mit Metricly und Unilizer gibt es Dienstleister, die eine solche Aufgabe übernehmen und es gleichzeitig ermöglichen ein aggregiertes Dashboard aufzubauen. Die Facebook Insights-Daten werden per API importiert. Nachfolgend eine Beispielabbildung für ein solches Dashboard:

Unilizer Dashboard
Unilizer Dashboard

Standard Dashboards und KPIs

Ob Tools wie Metricly oder Unilizer den Ansprüchen genügen, muss im Unternehmen selbst beurteilt werden. Häufig ist es zwar so, dass die für Social Media oder Online allgemein Zuständigen durchaus mit den Tools zufrieden sind. Marketing-Verantwortliche in größeren Unternehmen wünschen sich dagegen oft eine andere Darstellung bzw. Funktionsweise. Selbst wenn Werkzeuge wie Crystal Reports im Einsatz sind, soll das „Online-Reporting“ oft genug in Excel erfolgen. Die Vorteile liegen auf der Hand: Das Programm ist auf allen Rechnern im Unternehmen installiert, die Dateien lassen sich leicht verbreiten und die Mitarbeiter können damit umgehen.

Visuelle Aufbereitung der KPIs

Daneben muss darüber entschieden werden, wie die Werte aufbereitet werden sollen. Im Dashboard werden gute Vorschläge gemacht. In der folgenden Abbildung stehen diese am Kopf, die konkreten Werte sind ausgegraut:

KPIs am Seitenkopf der Facebook Insights
Facebook Insights Dashboard

Facebook schlägt als KPI also folgende Werte vor:

  • Total likes
  • Friends of Friends
  • People Talking About This
  • Weekly Total Reach

Es fällt auf, dass kein Wert genannt wird, der sich direkt auf die Zahl der Fans bezieht. Dazu weiter unten mehr.

In der folgenden Abbildung wird die visuelle Aufbereitung deutlicher:

KPI "Total Likes" / "Gefällt mir" aus den Facebook Insights
KPI „Total Likes“ / „Gefällt mir“ aus den Facebook Insights

Genannt wird also ein absoluter Wert – „45.340“ – ein visueller Hinweis auf die Entwicklung (der grüne Pfeil) und die prozentuale Veränderung im Analysezeitraum, die wiederum auch durch eine farbliche Akzentuierung hervorgehoben wird. Entsprechendes kann man auch mit Excel realisieren:

KPI "Total Likes" / "Gefällt mir" aus den Facebook Insights - Umsetzung in Excel
KPI „Total Likes“ / „Gefällt mir“ aus den Facebook Insights – Umsetzung in Excel

In Excel kann automatisiert eine ganz ähnliche Anmutung erzielt werden. Der zu sehende Pfeil ist eine bedingte Formatierung auf der Basis der Veränderung. Um flexibler formatieren zu können, sollte der Pfeil ohne Anzeige des Wertes in einer eigenen Zelle positioniert werden.

Welche KPIs? – Gibt es doch Standards?

Diese Frage kann mit einem klaren Jein beantwortet werden. Aus meiner Sicht lassen sich aus den Facebook Insights selbst nur begrenzt KPIs herleiten, die für alle Ebenen im Unternehmen von Interesse sind.

Der Grund hierfür: Facebook ist genauso wie Twitter, Google+, oder ein Blog kein Selbstzweck. Die erreichte Performance muss in Relation zum wirtschaftlichen Erfolg gesehen werden. Dieser ist durch die Insights alleine nicht zu beurteilen. Die Werte sind lediglich mehr oder weniger starke Indikatoren. Dennoch ist es so, dass die von Facebook gemessenen Werte natürlich die Grundlage für weitere Kalkulationen bilden.

Aufgrund der enormen Reichweite von Facebook und der durchaus elaborierten Herangehensweise an die Datenerhebung und deren Präsentation kann man davon ausgehen, dass Facebook eine Struktur vorgibt, die von den anderen Social Media Plattformen adaptiert werden muss. Anders formuliert: Selbst wenn die anderen Plattformen nichts ändern, so werden die verfügbaren Daten dieser Netzwerke in die von Facebook vorgegebene Struktur eingepasst.

Deutlich wird das insbesondere durch die folgenden drei Abbildungen. Facebook hat mit seiner Umstellung der Insights im vergangenen Jahr eine neue Strukturierung der Messung von Interaktivität vorgegeben. Diese wurde von mir auch für Twitter und Pinterest aufgefüllt.

Facebook Measures
Facebook Measures
Twitter Measures entsprechend Facebook Struktur
Twitter Measures entsprechend Facebook Struktur
Pinterest Daten in Facebook Struktur
Pinterest Daten entsprechend Facebook Struktur

Es ist sogar anzunehmen, dass Facebook am Kopf seines zentralen Insights Dashboards mit Bedacht auf den Fan-KPI verzichtet hat. Fans sind eben nicht gleich Fans und der Zuwachs an dieser Stelle  bedeutet grundsätzlich nicht viel. Man sollte den Wert etwa mit der Auflage einer Zeitung vergleichen. Diese wird für einen Inserenten auch erst dann sinnvoll, wenn das gedruckte Exemplar von einem Leser in die Hand genommen wird und er möglichst auch noch die Seite aufschlägt, auf der sich die Anzeige befindet.

Aus dieser Perspektive sind natürlich die Reichweite der Postings und die daraus resultierenden Interaktivitätswerte erheblich spannender. Schaut man allerdings auf Twitter und Pinterest, so wird das mit der Reichweite nichts. Entsprechende Werte werden nicht erhoben bzw. können aufgrund der technischen Struktur nicht bestimmt werden. Allerdings wäre die Reichweite einer Nachricht mit anderen Werten aus dem Online-Marketing recht gut vergleichbar: Beispielsweise den geöffneten E-Mails einer Newsletter-Versendung oder den Impressions eines Blog-Posts.

Der „Auflagen“-KPI: Fans, Follower etc.

Auch wenn Facebook offensichtlich keinen KPI direkt in sein Dashboard einbaut, so  ist es dennoch notwendig, einen zu konstruieren. Ob dieser alleine aus der Zahl der Fans und der Veränderung derselben aufgebaut werden müsste, sei dahingestellt. Ein Basiswert kann ausreichend sein – zumal dieser einfach zu kommunizieren ist und weitere Informationen durch zusätzliche KPIs ausgedrückt werden können.

Bei der Konstruktion eines komplexeren Wertes ist allerdings darauf zu achten, dass in die Formel zur Bestimmung des KPI nur Werte eingehen, die in vergleichbarer Weise für alle betriebenen Social Media Plattformen gewonnen werden können.

Der Reichweiten KPI

Auch wenn es für andere Plattformen mitunter keine Reichweiteninformationen für die eigenen Aktivitäten gibt, so sollte diese für Facebook und die übrigen Plattformen, für die entsprechende Informationen generierbar sind, in einen KPI umgesetzt werden.

Bei Facebook wäre dies die gesamte Wochenreichweite und die Veränderung derselben im Untersuchungszeitraum.

Der Interaktions-KPI

Interaktionswerte gibt es für alle Plattformen – auch wenn Facebook hier den komplexesten Ansatz hat. Deshalb stellt sich die Frage, ob hinsichtlich des KPI die „Engaged Users“ nicht außen vor gelassen werden sollen, da es für andere Plattformen keinen vergleichbaren Wert gibt – auch wenn gerade diese Größe ausgesprochen interessant hinsichtlich der Nutzung von Meldungen ist. Gerade bei der Bestimmung des optimalen Posting-Zeitpunkts für Facebook sollte dieser eine wichtige Rolle spielen. Wenn es um den Vergleich mit den anderen Plattformen geht, muss er für die Bildung der KPIs leider ausscheiden.

Der KPI kann als Indexwert hinsichtlich des Erfolgs einer Meldung wie folgt aufgebaut werden:

(Reichweite / Fans)*0,4 + (Engaged Users / Fans)*0,2 + (Talking about this / Fans)*0,2 + ((Virality*Reichweite)) / Fans)*0,2

Als KPI, der in ein Reporting eingeht, das mit anderen Plattformen verglichen werden sollte, könnte er beispielsweise wie folgt definiert werden:

(Talking about this / Fans)*0,2 + (Virality/Fans)*0,2

Der Referral-KPI

Aus den Facebook Insights ist diese Kennzahl nicht ablesbar. Es geht darum, wieviele Referrals eine Social Media Plattform der damit kommunikativ unterstützten Website liefert sowie deren Entwicklung. Der Wert ist für E-Commerce-Angebote und markenorientierte Angebote ausgesprochen relevant. Für serviceorientierte Angebote ist der KPI i.d.R. weniger relevant. Beachten sollte man allerdings, dass Referrals an sich letztlich keinen Wert haben, wenn die Nutzer nicht tiefer in das Angebot klicken. Ich empfehle deshalb für die Konstruktion des KPI nur solche Visits zu verwenden, die mindestens zwei Page Impressions lang sind. Es handelt sich also um die Summe der Visits abzüglich der Bounces. Alternativ kann man den KPI auch bezüglich bestimmter zu definierender Konversionen definieren.

Gemessen werden in der Regel erreichte Visits, des Zielangebots und deren Entwicklung.

Hier geht es zu den bisherigen Teilen:

Teil 1
Teil 2
Teil 3 

Pinerly – bald nicht mehr nur ein Pinterest Analytics Tool

Pinerly wird wohl mal sowas wie Hootsuite für Pinterest. Das kurz vorweg. Nachdem ich in früheren Artikeln schon auf Pinerly verwiesen hatte, wurde ich gefragt, was ich zu dem Thema sagen kann. Tja – Pinerly ist noch stark in der Beta-Phase. Derzeit kann man damit Pins setzen. Diese werden mit einem Redirect versehen. So werden die Klicks auf diese Pins gemessen. Das ist eigentlich so, als ob man einen Shortener – z.B. bit.ly – benutzt, um mitzuzählen. Wenn man mit „Edit“ bei Pinterest auf einen Pin geht, sieht man das unter „Link“:

Der Pinerly Redirect
Der Pinerly Redirect

Wie schon in meinem Artikel hinsichtlich des Pinterest Kampagnen Tracking mit Google Analytics beschrieben, bleibt der URL beim „Repin“ erhalten. Man kann also auch nach dem „Repin“ Klicks auf die Pins messen – sofern der URL nicht von einem „Repinner“ manipuliert wird. Man könnte wohl sagen, dass ein zu großer Anteil an Messwütigen, die Qualität der Ergebnisse verschlechtert. Sicher ein kleiner Haken, der bei der Verwendung von Shortenern genauso existiert.

Allerdings hat die Nutzung von Pinterly an dieser Stelle noch einen weiteren Nachteil. Man sollte seine Domain nochmal in die Erläuterung zum Pin schreiben, da Pinterest die Pinerly-Adresse in die Visualisierung des Pins zieht:

Pin mit Pinerly Nutzung
Pin mit Pinerly Nutzung

Das ist schon ein wenig unschön. Prinzipiell könnte Pinterest eine solche Funktionalität auch selbst anbieten, dann könnte die finale Ziel-Domain im Pin stehenbleiben – zumindest bei professionellen Accounts und gegen Bezahlung.

Was man dann bei Pinerly als Ergebnis zu sehen bekommt, sieht schon gut aus:

Pinerly Reportansicht
Pinerly Reportansicht

Die Klicks auf Pins gehen mit wenig Verzögerung in die Statistik ein. Was „Likes“ und „Repins“ betrifft – man muss sich ein wenig gedulden. Sie brauchen etwas Zeit, bis die Daten aufgearbeitet sind. Dann bekommt man allerdings auch die gesamte potenzielle Reichweite für ein Pin angezeigt!

Scheduling-Werkzeug

Demnächst ist bei Pinerly ein Scheduling-Werkzeug geplant. Das ist spannend. Auch wenn es Versuche gibt, den optimalen Pin-Zeitpunkt zu bestimmen, so ist es aus meiner Sicht auf jeden Fall ratsam, Pins verteilt über größere Zeiträume zu setzen. Das ergibt auf dem Bildschirm der Nutzer einen besseren optischen Eindruck und erhöht die Zahl von „Likes“ und „Repins“.

Nutzungsaufwand

Update (7.05.2012) Pinerly stellt nun ein Bookmarklet zur Verfügung. Der Nutzungsaufwand ist nun nicht mehr viel höher als bei der Nutzung des Pinmarklet von Pinterest. Die haben ein großes Lob verdient! Nun ist Pinerly auch weniger aufwändig als die Nutzung von Google Analytics.  Allerdings kann dabei besser gruppiert werden.

Pinerly Bookmarklet
Pinerly Bookmarklet

Datenmanagement

Mit einem Web Analytics Tool stehen erweiterte Auswertungs-Optionen zu Verfügung, die es mit Pinerly nicht gibt. Allerdings hat man in Pinerly auch die Werte hinsichtlich Likes und Repins gleich neben dem Pin stehen. Noch dazu kann man Klicks auf Pins messen, deren Ziel-URL auf eine fremde Page zeigt. Es ist also entscheidend, wie man mit den Daten weiter verfahren möchte.

Anmelden?

Ja – unbedingt! Das Analyse-Werkzeug ist noch in der geschlossenen Beta-Phase. Es kann also etwas dauern, bis man es nutzen darf. Ansonsten ist ein Tool zum zeitversetzten pinnen – so ein Buffer – durchaus hilfreich. Ich persönlich bin von der Pinerley URL in den Pins nicht begeistert. Aus der Sicht von Pinterest würde es sich durchaus lohnen, in guter alter Twitter-Manier Pinerly zu übernehmen. Es liefert die noch fehlenden Funktionalitäten bei Pinterest.

Weitere Tools & Ansätze zur Pinterest Analyse

PinReach – ein Pinterest Analytics/Insights Tool

Pinfluence – ein Klout für Pinterest & Analytics Daten

Repinly – Pinterest Statistik

Pinterest: Tracking von Pins der eigenen Website mit Google Analytics

Anforderungen an Pinterest Analytics & Monitoring

Pinterest: Tracking von Pins der eigenen Website mit Google Analytics

Von Pinterest geht viel Referral-Traffic aus. Das ist inzwischen bekannt. Mit Web-Analytics Tools wie Google Analytics, Webtrends oder Omniture kann dieser Traffic ausgewertet werden. Man weiß dann beispielsweise, welches Pin für wieviel Traffic verantwortlich ist.

Die selbst gesetzten Pins kann man allerdings auch mit Kampagnen-Parametern versehen. Diese bleiben auch erhalten, wenn ein „Repin“ stattfindet (und der Pinterest-Nutzer den URL nicht manipuliert). Das Verfahren ist ähnlich wie in anderen Bereichen der Social Media oder der Online-Werbung. Die Kampagnen-Parameter werden an den URL gehängt; klickt ein Nutzer nun einen Pin an und gelangt über den Link auf eine Website, so wird dies erfasst.

Auf diesem Weg kann der Erfolg der selbst gesetzten Pins mit dem Gesamt-Referral-Erfolg durch Pinterest in Relation gebracht werden. Das Vorgehen mit Google-Analytics ist denkbar einfach – auch wenn die Bearbeitung derzeit noch manuell erfolgen muss und etwas Aufwand verursacht, der aus meiner Sicht vertretbar ist. In der folgenden Abbildung sehen Sie die beispielhafte Generierung der Tracking URL für ein Instagram:

Google-Analytics Gernerierung Pinterest Tracking URL
Google-Analytics Generierung Pinterest Tracking URL

Wenn man ein Produktbild, oder wie ich hier – ein Bild pinnt, dann kann man bei Pinterest im ersten Schritt den URL des Bildes nicht editieren, wohl aber wenn man das Bild anschaut und auf „Edit“ klickt. Man muss dann einfach die Tracking-URL in das entsprechende Feld kopieren (Link):

Editieren der Pinterest Tracking-URL
Editieren der Pinterest Tracking-URL

Nachfolgend sehen Sie mein Test-Board. Es wäre nett, wenn Sie den einen oder anderen Pin anklicken oder repinnen. Wenn ich ein wenig mehr Daten als jetzt habe, füge ich noch Screenshots der Google Analytics Reports in diesen Artikel ein.

Test Board
Test Board

A/B- und multivariate Tests durchführen (Teil 2)

Den ersten Teil des Beitrags finden Sie hier.

5.   Konversionspunkte & benötigter Traffic

Im Online-Marketing sind die Conversions – oder auf Deutsch – die „Konversionen“, sehr wichtig. In der Web-Analytics werden diese meist in Funnels, also Trichtern, abgebildet. Der am häufigsten beobachtete Funnel ist wohl der Warenkorb mit seinen Funktionalitäten. Wir sind schon im Kapitel „Web-Analytics“ auf Funnels eingegangen.

Als Konversionspunkte werden im Beispiel des Warenkorbs die einzelnen Stufen innerhalb des Checkout-Prozesses verstanden, die ein Kunde durchschreiten muss. Er muss beispielsweise zunächst bestätigen, welche Produkte er kaufen mag, dann seine Adresse angeben, die Versand- und Bezahlart auswählen, Bezahldaten angeben und zum Schluss alle Angaben kontrollieren sowie die Bestellung abschicken. Auf allen einzelnen Ebenen gibt es Kunden, die den Verkaufsprozess abbrechen. Diese Stufen, auf denen die Kunden entweder weitermachen oder abbrechen, nennt man Konversionspunkte. Der Anteil derer, die den Prozess weiter durchschreiten, nennt man Konversionsrate. Den Anteil derer, die den Prozess abbrechen nennt man Drop-out. Beide Werte kann man auf der Ebene einzelner Stufen innerhalb des gesamten Prozesses berechnen, zusammengefasst für mehrere Ebenen oder für den gesamten Prozess.

Für die in diesem Kapitel behandelten Testverfahren sind die Konversionspunkte und der an den jeweiligen Konversionspunkten erreichbare Traffic für die Berechnung der Laufzeit eines Tests relevant. Um ein ausreichend hohes Signifikanzniveau zu erreichen, sind meist etwa 200 bis 300 Fälle an dem jeweils definierten Konversionspunkt notwendig. Weiß man, dass etwa fünf Prozent der Personen, die über eine Landing Page auf die Website eines Online-Händlers kommen, schließlich auch tatsächlich kaufen, dann benötigt man für einen Kauf ca. 20 Visits auf der Landing Page. Entsprechend werden für eine Testvariante etwa 6.000 Visits benötigt (20*300). Will man drei Buttons, vier Bilder und zwei Textvarianten innerhalb eines Tests laufen lassen, dann erhält man bei einem vollfaktoriellen Test also 3*4*2=24 Varianten, die getestet werden müssen und bräuchte 144.000 Visits im Untersuchungszeitraum.

Man hat nun drei Schrauben, an denen man drehen kann, um das geplante Untersuchungsdesign durchzuführen um mit weniger Fällen auszukommen:

  • Man arbeitet mit einer vorgelagerten Stufe im Konversionsprozess: Man würde sich also – um im Beispiel zu bleiben – dafür entscheiden, dass es ausreicht, wenn ein Nutzer zumindest seine Adresse vollständig eingegeben hat und kann in diesem Fall vielleicht schon mit einer Konversionsrate von 20 Prozent arbeiten. So werden möglicherweise nur noch 1.500 Visits pro Landing Page-Variante.
  • Man gibt sich mit einem geringeren Signifikanzniveau zufrieden. Dann reichen vielleicht schon 100 oder 150 Fälle pro Testvariante.
  • Man arbeitet mit teilfaktoriellen Designs. Dabei kann man weiter unterscheiden in:
    – Vollfaktorielle Designs, bei denen irrelevante Alternativen im Laufe des Test-Flights eliminiert werden. Methodisch ist dieses Verfahren nicht wirklich korrekt, es führt jedoch zu einer Entscheidung für die Alternative mit der besten Konversion. Allerdings erlauben nicht alle Software-Produkte dieses Verfahren.
    – Die Taguchi-Methode: Es wird mit orthogonalen Feldern gearbeitet, um die Zahl der zu testenden Variationen zu minimieren. Dabei sind die Felder so beschaffen, dass die Haupteffekte der untersuchten Faktoren nicht miteinander vermengt werden.
    – Durchführen mehrstufiger Tests: Man muss auch nicht zwingend alle Varianten bei einem einzigen Testlauf prüfen. Häufig ist es so, dass es zwei oder mehrere grundsätzlich verschiedene Konzepte gibt, die man zunächst im Rahmen eines A/B- bzw. Split-Tests vergleicht. Man wählt danach die erfolgreichste Variante und testet zunächst grafische Faktoren, dann in einem weiteren Testlauf Textfaktoren.

Auf diesen Wegen kann der benötigte Traffic reduziert werden. Natürlich kann man auch die Zahl der innerhalb eines Faktors zu testenden Level/Varianten reduzieren. Aber gerade dies ist ein durchaus kritischer Faktor, denn die Praxis zeigt, dass selbst nach vielen Jahren Erfahrung weder der Kunde, noch die betreuende Agentur, noch der Dienstleister der den Test durchführt, die Erfolgschancen von Varianten richtig einschätzen.

6. Testzeitraum und Testlaufzeit

Wann soll ein Test oder eine Reihenfolge von Tests durchgeführt werden? Ist das egal – oder ein wichtiges Kriterium? – Wie so häufig lautet die Antwort auf solche Fragen „Es kommt darauf an.“ Wenn ein Versicherungsunternehmen Landing Pages für wechselwillige Kunden testen will, so ist der November einfach der wichtigste Monat. Der Testzeitraum ist vordefiniert. Im Telekommunikationsmarkt gibt es solche Zyklen nicht oder weniger ausgeprägt. Man kann also freier den Startzeitpunkt des Tests wählen. Die Regel ist einfach: Immer wenn die Kunden im Jahresverlauf ein unterschiedliches Verhalten an den Tag legen, sind der Startzeitpunkt und die Gesamtlaufzeit wichtig. Hier sind Recherchen angebracht. Der Betreiber der Website kennt die unterschiedlichen Verhaltensmuster der Besucher, auch wenn man bei der Durchführung des Tests zweifellos feststellen wird, dass die getroffenen Annahmen – besonders hinsichtlich der Zeiträume – oft nicht korrekt eingeschätzt werden. Es ist ein „Learning“, das man für diese Website in kommenden Perioden nutzen kann.

Test Laufzeit
Test Laufzeit

Daneben ist die Testlaufzeit ein wichtiger Faktor. Selbst wenn das Tool nach drei Tagen sagt, dass der Test für alle Faktoren signifikant sei, ist es im Endkundenbereich ratsam, den Test auf jeden Fall auch über ein Wochenende laufen zu lassen. Samstags und sonntags zeigen die Nutzer – ebenso wie in den Abendstunden häufig ein völlig anderes Verhalten als während der „Office Hours“. Natürlich ist das von der konkreten Zielgruppe der Website abhängig. Dennoch – grundsätzlich ist eine Laufzeit von eine Woche oder ein Vielfaches davon die günstigste Alternative, wenn man nicht gerade die Tauglichkeit von Varianten an verschiedenen Tagen testen mag. Mit zunehmender Laufzeit nivelliert sich dieser Effekt, so dass die Kampagne dann gestoppt werden kann, wenn die Konversionsraten in der Laufzeitgrafik des Tools parallel laufen und das Tool hohe Signifikanz signalisiert.

Zudem ist ein Montag als Startzeitpunkt häufig geeignet. Sollte es bei Start des Tests trotz vielfältiger Kontrollen zu Schwierigkeiten kommen und ein Techniker eingreifen müssen, dann ist das an einem Wochentag leichter möglich als an einem Wochenende. Zudem starten Mediakampagnen häufig auch an Montagen.

7.        Testdurchführung

7.1       Konzeptentwicklung, Workshop & Projektplan

Die Durchführung von Test beginnt meist damit, dass ein Dienstleister den Testgegenstand analysiert. Die möglichen Herangehensweisen müssen untersucht werden. Was kann, was sollte man testen?

Der nächste Schritt besteht in der Durchführung eines Workshops. Hier werden die Testbereiche genauer diskutiert und die Rahmenbedingungen abgeklärt.

  • Welcher Konversionspunkt soll genutzt werden und wie viel Traffic steht zur Verfügung?
    –  Wenn man diese Frage anfänglich klärt, spart man sich für das weitere Vorgehen einiges an Frust und Diskussionen. Hierdurch wird definiert wie viele Varianten voraussichtlich innerhalb welchen Zeitraums getestet werden können.
    – Sollten entsprechende Angaben nicht verfügbar sein, so ist ein sogenannter Baseline-Test durchzuführen, mit dessen Hilfe entsprechende Werte bestimmt werden. Ohne diese Angaben wird es enorm schwierig die Projektlaufzeit zu bestimmen. Es kann dann zu Problemen hinsichtlich der Einsatzplanung kommen.
  • Welche Faktoren sollen getestet werden?
    – Am Anfang steht die Ideensammlung.
    – Systematisierung
    – Hypothesenbildung
    –  Wie viele Tests werden es?
    –  Immer wieder: Reicht das Budget?
  • Wie viele Level sollen für welchen Faktor getestet werden?
    – Dies ist abhängig von den Hypothesen. Besonders bei grafischen Elementen ist es ratsam mit mehr als einer Variante pro Ausprägung zu arbeiten.
    – Wie aufwändig ist die Erstellung der Varianten?
  • Wer führt gestalterische und inhaltliche Arbeiten durch?
    – Hier muss klar sein, dass auch ein entsprechendes Budget vorhanden sein muss. Im Vertrag, mit dem Dienstleister, der den Test durchführt, sind solche Arbeiten i.d.R. nicht enthalten.
    – Wer führt welche Arbeiten durch?

Mit der Beantwortung dieser Fragen lässt sich das Fachkonzept für den Test entwickeln. Konkrete Gestaltungsalternativen sind noch nicht vorhanden, aber ein Projektplan kann ausgearbeitet werden.

In einer nächsten Stufe geht es in die Feinabstimmung. Aufgaben müssen verteilt werden – wer macht was wann? Der Betreiber der Website hat also auch einiges zu tun. Er und/oder sein Kreativdienstleister müssen Texte entwickeln und Bilder gestalten.

Es ist gar nicht verwunderlich, wenn es in diesem kreativen Prozess zu einer Veränderung der Zahl von Levels kommt. Ideen können ausgehen oder sprudeln. Hier ist es die Sache des Projektmanagements die Einflüsse zu bewerten und ggf. einzugreifen oder mit dem Kunden abzustimmen.

7.2 Der Testlauf

Einige Tage bevor der Test live gehen soll, benötigt der Dienstleister das Testmaterial – Grafiken und Texte. In der Testsoftware wird der Test angelegt und es wird überprüft ob die einzelnen Varianten des Tests so aussehen, wie sie sollen. Der Auftraggeber erhält Screenshots der Varianten zur Freigabe.

Um das Verfahren an sich noch einmal kurz zu beschreiben: Die Default-Version der zu testenden Seite läuft auf den Servern des Kunden. Die Varianten laufen in der Testsoftware. Die Testseite wird, während ein Nutzer auf die zu testende Seite gelangt live und on the fly zusammengesetzt. Der Nutzer bekommt also zufällig eine spezielle Testversion der Seite zu sehen. Bei einem erneuten Besuch dieses Nutzers (mit dem gleichen Cookie) bekommt dieser wieder die gleiche Variante zu sehen.

Der Testlauf an sich erfordert ein regelmäßiges Monitoring:

  • Ist der Traffic ausreichend?
  • Kommen genügend Konversionen zustande?
  • Kann die Testlaufzeit verkürzt werden?
  • Muss die Testlaufzeit verlängert werden?
  • Bei aufeinanderfolgenden Tests muss u.U. vor dem Erreichen eines hinreichenden Signifikanzniveaus entschieden werden, mit welcher Variante weitergearbeitet wird.

Wenn der Test beendet wird, stehen die Auswertung und der Bericht an. Hier wünscht man sich natürlich eine möglichst hohe Verbesserung der Konversionsrate. Diese Verbesserung der Konversionsrate im Vergleich zur Default-Variante bezeichnet man als Lift.

Hierbei können die Resultate höchst verschieden sein. Wurde schon ausgiebig getestet, so sind die Verbesserungen erfahrungsgemäß geringer als bei den ersten Tests. Resultate zwischen zehn und 30 Prozent treten häufig auf. Mitunter werden auch Werte erreicht die bei 50 Prozent und höher liegen.

Manchmal – und das kann leider auch passieren – ist die Default-Variante leider die beste. Durch den Test konnte also keine Verbesserung des Ergebnisses erzielt werden. In diesem Fall sollte der Test als Absicherung dafür verstanden werden, dass bei der getesteten Website alles richtig gemacht wird.

Testsoftware

Ich wurde nach einem Vergleich von Softwareprodukten für das Testen gefragt. Bei den oben genannten Produkten handelt es sich um Software der Enterprise-Klasse. Daneben gibt es noch viele weitere Produkte. Ich versuche – so ich demnächst dazu komme – einige Leitlinien für die Bewertung der Produkte aufzustellen.

A/B- und multivariate Tests durchführen (Teil 1)

A/B- und multivariate Testverfahren sind aus der klassischen (Produkt-) Marktforschung bekannt. Dabei werden beispielsweise verschiedene Verpackungsvarianten und ihr Einfluss auf den Verkaufserfolg eines Produkts getestet oder auch Produkte selbst. Prinzipiell gibt es hinsichtlich der klassischen Testverfahren und den neuen Online-Testverfahren kaum Unterschiede. Optimiert werden Websites, Landing Pages, Werbemittel, Texte etc. Das Verfahren an sich bedient sich der Erhebungsmethodik der Web-Analytics.  Die Herangehensweise ist kaum anders als im klassischen Bereich, allerdings können mehr Varianten in kürzerer Zeit getestet werden. Es handelt sich meist auch um Vollerhebungen, was deren Ergebnisse – sobald entsprechende Signifikanzniveaus erreicht sind – ausgesprochen sicher macht. Es gibt keine Stichprobenfehler und auch keine reaktiven Elemente, wie sie beispielsweise Befragungen unsicher machen können. Die verschiedenen Varianten innerhalb eines Tests werden zufällig unter der gleichen Adresse/URL präsentiert.

Zudem ist es bei der Online-Version von A/B- bzw. multivariaten Test so, dass eine Software genutzt wird, die einem einen Großteil der methodischen Arbeit abnimmt. Hersteller wie Webtrends, maxymiser oder Adobe bieten zudem Online-Schulungen für Anwender an. Aus diesem Grund konzentrieren wir uns in diesem Kapitel hauptsächlich auf mögliche Anwendungsfälle und Herangehensweisen.

1. Warum testen?

Es gibt Produkt- und Verpackungstests, die mit A/B-, Split- oder multivariaten Testverfahren durchgeführt werden. Auch in der Werbemittelforschung wird immer wieder mit diesen Verfahren gearbeitet. Dabei handelt es sich meist um Labortests oder Feldtest auf en begrenztem Raum.

Online – so wurde verschiedentlich argumentiert – kann man mit Verfahren der Web-Analytics ohnehin das Nutzerverhalten auf Websites messen und sie auf diesem Weg kontinuierlich verbessern. Sicher – durch das Controlling von Websites mit klassischen Methoden der Web-Analytics ist es möglich Schwachstellen auf Websites zu identifizieren und die Performance zu verbessern. Ob das Ergebnis dabei optimal ist, weiß man leider nicht. Man hat sich zu einer Veränderung der Website entschlossen und diese funktioniert im Nachhinein betrachtet möglicherweise besser als die vorige Version der Website.

Dagegen kann man durch diese hier beschriebenen Verfahren verschiedene Versionen einer Website nahezu synchron testen. Das heißt, man kann in einem A/B- oder Split-Test können zwei oder mehrere grundsätzlich verschiedene Versionen eines Testobjekts entwickeln. Diese werden dann durch die Testsoftware live in die Website eingespielt, so dass die „Teilnehmer“ des Tests nichts davon merken. Auf diesem Weg ist es möglich, sehr viel näher an eine optimale Gestaltung der Website heranzukommen, als das ohne Testen der Fall wäre.

2. Wann A/B- und wann multivariater Test?

Die Tools, die zum Testen benutzt werden erlauben i.d.R. sowohl A/B- und Split-Tests als auch multivariate Tests – auch wenn die technisch statistischen Anforderungen an multivariate Verfahren höher sind.

Im Allgemeinen – aber nicht ohne Ausnahme – ist es so, dass Tests in mehreren Wellen geplant werden. Mit A/B- oder Split-Tests überprüft man den potenziellen Erfolg von grundsätzlich verschiedenen Varianten eines Testobjekts – es geht also um große Ideen, nicht um kleine Veränderungen. Fragestellung und Ergebnis sind einfach.

Aus diesem Grund sind die Tests auch einfach und schnell aufzubauen. Man kann sie auch für Websites mit wenig Traffic benutzten und man bekommt die Ergebnisse deutlich schneller als bei einem multivariaten Test, bei dem viele einzelne Parameter getestet werden. Leider kann man mit diesen Verfahren nur begrenzt die Details eines Untersuchungsobjekts optimieren. Als Ergebnis bekommt man eine Aussage darüber, dass eine Variante die bessere ist, aber weshalb – d.h. auf welche Faktoren dies zurückzuführen ist – weiß man dabei leider nicht.

Wenn man die grundsätzliche Richtung kennt, kann man sich daran machen, die erfolgreichste Variante aus vorangegangenen A/B- oder Split-Tests weiter zu optimieren. Man kann anfangen und verschiedene Buttons, Bilder, Texte und deren Funktionalität zu testen – also multivariat vorgehen.

3. Testgegenstände

Bei Tests kann man in drei Bereichen ansetzen: bei Seiten, Inhalten und beim Traffic – also den potenziell auf eine Seite zugreifenden Nutzern. Testgegenstände im Bereich Seiten von denen man grundsätzliche Varianten mit A/B- oder Split-Tests überprüft, sind beispielsweise

  • Landing Pages
  • Microsites
  • Teaser Pages
  • Produktdetailseiten
  • Formularseiten (z.B. Registrierungen)
  • Bezahlseiten

Landing Pages sind ein dankbares Forschungsfeld. Schließlich geht es an dieser Stelle darum, den Besucher, der auf eine Seite kommt, zu weiteren Aktionen zu bewegen. Da Traffic von Landing Pages noch dazu häufig auch bezahlt werden muss – beispielsweise durch Google-Werbung – ist es besonders wichtig, diese Seiten möglichst gut zu gestalten. Natürlich versuchen Kreativ-Agenturen, Landing Pages zu verbessern. Durch A/B- oder Split-Tests bekommt man aber die wertvolleren Ergebnisse. Wie oben schon beschrieben, geht es darum, die grundsätzlichen Varianten dieser Seitentypen zu vergleichen – also beispielsweise verschiedene Formularkonzepte und nicht etwa das Wording der Labels.

Mit einem multivariaten Test kommt man hier sichtlich weiter, der Inhalt einer Seite wird zerlegt in verschiedene Elemente, und somit Faktoren, die getestet werden können. Es sollten auch stärker beeinflussende Faktoren sein, wie z.B.

  • Buttons (Varianten, Größen, Farben, Call-to-Actions)
  • Bilder (z.B. werden welche benötigt oder nicht? Funktionieren statische besser als animierte? Sollten Bilder besser sachlich oder emotional sein? Funktionieren Frauendarstellungen besser als Männerdarstellungen?)
  • Überschriften (z.B. Funktionieren kurze besser als lange? Welche Textgröße sollen wir wählen? Welche Art der Ansprache ist am besten? Funktionieren andere Überschriftenfarben besser?)
  • Texte (z.B. Ist eine sachliche oder emotionale Ansprache geeigneter? Sollen es nur kurze Texte sein oder sind lange besser? Muss mit Aufzählungen gearbeitet werden oder ist Fließtext auch ok? Welchen Einfluss hat die Anzahl der Argumente auf das Ergebnis?)
  • Farben (z.B. Textfarben, Button-Farben, Farben von Grafiken etc.)
  • Positionen (z.B. soll das Bild besser rechts oder links auf der Seite stehen? Soll die Call to Action besser einmal oder mehrfach an mehreren Stellen genannt werden? Wo funktioniert die Call-to-Action am besten?)

Im Rahmen eines multivariaten Tests werden verschiedene, für den Erfolg der Seite, relevante Faktoren identifiziert. Von diesen Faktoren – beispielsweise einem Button – werden unterschiedliche Varianten entworfen. Diese Varianten werden normalerweise als Level, Ebene oder Ausprägung bezeichnet. Aus der Multiplikation der Zahl der Level pro Faktor erhält man die Zahl der Varianten für ein vollfaktorielles Design. Schon an dieser Stelle muss ich darauf hinweisen, dass die Zahl von Faktoren und deren Ausprägungen begrenzt ist. Im Abschnitt zur Testdurchführung werde ich noch genauer darauf eingehen.

Bisher sind wir auch davon ausgegangen, dass die Nutzer einer Website als eine Einheit zu verstehen sind und Individualisierungen hinsichtlich verschiedener Nutzergruppen nicht berücksichtigt werden müssen. Genau dies kann aber ausgesprochen sinnvoll sein. Vielfach werden auch schon einfache Individualisierungen – v.a. bei AdWord-Kampagnen ohnehin durchgeführt. Ein Beispiel: Sollte beim Google-Suchbegriff „KFZ-Versicherung“ derselbe Begriff in der Überschrift einer Landing Page auftauchen – oder ist vielleicht doch eine einzige Landing Page für die Begriffe „Autoversicherung“ und „KFZ-Versicherung“ ausreichend? Man kann sich noch einige weitere Beispiele überlegen, für die dezidierte Inhalte mehr Erfolg versprechen:

  • Keyword-Gruppen bei SEA-Kampagnen
  • Anzeigenmotive bei Display-Kampagnen
  • Individualisierungen nach Wochentagen und Wocheneden
  • Individualisierungen hinsichtlich Tageszeiten
  • Unterschiedliche Inhalte für unterschiedliche geographische Einheiten (Stadt/Land, Nord/Süd, Bundesländer etc.)
  • Erkennbare Kundensegmente (Demographie, Kaufverhalten, neue vs. wiederkehrende Besucher).

4. Beispiel Landing Page

Ein einfaches und gleichzeitig wichtiges Beispiel für die Elemente einer Page und deren Optimierung ist die Landingpage. Dies hat v.a. auch damit zu tun, dass der Traffic für diese Pages in der Regel Geld kostet und man dies möglichst optimal einsetzen möchte. Die Elemente einer Landingpage werden in der folgenden Abbildung gezeigt:
Beispiel-Struktur Landingpage
Beispiel-Struktur Landingpage
Letztlich enthalten Landing Pages meistens alle Elemente der obigen Abbildung:
  1. Navigation
    Hierbei wird häufig überprüft, ob diese besser am Kopf oder am Fuß der Seite steht, welchen Umfang sie haben soll, oder ob man sie vielleicht doch eher ganz weglassen sollte (bzw. sie auf einen einzigen Punkt „home“ reduziert.)
  2. Bild /Bilder
    Häufig wird über das Motiv an sich diskutiert und es werden verschiedene Ansätze getestet. Daneben spielen die Größe des Motivs und seine Position häufig auch noch eine Rolle beim Test.
  3. Überschrift
    Testelemente sind nicht nur der Inhalt, sondern auch Textfarbe und Textgröße.
  4. Text /Textaufbereitung
    Neben dem Inhalt und der Informationsmenge sollte auch die Aufbereitung getestet werden. Einzelne Punkte sind erstaunlicherweise nicht immer besser als größerte Textblöcke.
  5. Buttons
    Dimensionen des Testens sind hier Farben, Call-to-Actions, und die Frage, ob die Buttons besser wirken, wenn sie animiert, bzw. wenn sie statisch sind.
Im Grunde können Sie für diese Tests die Elemente der Abbildung frei verschieben, deren Größe ändern etc. Allerdings – und auch darauf sollte man achten – ist nicht alles was man testen könnte auch wirklich relevant und wichtig. Es sollte auch bewertet werden, Welches sind die wichtigsten zu testenden Elemente?
Im zweiten Teil des Beitrags geht es dann um die Planung von Tests hinsichtlich des notwendigen Traffics, Testzeitpunkte & Testlaufzeiten sowie die konkrete Durchführung von Tests.

Hier geht es zum zweiten Teil des Artikels.

Die Bestimmung der idealen Posting-Zeitpunkte für Facebook, Twitter & Co.

Die Bestimmung des idealen Posting-Zeitpunkts ist ein viel diskutiertes Thema. Natürlich wird es mit Methoden der Social Media Analytics angegangen. Aber um es gleich vorweg zu nehmen: Die präskriptive Bestimmung des idealen Zeitpunkts ist sehr schwierig und aufwändig. Man sollte natürlich Social Media Analytics einsetzen. Auf die Spitze treiben sollte man es jedoch nicht. Warum? – Man analysiert immer Vergangenheitsdaten. Leider bleibt das Verhalten der Nutzer nicht so stabil, wie es notwendig wäre, um einen idealen Zeitpunkt für eine Mitteilung a priori bestimmen zu können.

Aggregierte Daten – wenig hilfreich

Häufig sind allgemeine Empfehlungen – beruhend auf aggregierten Auswertungen der gesamten Nutzerschaft einer Plattform – zu finden, wie beispielsweise in der folgenden Infografik. Hierzu muss man sich nur eine Frage stellen: Sind meine Kunden gleich dem durchschnittlichen Nutzer einer Social Media Plattform – beispielsweise Facebook – oder unterscheiden sich meine Fans vom Durchschnitt? – Abgesehen davon, dass die Infografik von KISSmetrics sich auf die USA bezieht, sind solche Daten also nur dann relevant, wenn die eigenen Fans und Follower den Durchschnitt der Plattform darstellen.

Social Timing als Durchschnitt (Quelle KISSmetrics.com)
Social Timing als Durchschnitt (Quelle: KISSmetrics.com)

Es werden also Durchschnittswerte für

  • die beste Posting-Zeit in verschiedenen Zeitzonen
  • die beste Zeit für Retweets/Reshares
  • die beste Zeit für die höchste CTR/Interaktion

ermittelt. Aber wie schon geschrieben: Trifft das auch auf die eigenen Nutzer zu? Ich wage zu behaupten, dass dies in den seltensten Fällen so sein wird. Dennoch erhält man Anhaltspunkte für eigene Tests: Um die Mittagszeit bekommen Tweets die meisten Klicks und gegen „End of Business“ wird am stärksten Re-Tweeted. Dagegen werde Facebook Posts um die Mittagszeit am häufigsten geteilt.

Individuelle Bewertung

Erheblich aufschlussreicher sind die Ergebnisse von Tools wie SocialBro. Darin werden die Zeiten für Twitter-Nachrichten entsprechend der Zahl der Follower bewertet, die zu den jeweiligen Zeiten online waren, nicht „sind“. Ausgewertet werden Vergangenheitsdaten. Wenn man sich die Empfehlungen über einen Zeitraum mehrerer Wochen anschaut, so stellt man doch regelmäßig Änderungen fest.

Timing-Empfehlung für Twitter-Nachrichten des Datenonkel von SocialBro
Timing-Empfehlung für Twitter-Nachrichten des Datenonkel von SocialBro

Allerdings sind das auch wieder nur Durchschnittszahlen – bezogen auf den Durchschnitt der eigenen Follower. Dies müsste man – wenn man sauber arbeiten will – natürlich segmentieren und noch dazu das was man erreichen möchte auch noch berücksichtigen.

Was heißt das? – Die schwarzen Punkte in der Abbildung sagen, dass 10 % der Follower in der vergangenen Woche zu den jeweiligen Zeitpunkten online waren. SocialBro ist so nett und qualifiziert dies noch ein wenig. Es werden jeweils die 100 Follower mit dem größten Einfluss in die Bewertung aufgenommen. Dabei handelt es sich um diejenigen, die besonders viele eigene Follower haben und gleichzeitig selbst posten, retweeten etc.

Das ist schon sehr hilfreich. Follower, die zwar online sind, aber Tweets nicht verbreiten oder noch nicht einmal den enthaltenen Link anklicken sind deutlich weniger wert. Diese recht allgemeine Aussage sollte an dieser Stelle erlaubt sein.

Allerdings ergibt auch diese Methode lediglich Anhaltspunkte für Tests – mehr nicht! Eine tiefergehende Bewertung der Ergebnisse ist notwendig.

Ziele und Messgrößen

Auch wenn man mit Tools wie SocialBro arbeitet, kommt man nicht umhin, sich die Frage nach den Zielen des Social Media Engagements zu stellen. Aus diesen Oberzielen für Social Media lassen sich Ziele für einzelne Plattformen und für dort stattfindende Aktionen ermitteln. Dies sind in den meisten Fällen Meldungen unterschiedlicher Form. Auch wenn final Ziele wie Erhöhung von Kundenzufriedenheit, Steigerung der Kundenbindung und Umsatz im Vordergrund stehen, so müssen hierfür zunächst messbare Indikatoren gefunden werden. Dabei erfolgt die Datenerhebung in den meisten Fällen auf der Ebene von Postings bzw. wird Meldungen zugeordnet.

Was ist also zu tun? – Ein generelles und einfaches Rezept existiert leider nicht. Es gibt allgemeine Erfahrungswerte, wie sie oben geschildert wurden. Möglicherweise hat man von Mitbewerbern etwas hinsichtlich Erfahrungen gehört, vielleicht auch aus Branchen mit einer ähnlichen Nutzerschaft. Auf Social Media spezialisierte Agenturen sind hier deutlich im Vorteil. Diese verfügen durch ihre Arbeit über einen breiteren Erfahrungsschatz. Dennoch bleibt nichts anderes übrig als möglichst systematisch zu testen und die Ergebnisse zu dokumentieren.

Zunächst müssen „Learnings“ generiert werden, wie es neudeutsch so schön heißt. Es muss ein Aussendeplan erstellt werden, mit dessen Hilfe geprüft wird, wann welcher Typ von Meldung den größten Erfolg hat, um sich mit späteren Aktionen daran zu orientieren.

Facebook Optimierung

Facebook bietet hierfür die in der folgenden Abbildung dargestellte Gruppierung an:

Facebook Measures
Facebook Measures

So wird deutlich, dass man sich hinsichtlich der Ziele klar sein muss:

  • Hinsichtlich welcher Größe möchte man optimieren?
  • Möchte man die Measures gewichten und so ein allgemeines Optimum für die eigenen Posts erreichen?
  • Sollen unterschiedliche Optima für verschiedene Typen von Postings erreicht werden? (z.B. Fotoalben, Interaktions-Aufforderungen, Produktmeldungen, Pressemeldungen etc.)

Meistens sind die mit dem Social Media Engagement verbundenen Ziele nicht über ein einziges Kriterium abbildbar. Häufig werden zwar „Fans“ und „Follower“ als KPI genannt. Abgesehen davon, dass ein Fans & Follower an sich einen sehr geringen Aussagegehalt hinsichtlich des Erfolgs haben, leitet sich der Erfolg i.d.R. aus einer Kombination von verschiedenen Aktionen und den hierfür relevanten Messgrößen ab.

Datenaufbereitung

An die Zahlen für die eigene Nutzerschaft kommt man, indem man Nachrichten ähnlichen Inhalts und jeweils gleicher Form zu unterschiedlichen Zeitpunkten testet und die Ergebnisse hinsichtlich der einzelnen Beiträge sauber dokumentiert. Dabei muss man beachten, dass die Daten der Facebook Insights auf der Website oder im API für die beitragsweise Auswertung sehr viel genauer sind als die downloadbaren Daten. Diese sind lediglich auf ein Datum bezogen, nicht auf den einzelnen Beitrag.

Man kann die Liste der Beiträge Copy ’n Paste von der Website übernehmen. Hierbei geht einem allerdings der für die Auswertung überaus wichtige Sendezeitpunkt verloren. Dieser muss nachgetragen werden, genauso wie die inhaltliche Ausrichtung des Beitrags. Die Datentabelle sollte dann auch noch um eine Spalte für die Aussende-Stunde und den Aussende-Wochentag erweitert werden. Nun kann man schon durch einfaches Sortieren und Aggregieren erkennen, wann die für die eigenen Nutzer relevanten Aussende-Zeiten sind. Gegebenenfalls muss die Tabelle noch um weitere Spalten erweitert werden, wenn beispielsweise verschiedene Sprachen und Länder in unterschiedlichen Zeitzonen über die gleiche Page bedient werden. Mitunter sind auch das Wetter, Fernsehprogramm oder Branchenveranstaltungen relevante Kriterien.

Ist man damit zufrieden, dass eine Meldung in einen Stream geladen wurde, dann wird man hinsichtlich der Reichweite optimieren und Meldungen folglich dann aussenden, wenn möglichst viele der eigenen Nutzer online sind. Die Wirkung eines Inhalts ist zweifellos höher, wenn Fans auch noch damit interagieren und sogar Likes oder Comments abgeben. Leider sind solche Nutzer mitunter zu anderen Zeiten online als das Reichweitenmaximum. Wie soll nun reagiert werden? – Es ist notwendig Indexwerte aus den Facebook Insights zu generieren.

In Indexwerten wird die Relevanz einzelner Kriterien anteilsmäßig abgebildet. Man kann also der Reichweite beispielsweise ein Gewicht von 40 Prozent geben, Engaged Users 20 Prozent, Talking about this 20 Prozent und der Virality ebenfalls 20 Prozent. Dabei muss man beachten, dass der Ergebniswert standardisiert ist. Das heißt, dass durch eine Veränderung der gesamten Fanzahl kein Einfluss auf den Indexwert stattfinden darf. Dies kann man beispielsweise so erreichen:

(Reichweite / Fans)*0,4 + (Engaged Users / Fans)*0,2 + (Talking about this / Fans)*0,2 + ((Virality*Reichweite)) / Fans)*0,2

Nun muss man nur noch die Indexwerte sortieren und nach den Aussende-Zeitpunkten schauen. Gleichartige Nachrichten sollten dann in der nächsten Periode zum ermittelten Zeitpunkt verschickt werden.

Auch die Häufigkeit von Postings kann mit dieser Methode überprüft werden. In diesem Fall sind Redaktionspläne für verschiedene Zeitfolgen zu entwickeln und deren Ergebnisse zu bewerten.

Das Verfahren an sich sollte rollierend eingesetzt werden. Es handelt sich um einen fortlaufenden Optimierungsprozess.

Dies sind nicht alle Instrumente, mit dem man hinsichtlich der einzelnen Posts arbeiten kann. Relevant sind auch die erzielten Referrals. Diese verbergen sich in obiger Abbildung im Bereich der „Engaged Users“. Es handelt sich dabei um Nutzer, die durch das Anklicken eines Links auf eine andere Seite geleitet wurden. Wie in diesem Zusammenhang vorzugehen ist, wird weiter unten erklärt. Zunächst wird das eben geschilderte Verfahren noch auf Twitter umgesetzt.

Twitter Optimierung

Für Twitter ist die Optimierung leider etwas aufwändiger, je nach Abhängigkeit der benutzten Tools. Um eine gewisse Vergleichbarkeit der Bewertung zu ermöglichen, sollten die Messwerte möglichst synchron genutzt werden. In der folgenden Abbildung ist ein Versuch zu sehen, die möglichen Metriken von Twitter hinsichtlich der von Facebook im Herbst 2011 vorgegebenen Struktur einzuordnen:

Twitter Measures entsprechend Facebook Struktur
Twitter Measures entsprechend der Facebook Struktur

Für Kunden oder VIPs gibt es mittlerweile Statistiken für die Beiträge. Einen ersten Einblick gewährt Sascha Lobo. Das Twitter-Tool weist nach Einschätzung von Sascha Lobo nicht vollständig valide Werte aus. Es kommt zu Abweichungen gegenüber anderen Tools. Dies sollte insgesamt jedoch nicht weiter stören. Die Relationen bleiben, soweit ich dies beurteilen kann, gewahrt. Da auch noch eine Index-Bildung stattfindet, sind die konkreten Werte ohnehin von nachrangiger Bedeutung.

Man sollte sich auf ein Tool oder ein festes Set von Werkzeugen konzentrieren und sicherstellen, dass es zu keiner Verwechselung hinsichtlich der Werte kommt. In einigen Tools werden beispielsweise die Klicks auf Links mit Views übersetzt. Dabei handelt es sich um die von Twitter selbst gemessenen Klicks. Meist werden diese mit Tools wie Bit.ly  gemessen oder in Tools wie HootSuite (Ow.ly).  Mitunter werden auch Impression-Werte genannt, beispielsweise bei SproutSocial, die keine valide Grundlage haben.

Das Vorgehen entspricht nun komplett dem bei Facebook. Es muss getestet werden. Beachten sollte man dabei, dass es

  1. zwischen den Fans auf Facebook und den Followern auf Twitter Unterschiede geben kann;
  2. Posts, die auf Facebook zu einem bestimmten Zeitpunkt funktionieren, bei Twitter eine Bruchlandung erleiden können;
  3. ein entsprechend angepasster Testplan notwendig ist.

Die resultierenden Daten werden in eine Tabelle übertragen und angereichert sowie mit einer Typologie versehen. Die Auswertung erfolgt wie bei Facebook.

Crossposting-Effekte

Mit der hier vorgestellten Methode wird isoliert ausgewertet. Man optimiert Facebook. Man optimiert Twitter. Effekte hinsichtlich des Verschickens gleicher oder ähnlicher Inhalte zu gleichen oder unterschiedlichen Zeitpunkten wurden nicht untersucht. Hierfür wäre ein eigenes Testdesign zu entwickeln.

Messung von Referral-Effekten

Facebook und Twitter bieten Möglichkeiten, die Zahl von Referrals zu messen. Vielfach ist dies jedoch nicht ausreichend. Gerade bei Produkt-Postings gibt es zu recht die Anforderung, nicht nur die Zahl zu ermitteln, sondern unter Umständen noch die resultierende durchschnittliche Visit-Länge in Impressions, möglicherweise sogar zurechenbaren Umsatz.

Hierfür muss die Web-Analyics Applikation für die zu prüfende Website zum Einsatz kommen. Dies geschieht – soweit ich dies beurteilen kann – noch viel zu selten. Der Grund hierfür: Es sind oft unterschiedliche Dienstleister und Abteilungen, die sich um Social Media und die Websites kümmern, so dass es hier zu einer unzureichenden Nutzung von Optimierungspotenzialen kommt.

Google hat hier etwas vorgearbeitet und bietet einen Standard-Reportsatz an, mit dessen Hilfe einige Fragestellungen beantwortet werden können. Justin Cutroni hat die Einsatzmöglichkeiten ein wenig erläutert. Allerdings – und hier liegt die Einschränkung – werden die Auswertungen an dieser Stelle lediglich für die Netzwerke an sich gemacht. In den Standard-Reports ist das Herunterbrechen auf einzelne Postings nicht vorgesehen, auch wenn eine Zuordnung von Landingpages möglich ist, was immerhin brauchbare Anhaltspunkte ergibt.

Immerhin ist es ohne großen Aufwand möglich, Bounces herauszufiltern oder nur Besuche mit Conversions. Weitere Anpassungen verursachen etwas Aufwand. Allerdings ist es bei Google so, dass es nur zwei Nutzertypen für die Reports gibt und man vielleicht deshalb einer Social Media Agentur keinen Zugriff auf die vollständigen Daten gewähren möchte. Ein Ausweg könnte hier das regelmäßige Versenden des Reports per E-Mail sein.

Eine Umsetzung mit Webtrends oder Omniture ist ebenfalls möglich. Man kann beispielsweise die Referrer-Reports filtern. Leider gibt es nach meinem Wissen bisher noch keine entsprechenden vorbereiteten Standard-Reports die für die Aufgabe genutzt werden können, gleichwohl können für diese Produkte entsprechende Reports konstruiert und angelegt werden. Der Aufwand hierfür kann leicht bei 3-5 Personentagen liegen.

Die so gewonnenen Werte müssen ebenfalls in die für Facebook und Twitter angelegten Tabellen übertragen werden. Die Indexwerte sind anzupassen und entsprechend zu konstruieren. Das Verfahren der Optimierung bleibt gleich. Man ist damit auch in der Lage, den Zeitpunkt für Meldungen hinsichtlich direkter Conversions zu optimieren. Dabei sollte man allerdings beachten, dass lediglich ein Teil der tatsächlich auf eine Aktion zurückzuführenden Konversionen mit diesem Verfahren gemessen wird, nämlich die, die im gleichen Visit erfolgen. Kommt ein Fan oder Follower später erneut zur Website, um ein in einem Post beworbenes Produkt zu kaufen, dann wird dies normalerweise nicht zugerechnet. An dieser Stelle sollte man sich genau über die Funktionsweise des eigenen Reportings informieren.

Pinfluence – ein Klout für Pinterest & Analytics Daten

Pinpuff mit ihrem Pinfluence Score gibt es nun auch schon einige Wochen. Es soll wohl so etwas werden wie der Klout Score – eben nur für Pinterest. Das an sich wäre zu wenig. Klout wird zu gegebener Zeit Pinterest integrieren, das ist absehbar. Also wir bei pinpuff an anderen Stellen erweitert. So wird ein monetärer Wert für die Pins bestimmt und das was die API an Daten hergibt wird aggregiert gezeigt. Da Pinterest ziemlich dynamisch ist, gibt es mitunter auch einen Update-Button für die Daten. Die Daten sind frei zugänglich – Geheimnisse gibt es nicht mehr.

Die GAP Pinfluence
Die GAP Pinfluence

Leider ist dieses „Geheimnisse gibt es nicht mehr“ und der Update-Button auch eine gravierende Macke: Jeder kann den Butten anklicken, wie ich dies in obigem Fall bei GAP gemacht habe. So wird GAP nicht auf den ersten Blick sehen, dass der Pinfluence Score um einen Punkt gestiegen ist.

Was ein Pin Wert ist wird für ein Demoprofil erläutert. Ich habe die Werte für den Fall von GAP entsprechend angepasst:

Different Monetary Values assigned to the GAP profile above are :

$15.66 – For A E-com Pin ( Pin with landing page to a sales page – anything from etsy, amazon or personal store anything)

$7.83 – For A non-E-com Pin ( Pin with landing page non-sales page like A Sheldon cooper or Barney Stinson Quote – Just branding )

$2.24 – For each Traffic referral/outward click on your pin (this is maximum value)

Auf welcher Grundlage diese Werte ermittelt wurden bleibt offen.

Die Sub-Scores werden im Dashboard direkt erläutert. Es gibt einen für die Reichweite (Reach), einen für die Nutzung (Activity) und einen für die Viralität (Virality). Nach nach einigen Tests, konnte ich die Funktion für den Pinfluence Score nicht ermitteln. Auf jeden Fall ist es so, dass besondere negative Abweichungen den Wert überproportional drücken. Man muss beispielsweise ausreichend repinnen, um seinen Activity Score positiv zu beeinflussen.

Pinpuff verfährt auf jeden Fall anders als PinReach – die Scores unterscheiden sich etwas. Die Grundlage wird in beiden Fällen die gleiche sein, auch wenn PinReach seinen Wert mit PinReach Score betitelt.

Zusätzlich werden Followers, Pins, Repins und Likes für maximal 20 Boards in einer Tabelle dargestellt, das ist auch schon recht hilfreich. Man spart sich mitunter etwas Schreibarbeit.

Tipp:

Spannend ist Pinfluence allemal – und Sie müssen auch nicht ihre E-Mail auf der Startseite eingeben um an Daten zu kommen. Das Verfahren ist denkbar einfach. Ersetzen Sie bitte in folgendem URL „username“ durch Ihren eigenen oder jeden beliebigen anderen Pinterest Usernamen und Sie erhalten die Daten.

http://pinpuff.com/user/username