Repinly – Pinterest Statistik

Statistiken zu den Top-Nutzern auf Google+, Twitter & Co. gibt es ja schon länger. Einige Zusatzdaten dazu bekommt man auch. CircleCount arbeitet für Google+ wirklich vorbildlich.

Für Pinterest ist Repinly angetreten, Daten auszuwerten und uns zur Verfügung zu stellen. Das schon seit einiger Zeit. Nun wissen wir noch genauer, was wir schon immer vermutet haben:

Repinly Pinterest Statistik (Nutzung, Aktivitäten, Themen)
Repinly Pinterest Statistik (Nutzung, Aktivitäten, Themen)

Ja – wenn wir Damenbekleidung, Inneneinrichtung, Küchenutensilien etc. verkaufen, dann ist Pinterest eine wichtige Plattform.

Auf Repinly direkt gibt es noch eine Reihe weiterer Auswertungen. So kann man die am häufigsten Repins nach verschiedenen Zeitschnitten und Kategorien sehen. Man sieht dabei also was der Gesamtpopultaion von Pinterest gefällt. Eine Einschränkung nach Ländern ist leider (noch) nicht möglich. Spannend ist das Tool allemal. Anschauen!

Weitere Tools:

Die Bestimmung der idealen Posting-Zeitpunkte für Facebook, Twitter & Co.

Die Bestimmung des idealen Posting-Zeitpunkts ist ein viel diskutiertes Thema. Natürlich wird es mit Methoden der Social Media Analytics angegangen. Aber um es gleich vorweg zu nehmen: Die präskriptive Bestimmung des idealen Zeitpunkts ist sehr schwierig und aufwändig. Man sollte natürlich Social Media Analytics einsetzen. Auf die Spitze treiben sollte man es jedoch nicht. Warum? – Man analysiert immer Vergangenheitsdaten. Leider bleibt das Verhalten der Nutzer nicht so stabil, wie es notwendig wäre, um einen idealen Zeitpunkt für eine Mitteilung a priori bestimmen zu können.

Aggregierte Daten – wenig hilfreich

Häufig sind allgemeine Empfehlungen – beruhend auf aggregierten Auswertungen der gesamten Nutzerschaft einer Plattform – zu finden, wie beispielsweise in der folgenden Infografik. Hierzu muss man sich nur eine Frage stellen: Sind meine Kunden gleich dem durchschnittlichen Nutzer einer Social Media Plattform – beispielsweise Facebook – oder unterscheiden sich meine Fans vom Durchschnitt? – Abgesehen davon, dass die Infografik von KISSmetrics sich auf die USA bezieht, sind solche Daten also nur dann relevant, wenn die eigenen Fans und Follower den Durchschnitt der Plattform darstellen.

Social Timing als Durchschnitt (Quelle KISSmetrics.com)
Social Timing als Durchschnitt (Quelle: KISSmetrics.com)

Es werden also Durchschnittswerte für

  • die beste Posting-Zeit in verschiedenen Zeitzonen
  • die beste Zeit für Retweets/Reshares
  • die beste Zeit für die höchste CTR/Interaktion

ermittelt. Aber wie schon geschrieben: Trifft das auch auf die eigenen Nutzer zu? Ich wage zu behaupten, dass dies in den seltensten Fällen so sein wird. Dennoch erhält man Anhaltspunkte für eigene Tests: Um die Mittagszeit bekommen Tweets die meisten Klicks und gegen „End of Business“ wird am stärksten Re-Tweeted. Dagegen werde Facebook Posts um die Mittagszeit am häufigsten geteilt.

Individuelle Bewertung

Erheblich aufschlussreicher sind die Ergebnisse von Tools wie SocialBro. Darin werden die Zeiten für Twitter-Nachrichten entsprechend der Zahl der Follower bewertet, die zu den jeweiligen Zeiten online waren, nicht „sind“. Ausgewertet werden Vergangenheitsdaten. Wenn man sich die Empfehlungen über einen Zeitraum mehrerer Wochen anschaut, so stellt man doch regelmäßig Änderungen fest.

Timing-Empfehlung für Twitter-Nachrichten des Datenonkel von SocialBro
Timing-Empfehlung für Twitter-Nachrichten des Datenonkel von SocialBro

Allerdings sind das auch wieder nur Durchschnittszahlen – bezogen auf den Durchschnitt der eigenen Follower. Dies müsste man – wenn man sauber arbeiten will – natürlich segmentieren und noch dazu das was man erreichen möchte auch noch berücksichtigen.

Was heißt das? – Die schwarzen Punkte in der Abbildung sagen, dass 10 % der Follower in der vergangenen Woche zu den jeweiligen Zeitpunkten online waren. SocialBro ist so nett und qualifiziert dies noch ein wenig. Es werden jeweils die 100 Follower mit dem größten Einfluss in die Bewertung aufgenommen. Dabei handelt es sich um diejenigen, die besonders viele eigene Follower haben und gleichzeitig selbst posten, retweeten etc.

Das ist schon sehr hilfreich. Follower, die zwar online sind, aber Tweets nicht verbreiten oder noch nicht einmal den enthaltenen Link anklicken sind deutlich weniger wert. Diese recht allgemeine Aussage sollte an dieser Stelle erlaubt sein.

Allerdings ergibt auch diese Methode lediglich Anhaltspunkte für Tests – mehr nicht! Eine tiefergehende Bewertung der Ergebnisse ist notwendig.

Ziele und Messgrößen

Auch wenn man mit Tools wie SocialBro arbeitet, kommt man nicht umhin, sich die Frage nach den Zielen des Social Media Engagements zu stellen. Aus diesen Oberzielen für Social Media lassen sich Ziele für einzelne Plattformen und für dort stattfindende Aktionen ermitteln. Dies sind in den meisten Fällen Meldungen unterschiedlicher Form. Auch wenn final Ziele wie Erhöhung von Kundenzufriedenheit, Steigerung der Kundenbindung und Umsatz im Vordergrund stehen, so müssen hierfür zunächst messbare Indikatoren gefunden werden. Dabei erfolgt die Datenerhebung in den meisten Fällen auf der Ebene von Postings bzw. wird Meldungen zugeordnet.

Was ist also zu tun? – Ein generelles und einfaches Rezept existiert leider nicht. Es gibt allgemeine Erfahrungswerte, wie sie oben geschildert wurden. Möglicherweise hat man von Mitbewerbern etwas hinsichtlich Erfahrungen gehört, vielleicht auch aus Branchen mit einer ähnlichen Nutzerschaft. Auf Social Media spezialisierte Agenturen sind hier deutlich im Vorteil. Diese verfügen durch ihre Arbeit über einen breiteren Erfahrungsschatz. Dennoch bleibt nichts anderes übrig als möglichst systematisch zu testen und die Ergebnisse zu dokumentieren.

Zunächst müssen „Learnings“ generiert werden, wie es neudeutsch so schön heißt. Es muss ein Aussendeplan erstellt werden, mit dessen Hilfe geprüft wird, wann welcher Typ von Meldung den größten Erfolg hat, um sich mit späteren Aktionen daran zu orientieren.

Facebook Optimierung

Facebook bietet hierfür die in der folgenden Abbildung dargestellte Gruppierung an:

Facebook Measures
Facebook Measures

So wird deutlich, dass man sich hinsichtlich der Ziele klar sein muss:

  • Hinsichtlich welcher Größe möchte man optimieren?
  • Möchte man die Measures gewichten und so ein allgemeines Optimum für die eigenen Posts erreichen?
  • Sollen unterschiedliche Optima für verschiedene Typen von Postings erreicht werden? (z.B. Fotoalben, Interaktions-Aufforderungen, Produktmeldungen, Pressemeldungen etc.)

Meistens sind die mit dem Social Media Engagement verbundenen Ziele nicht über ein einziges Kriterium abbildbar. Häufig werden zwar „Fans“ und „Follower“ als KPI genannt. Abgesehen davon, dass ein Fans & Follower an sich einen sehr geringen Aussagegehalt hinsichtlich des Erfolgs haben, leitet sich der Erfolg i.d.R. aus einer Kombination von verschiedenen Aktionen und den hierfür relevanten Messgrößen ab.

Datenaufbereitung

An die Zahlen für die eigene Nutzerschaft kommt man, indem man Nachrichten ähnlichen Inhalts und jeweils gleicher Form zu unterschiedlichen Zeitpunkten testet und die Ergebnisse hinsichtlich der einzelnen Beiträge sauber dokumentiert. Dabei muss man beachten, dass die Daten der Facebook Insights auf der Website oder im API für die beitragsweise Auswertung sehr viel genauer sind als die downloadbaren Daten. Diese sind lediglich auf ein Datum bezogen, nicht auf den einzelnen Beitrag.

Man kann die Liste der Beiträge Copy ’n Paste von der Website übernehmen. Hierbei geht einem allerdings der für die Auswertung überaus wichtige Sendezeitpunkt verloren. Dieser muss nachgetragen werden, genauso wie die inhaltliche Ausrichtung des Beitrags. Die Datentabelle sollte dann auch noch um eine Spalte für die Aussende-Stunde und den Aussende-Wochentag erweitert werden. Nun kann man schon durch einfaches Sortieren und Aggregieren erkennen, wann die für die eigenen Nutzer relevanten Aussende-Zeiten sind. Gegebenenfalls muss die Tabelle noch um weitere Spalten erweitert werden, wenn beispielsweise verschiedene Sprachen und Länder in unterschiedlichen Zeitzonen über die gleiche Page bedient werden. Mitunter sind auch das Wetter, Fernsehprogramm oder Branchenveranstaltungen relevante Kriterien.

Ist man damit zufrieden, dass eine Meldung in einen Stream geladen wurde, dann wird man hinsichtlich der Reichweite optimieren und Meldungen folglich dann aussenden, wenn möglichst viele der eigenen Nutzer online sind. Die Wirkung eines Inhalts ist zweifellos höher, wenn Fans auch noch damit interagieren und sogar Likes oder Comments abgeben. Leider sind solche Nutzer mitunter zu anderen Zeiten online als das Reichweitenmaximum. Wie soll nun reagiert werden? – Es ist notwendig Indexwerte aus den Facebook Insights zu generieren.

In Indexwerten wird die Relevanz einzelner Kriterien anteilsmäßig abgebildet. Man kann also der Reichweite beispielsweise ein Gewicht von 40 Prozent geben, Engaged Users 20 Prozent, Talking about this 20 Prozent und der Virality ebenfalls 20 Prozent. Dabei muss man beachten, dass der Ergebniswert standardisiert ist. Das heißt, dass durch eine Veränderung der gesamten Fanzahl kein Einfluss auf den Indexwert stattfinden darf. Dies kann man beispielsweise so erreichen:

(Reichweite / Fans)*0,4 + (Engaged Users / Fans)*0,2 + (Talking about this / Fans)*0,2 + ((Virality*Reichweite)) / Fans)*0,2

Nun muss man nur noch die Indexwerte sortieren und nach den Aussende-Zeitpunkten schauen. Gleichartige Nachrichten sollten dann in der nächsten Periode zum ermittelten Zeitpunkt verschickt werden.

Auch die Häufigkeit von Postings kann mit dieser Methode überprüft werden. In diesem Fall sind Redaktionspläne für verschiedene Zeitfolgen zu entwickeln und deren Ergebnisse zu bewerten.

Das Verfahren an sich sollte rollierend eingesetzt werden. Es handelt sich um einen fortlaufenden Optimierungsprozess.

Dies sind nicht alle Instrumente, mit dem man hinsichtlich der einzelnen Posts arbeiten kann. Relevant sind auch die erzielten Referrals. Diese verbergen sich in obiger Abbildung im Bereich der „Engaged Users“. Es handelt sich dabei um Nutzer, die durch das Anklicken eines Links auf eine andere Seite geleitet wurden. Wie in diesem Zusammenhang vorzugehen ist, wird weiter unten erklärt. Zunächst wird das eben geschilderte Verfahren noch auf Twitter umgesetzt.

Twitter Optimierung

Für Twitter ist die Optimierung leider etwas aufwändiger, je nach Abhängigkeit der benutzten Tools. Um eine gewisse Vergleichbarkeit der Bewertung zu ermöglichen, sollten die Messwerte möglichst synchron genutzt werden. In der folgenden Abbildung ist ein Versuch zu sehen, die möglichen Metriken von Twitter hinsichtlich der von Facebook im Herbst 2011 vorgegebenen Struktur einzuordnen:

Twitter Measures entsprechend Facebook Struktur
Twitter Measures entsprechend der Facebook Struktur

Für Kunden oder VIPs gibt es mittlerweile Statistiken für die Beiträge. Einen ersten Einblick gewährt Sascha Lobo. Das Twitter-Tool weist nach Einschätzung von Sascha Lobo nicht vollständig valide Werte aus. Es kommt zu Abweichungen gegenüber anderen Tools. Dies sollte insgesamt jedoch nicht weiter stören. Die Relationen bleiben, soweit ich dies beurteilen kann, gewahrt. Da auch noch eine Index-Bildung stattfindet, sind die konkreten Werte ohnehin von nachrangiger Bedeutung.

Man sollte sich auf ein Tool oder ein festes Set von Werkzeugen konzentrieren und sicherstellen, dass es zu keiner Verwechselung hinsichtlich der Werte kommt. In einigen Tools werden beispielsweise die Klicks auf Links mit Views übersetzt. Dabei handelt es sich um die von Twitter selbst gemessenen Klicks. Meist werden diese mit Tools wie Bit.ly  gemessen oder in Tools wie HootSuite (Ow.ly).  Mitunter werden auch Impression-Werte genannt, beispielsweise bei SproutSocial, die keine valide Grundlage haben.

Das Vorgehen entspricht nun komplett dem bei Facebook. Es muss getestet werden. Beachten sollte man dabei, dass es

  1. zwischen den Fans auf Facebook und den Followern auf Twitter Unterschiede geben kann;
  2. Posts, die auf Facebook zu einem bestimmten Zeitpunkt funktionieren, bei Twitter eine Bruchlandung erleiden können;
  3. ein entsprechend angepasster Testplan notwendig ist.

Die resultierenden Daten werden in eine Tabelle übertragen und angereichert sowie mit einer Typologie versehen. Die Auswertung erfolgt wie bei Facebook.

Crossposting-Effekte

Mit der hier vorgestellten Methode wird isoliert ausgewertet. Man optimiert Facebook. Man optimiert Twitter. Effekte hinsichtlich des Verschickens gleicher oder ähnlicher Inhalte zu gleichen oder unterschiedlichen Zeitpunkten wurden nicht untersucht. Hierfür wäre ein eigenes Testdesign zu entwickeln.

Messung von Referral-Effekten

Facebook und Twitter bieten Möglichkeiten, die Zahl von Referrals zu messen. Vielfach ist dies jedoch nicht ausreichend. Gerade bei Produkt-Postings gibt es zu recht die Anforderung, nicht nur die Zahl zu ermitteln, sondern unter Umständen noch die resultierende durchschnittliche Visit-Länge in Impressions, möglicherweise sogar zurechenbaren Umsatz.

Hierfür muss die Web-Analyics Applikation für die zu prüfende Website zum Einsatz kommen. Dies geschieht – soweit ich dies beurteilen kann – noch viel zu selten. Der Grund hierfür: Es sind oft unterschiedliche Dienstleister und Abteilungen, die sich um Social Media und die Websites kümmern, so dass es hier zu einer unzureichenden Nutzung von Optimierungspotenzialen kommt.

Google hat hier etwas vorgearbeitet und bietet einen Standard-Reportsatz an, mit dessen Hilfe einige Fragestellungen beantwortet werden können. Justin Cutroni hat die Einsatzmöglichkeiten ein wenig erläutert. Allerdings – und hier liegt die Einschränkung – werden die Auswertungen an dieser Stelle lediglich für die Netzwerke an sich gemacht. In den Standard-Reports ist das Herunterbrechen auf einzelne Postings nicht vorgesehen, auch wenn eine Zuordnung von Landingpages möglich ist, was immerhin brauchbare Anhaltspunkte ergibt.

Immerhin ist es ohne großen Aufwand möglich, Bounces herauszufiltern oder nur Besuche mit Conversions. Weitere Anpassungen verursachen etwas Aufwand. Allerdings ist es bei Google so, dass es nur zwei Nutzertypen für die Reports gibt und man vielleicht deshalb einer Social Media Agentur keinen Zugriff auf die vollständigen Daten gewähren möchte. Ein Ausweg könnte hier das regelmäßige Versenden des Reports per E-Mail sein.

Eine Umsetzung mit Webtrends oder Omniture ist ebenfalls möglich. Man kann beispielsweise die Referrer-Reports filtern. Leider gibt es nach meinem Wissen bisher noch keine entsprechenden vorbereiteten Standard-Reports die für die Aufgabe genutzt werden können, gleichwohl können für diese Produkte entsprechende Reports konstruiert und angelegt werden. Der Aufwand hierfür kann leicht bei 3-5 Personentagen liegen.

Die so gewonnenen Werte müssen ebenfalls in die für Facebook und Twitter angelegten Tabellen übertragen werden. Die Indexwerte sind anzupassen und entsprechend zu konstruieren. Das Verfahren der Optimierung bleibt gleich. Man ist damit auch in der Lage, den Zeitpunkt für Meldungen hinsichtlich direkter Conversions zu optimieren. Dabei sollte man allerdings beachten, dass lediglich ein Teil der tatsächlich auf eine Aktion zurückzuführenden Konversionen mit diesem Verfahren gemessen wird, nämlich die, die im gleichen Visit erfolgen. Kommt ein Fan oder Follower später erneut zur Website, um ein in einem Post beworbenes Produkt zu kaufen, dann wird dies normalerweise nicht zugerechnet. An dieser Stelle sollte man sich genau über die Funktionsweise des eigenen Reportings informieren.

Pinfluence – ein Klout für Pinterest & Analytics Daten

Pinpuff mit ihrem Pinfluence Score gibt es nun auch schon einige Wochen. Es soll wohl so etwas werden wie der Klout Score – eben nur für Pinterest. Das an sich wäre zu wenig. Klout wird zu gegebener Zeit Pinterest integrieren, das ist absehbar. Also wir bei pinpuff an anderen Stellen erweitert. So wird ein monetärer Wert für die Pins bestimmt und das was die API an Daten hergibt wird aggregiert gezeigt. Da Pinterest ziemlich dynamisch ist, gibt es mitunter auch einen Update-Button für die Daten. Die Daten sind frei zugänglich – Geheimnisse gibt es nicht mehr.

Die GAP Pinfluence
Die GAP Pinfluence

Leider ist dieses „Geheimnisse gibt es nicht mehr“ und der Update-Button auch eine gravierende Macke: Jeder kann den Butten anklicken, wie ich dies in obigem Fall bei GAP gemacht habe. So wird GAP nicht auf den ersten Blick sehen, dass der Pinfluence Score um einen Punkt gestiegen ist.

Was ein Pin Wert ist wird für ein Demoprofil erläutert. Ich habe die Werte für den Fall von GAP entsprechend angepasst:

Different Monetary Values assigned to the GAP profile above are :

$15.66 – For A E-com Pin ( Pin with landing page to a sales page – anything from etsy, amazon or personal store anything)

$7.83 – For A non-E-com Pin ( Pin with landing page non-sales page like A Sheldon cooper or Barney Stinson Quote – Just branding )

$2.24 – For each Traffic referral/outward click on your pin (this is maximum value)

Auf welcher Grundlage diese Werte ermittelt wurden bleibt offen.

Die Sub-Scores werden im Dashboard direkt erläutert. Es gibt einen für die Reichweite (Reach), einen für die Nutzung (Activity) und einen für die Viralität (Virality). Nach nach einigen Tests, konnte ich die Funktion für den Pinfluence Score nicht ermitteln. Auf jeden Fall ist es so, dass besondere negative Abweichungen den Wert überproportional drücken. Man muss beispielsweise ausreichend repinnen, um seinen Activity Score positiv zu beeinflussen.

Pinpuff verfährt auf jeden Fall anders als PinReach – die Scores unterscheiden sich etwas. Die Grundlage wird in beiden Fällen die gleiche sein, auch wenn PinReach seinen Wert mit PinReach Score betitelt.

Zusätzlich werden Followers, Pins, Repins und Likes für maximal 20 Boards in einer Tabelle dargestellt, das ist auch schon recht hilfreich. Man spart sich mitunter etwas Schreibarbeit.

Tipp:

Spannend ist Pinfluence allemal – und Sie müssen auch nicht ihre E-Mail auf der Startseite eingeben um an Daten zu kommen. Das Verfahren ist denkbar einfach. Ersetzen Sie bitte in folgendem URL „username“ durch Ihren eigenen oder jeden beliebigen anderen Pinterest Usernamen und Sie erhalten die Daten.

http://pinpuff.com/user/username

PinReach – ein Pinterest Analytics/Insights Tool

Mit PinReach gibt es ein kostenloses Tool, mit dessen Hilfe man die Leistung seiner Pins ein wenig im Blick behalten kann. Insgesamt ist das Tool nicht wirklich gigantisch. Es vermittelt jedoch einen ersten klaren Eindruck davon, wie die Daten des Pinterest API aufbereitet werden können. Mittlerweile – es ist Mai 2012 – hat PinReach kommuniziert, bald mit einer PRO-Version an den Markt zu gehen.

PinReach Analytics
PinReach Analytics

Man sieht, dass die Entwickler noch am Anfang stehen, auch wenn das Board als erster Wurf schon ganz ansehnlich ist. So fehlen beispielsweise die Namen der Boards im Dashbaord, im Tab „Boards“ werden diese genannt. Daneben sollte das Datum des letzten Updates angezeigt werden. Anleihen haben die Entwickler bei Klout gemacht: Sie ermitteln einen PinReach Score. Wie dieser konstruiert wird, kann ich nicht beurteilen – hierzu fehlen die Informationen.

Update 1.5.2012

PinReach hat mittlerweile eine Erläuterung seines Scores eingefügt und zeigt eine Verteilung der Scores. Es handelt sich um die Scores von etwa 10.000 PinReach Nutzern.

PinReach - Score Verteilung
PinReach - Score Verteilung

Im Tab „Boards“ werden die Metriken zu den einzelnen Boards aggregiert gezeigt. Das ist schon ausgesprochen hilfreich und reduziert die Notwendigkeit manueller Arbeit!

PinReach Boards

Das gleiche gilt für die Pins an sich. Hierfür gibt es auch einen eigenen Tab. Dort werden die Werte für die erfolgreichsten Pins zusammengefasst. Das schaut nett aus – auch wenn eine Übersichtstabelle mit mehr Inhalt hilfreicher wäre.

PinReach Pins
PinReach Pins

Ich empfehle PinReach einfach zu testen – es ist frei zugänglich. Pinerly kann man leider erst verwenden, wenn man eine Reihe von Nutzern zur Registrierung animiert.

Wie ich mir die Pinterest Analytics im Idealfall vorstelle, habe ich in einem eigenen Beitrag beschrieben.

Update 3.4.2012:
Die Daten der registrierten Nutzer sind übrigens frei zugänglich. Ersetzen Sie einfach „username“ im URL unten gegen den User-Namen für den Sie Daten abrufen möchten. Wenn wieder User einen Account bei PinReach hat, können Sie die Daten ansehen.

http://www.pinreach.com/user/username

Den Usernamen finden Sie bei Pinterest nach dem ersten Slash:

http://pinterest.com/klauseck/

Er wäre also „klauseck“. Sie können es gerne testen, der Kollege wird nichts dagegen haben. Wenn Sie allerdings „gap“ einsetzen, erhalten Sie eine Fehlermeldung. Das Bekleidungsunternehmen hat offensichtlich noch keinen Account.

Bottlenose 2.0

Bottlenose mochte ich schon etwas länger. Die Steams von Twitter, Facebook und RSS lassen sich integriert anschauen und analysieren. Soweit so gut. Dafür gibt es auch eine Reihe weiterer Tools. Die Delphinnase kann etwas mehr. Den Namen trägt das Werkzeug wegen des Sonarcharakters, den es zudem hat.

Der Bottelnose Start-Screen
Der Bottelnose Start-Screen

Zunächst sieht man eine übersichtliche Navigationsspalte, die einlaufenden Posts aus den angelegten Accounts. Leider fehlt dabei noch Google+. Die Sonargraphik lässt einen vermuten, wie die derzeitige Themenstruktur der Freunde oder Gefolgten ist.

Das ist hübsch anzusehen, funktional und einfach zu bedienen. Neue Nachrichten laufen automatisch ein. Wenn man eine Nachricht anklickt, wie im nächsten Beispiel, dann erhält man neben der Nachricht, dem Inhalt auf den in der Nachricht verwiesenen wird, auch noch Informationen zum Sender, Re-Tweets etc. angezeigt. Das ist sehr hilfreich und nützlich.

Anzeige einer Nachricht in Bottlenose
Anzeige einer Nachricht in Bottlenose

Neben den ohnehin in Twitter gespeicherten Searches können eigene hinzugefügt werden, es gibt Empfehlungen und jeweils das Sonar dazu. Zusätzlich können diese Suchen allerdings zusätzlich mit Metriken versehen werden, was besonders bei hohen Trefferzahlen ausgesprochen hilfreich erscheint.

Relevanzmetriken bei Bottlenose
Relevanzmetriken bei Bottlenose

In obiger Abbildung ist zu sehen, was möglich ist. Die Auswahl kann dann  automatisiert weiterverarbeitet werden:

Automatisierung bei Bottlenose
Automatisierung bei Bottlenose

Viele Arbeitsschritte, die ansonsten manuelles Eingreifen erfordern, können also automatisiert werden. Da erscheint es fast schon als grobe Nachlässigkeit, dass Positings nicht terminiert werden können – zumindest habe ich keine entsprechende Möglichkeit gefunden. Allerdings merkt sich das Tool die benutzen Tags, so dass diese einfach per Drop-down in Meldungen eingebunden werden können. Dies reduziert die Fehleranfälligkeit.

Die Sonarwolke sollte ich auch nochmal zeigen. Man kann sie wirklich ausgezeichnet konfigurieren. Das bezieht sich auf die Zahl der Äste und Topics, Layer (Topics, Sender, Hashtags, Nachrichten-Typen). Zudem sind Zeitschnitte möglich und Ausschnittvergrößerungen.

Funktionalität der Sonar-Wolke
Funktionalität der Sonar-Wolke

Derzeit befindet sich Bottlenose noch immer in der „Betaphase“. Man kann es nur auf Einladung hin benutzen. Mit einem Kloud-Score größer 30 scheint die Tür auch offen zu stehen. Das habe ich allerdings nicht überprüft.

Social Media Monitoring – Kriterien zur Auswahl eines geeigneten Werkzeugs

„Social Media Monitoring“ wird derzeit heftig diskutiert und scheint zudem ein hart umkämpfter Markt zu sein. Ein Indikator dafür ist die Anzahl der Keyword-Anzeigen, die bei Google für die Phrase aktiv sind. Die Seite ist voll! Gleichzeitig heißt das aber auch, dass es viele Anbieter gibt und der Aufwand zur Auswahl der geeigneten Software bzw. des geeigneten Produkts hoch ist.

Wenn Sie sich bereits ein wenig im deutschsprachigen Web umgeschaut haben, werden Sie schon einige ähnliche Beiträge gefunden haben. Stefanie Aßmann hat sich beispielsweise in ihrer Masterarbeit mit dem Thema beschäftigt, betreibt ein Blog dazu und steuert dankenswerterweise auch noch Informationen zu einem Wiki bei, Alexander Plum hat einen Anbietervergleich veröffentlicht und es gibt noch zwei Anbieterübersichten, die relevant sind.

Hier möchte ich mich eher auf einige Hintergründe und Funktionsweisen der Tools beschränken und Kriterien herausarbeiten, die bei der Auswahl des richtigen Werkzeugs helfen. Ich erhebe dabei keinen Anspruch auf Vollständigkeit und allgemeine Gültigkeit meiner Bewertungen. Sollten Ihnen weitere Kriterien wichtig erscheinen oder Sie anders bewerten, dann würde ich mich über Ihre Hinweise freuen (datenonkel(at)gmail(.)com).

Beginnen möchte ich an dieser Stelle mit einer Begriffsklärung – also mit dem, was unter „Social Media Monitoring“ verstanden wird. Einerseits geht es um „Social Media“ und andererseits um „Media Monitoring“. Das ältere Begriffspaar ist „Media Monitoring“.

Media Monitoring

In größeren Unternehmen gab es schon vor recht vielen Jahren Pressespiegel in Papierform, die täglich oder wöchentlich herumgereicht wurden. Der Kopierer war hierfür sehr hilfreich. Die Presse wurde ausgewertet, damit Vermutungen darüber angestellt werden konnten, wie das eigene Unternehmen und auch Konkurrenten in der öffentlichen Kommunikation eingeschätzt werden. Die Datenerfassung wurde zunächst in den PR-Abteilungen der Unternehmen vollzogen. PR-Agenturen und spezialisierte Dienstleister übernahmen und übernehmen diese Aufgabe noch immer. Mittlerweile gehört es auch zum guten Ton der PR-Dienstleister, die eigene Leistung mit entsprechenden Auswertungen zu belegen. Wenn beispielsweise der Wetterreporter eines Fernsehsenders die Jacke eines Sponsors trägt, wird belegt, wie lange die Jacke inkl. Logo des Herstellers im Bild war und wieviele Personen lt. GfK-Meter vor den Bildschirmen saßen. Natürlich werden die Daten noch qualifiziert – d.h. es kommen Demographika, wie Alter und Geschlecht der Zuschauer und sonstige Daten hinzu. Auf einem ähnlichen Weg werden übrigens die Werbeausgaben für Print und TV gemessen. Es werden Anzeigenmillimeter vermessen, die mit Preisen multipliziert werden und als Qualifizierung kommen die Werbeträger und die Namen der Werbungtreibenden hinzu.

In jüngerer Zeit haben die Presseunternehmen begonnen, Pressespiegel elektronisch zu ermöglichen und die Auswertungen zu automatisieren – beispielsweise die PMG Presse-Monitor GmbH (http://www.pressemonitor.de). Insgesamt ist es also mehr als nur naheliegend, das Monitoring auch auf Social Media zu übertragen und dies automatisiert durchzuführen.

Social Media

Social Media werden häufig mit Web 2.0 gleichgesetzt – was hier auch definiert werden müsste. Die Erläuterung und das Verständnis für Social Media fällt erheblich leichter, wenn man diese von traditionellen On- und Offline-Medien abgrenzt. Das trennende Kriterium ist der nutzergenerierte Inhalt – also Inhalt, der von Menschen außerhalb dieser Medien produziert und publiziert wird. Diese Inhalte können öffentlich oder halböffentlich publiziert werden, wobei das Publizieren keine notwendige Bedingung an sich ist, wohl aber das Kriterium hinsichtlich der Inhalte, die im Rahmen des Social Media Monitoring erfasst und analysiert werden sollen. Freilich sind dabei die Übergänge fließend. In den angesprochenen Medieninstitutionen wird auch gebloggt, es werden Facebook-Pages gepflegt und es wird getwittert. Auch ehemals unabhängige Blogger finden mitunter ihren Weg in Medienorganisationen oder haben Werbeerlöse.

Damit wären wir auch schon bei den Inhalten, die analysiert werden. Es handelt sich ausschließlich um öffentlich zugängliche Inhalte. Inhalte, die auf Plattformen wie Facebook oder G+ unter Freunden geteilt werden, sind nicht öffentlich und können damit nicht erfasst und analysiert werden.

Funktionen von Social Media Monitoring Werkzeugen

Die Funktionen von Social Media Monitoring Werkzeugen lassen sich in drei Bereiche einteilen:

  1. Datenerfassung/-erhebung
  2. Datenanalyse/-aufbereitung
  3. Interaktion

Im Grunde handelt es sich bei den ersten beiden Stufen um eine Inhaltsanalyse, wie sie aus der Kommunikationswissenschaft bekannt ist. Es findet dabei eine kontinuierliche Datenerhebung und -auswertung statt.

Datenerfassung/-erhebung

Zunächst stellt sich die Frage, was analysiert werden soll. Dabei werden von den Monitoring Tools meist verschiedene Klassen unterschieden – beispielsweise

  • Blogs
  • Microblogs (z.B. Twitter)
  • Communities
  • Network-Plattformen
  • E-Commerce-/Produktbewertungsplattformen
  • Klassische Medieninhalte

Für den Kunden ist es natürlich wichtig, dass alle relevanten Kommunikate mit Meinungsäußerungen erfasst werden. Dabei ist nicht nur die vollständige Erfassung eines aktuellen Standes wichtig – also die Berücksichtigung aller relevanten Plattformen zu einem bestimmten Zeitpunkt. Wichtig ist auch, dass neue Plattformen zeitnah in die Erfassung eingehen. Hierbei hört man von den Anbietern mitunter ein beschwichtigendes “Kein Problem – wenn mal ein Blog nicht erfasst wird, dann geben sie uns einfach die Adresse und – schwupps – wird es mit ausgewertet”. Das sollte jedoch nur die Mindestanforderung des Kunden sein. Wirklich hilfreich wäre es für den Kunden, wenn er automatisch und zeitnah solche neue Plattformen mit Hilfe der Tools identifizieren könnte.

Gerade für Blogs, die nicht wie dieses hier bei einem der großen Anbieter direkt liegen, sondern auf eigenen Servern, ist die Identifikation nicht einfach. Die Tools können nicht den Datenbestand einer großen allgemeinen Suchmaschine wie Google, Bing oder den vergleichbarer Unternehmen aus Russland oder China haben. Die Anforderungen an die Tools sind andere:

Vollständigkeit

Möglichst alle Äußerungen zu einem Thema, Unternehmen, Produkt etc. sollen erfasst werden. Das wäre bei einer allgemeinen Suchmaschine ganz ähnlich. Allerdings sucht diese mitunter nicht so tief. Je nach Markt und Sprache können Lücken in der Datenbasis bestehen. Ob es akzeptabel ist, dass diese erst im Rahmen eines Kundenprojekts gefüllt werden, hängt von der Frage- bzw. Aufgabenstellung ab.

Granularität

Die Kommunikate müssen strukturierter erfasst werden, als dies bei einer allgemeinen Suchmaschine der Fall ist. Der Absender/Kommunikator muss beispielsweise identifiziert werden. Es sollte festgestellt werden können, ob es sich um eine „Erstpost“ – einen vielleicht längeren Text mit Bewertungen handelt, ob es sich um einen Kommentar zu einem Erstpost handelt, eine Weiterleitung etc.

Aktualität

Die Daten sollen möglichst zeitnah zur Verfügung stehen. D.h. beispielsweise, dass bestimmte Plattformen in Zeitschnitten unter zwei Stunden erfasst werden können müssen, Objekte wie die eigenen Facebook-Pages müssen möglichst nahe an Realtime abgefragt werden können. Bei anderen reicht es, wenn die Abfrage ein bis viermal täglich erfolgt.

Stabilität

Die Datenerfassung muss stabil und kontinuierlich erfolgen – es dürfen keine längeren Downzeiten entstehen. Dies betrifft insbesondere die zeitsensitiven Bereiche. Die Erfassung der Daten kann aufgrund der Anforderungen nicht auf einem Weg erfolgen.

Es wird also nicht eine einzelne Technik – beispielsweise ein Crawler – eingesetzt, um die Daten zu erheben, sondern eine Vielzahl unterschiedlicher Techniken . So können beispielsweise Facebook oder Twitter mittels API abgefragt werden. Allerdings werden diese APIs häufig verändert/angepasst. Aus diesem Grund wird von den Toolanbietern auch auf Aggregatoren zurückgegriffen, die APIs bündeln und pflegen. Es gibt spezialisierte Dienstleister, die crawlen, etc. So kann es passieren, dass mehrere Toolanbieter auf einen relativ ähnlichen Datenbestand zurückgreifen. Der Unterschied der Tools besteht dann in der Auswertung der Daten, in deren Aufbereitung und in den Möglichkeiten, die zur Interaktion mit den Kommunikatoren geboten werden. Auf der Startseite von Gnip sind viele bekannte Marktteilnehmer zu finden.

Datenanalyse & -aufbereitung

Selbst wenn die Daten – unabhängig von der Fragestellung eines Kunden – sehr gut erfasst werden, so ist hierdurch zwar eine gute Basis geschaffen. Die Auswertung an sich und die Aufbereitung der Daten stellt aber erhebliche Anforderungen, die nicht für jedes Unternehmen oder Produkt in der gleichen Weise erfüllbar sind. Das Kriterium ist an dieser Stelle die Identifizierbarkeit.

Identifizierbarkeit

Die erhobenen Daten müssen in eine bestimmte Struktur gebracht werden – beispielsweise Treffer für Unternehmen. An einem Beispiel aus dem Outdoor-Markt wird das sehr deutlich. Während für Unternehmen wie VAUDE oder Salewa relativ leicht Kommunikate, die diese betreffen, identifizierbar sind, ist dies für Mammut oder The North Face sehr viel schwieriger. Es gibt eben gleichzeitig Kommunikate zu dem Urzeit-Rüsseltier und der Nordwand, die aus der Ergebnismenge ausgeschlossen werden müssen, ohne diese zu stark einzugrenzen. Hier ist der Dienstleister gefordert, entsprechende Lösungen anzubieten (z.B. elaborierte Bool‘sche Ausdrücke zu entwickeln). An dieser Stelle kann man die Leistungsfähigkeit sehr gut prüfen.

Akkurate Bewertung

Für Unternehmen ist natürlich sehr interessant, ob über sie gesprochen wird. Noch spannender ist es, ob die Äußerungen positiv oder negativ sind. Diese Bewertung soll möglichst automatisch mit einer möglichst hohen Güte erfolgen. In der Praxis hört man immer wieder von Trefferwahrscheinlichkeiten von 90 Prozent. Aus meiner Sicht kann man mit automatisch erzielten 80 Prozent schon recht zufrieden sein.

Die Aufgabe an sich ist auch nicht einfach. In einem Kommunikat – also beispielsweise einem Text von 1.000 Zeichen – können sich nicht nur eine, sondern gleich mehrere Bewertungen verstecken. Diese müssen sich nicht auf ein einzelnes Produkt oder Unternehmen beziehen – es können auch mehrere sein. Mit Bool’schen Verknüpfungen kommt man hier nicht zu einem vollständig treffsicheren Ergebnis.

Die an den benutzten Verfahren sind sehr unterschiedlich. Von vollständig manueller Codierung bis zum Einsatz von Verfahren künstlicher Intelligenz kann man die verschiedensten Methoden finden. Abgesehen davon, dass die vollständig manuelle Codierung sich höchstens für ex-post-Betrachtungen eignet und für den Wunsch nach Interaktion mit dem Kunden viel zu langsam ist, erscheint das Verfahren gerade bei größeren Kommunikationsaufkommen als zu aufwändig.

Mir sind Verfahren am sympathischsten, die den Großteil ihrer Arbeit automatisch machen und bei Zweifelsfällen manuelles Eingreifen erfordern. Sprich: Die Verfahren geben zu ihren Ergebnissen gleich noch an, wie hoch ihre Trefferwahrscheinlichkeit auf der Ebene des einzelnes Kommunikats ist. Wenn die Verfahren dann durch die manuelle Codierung/Bewertung auch noch lernen und im Laufe der Zeit immer seltener ein manuelles Eingreifen erforderlich wird, ist das umso besser.

Letztlich kommt man an dieser Stelle nicht um einen Test herum. Man muss ausprobieren, ob das Produkt den eigenen Ansprüchen genügt und man damit arbeiten kann. Für reine ex-post Betrachtungen und den Vergleich mit Wettbewerbern können Trefferwahrscheinlichkeiten von 80 Prozent ausreichend sein – auch beobachtete Wettbewerber sind vom gleichen Fehler betroffen. Die aus der Sozial- und Marktforschung bekannten statistischen Verfahren können genutzt werden, um die Sinnhaftigkeit zu überprüfen.

Identifikation von „Influencern“

Was sich viele Unternehmen erhoffen, ist die Identifikation von Influencern – also solchen Personen, die häufig ihre Meinung zu Unternehmen und Produkten des relevanten Marktes äußern und gleichzeitig viele Fans bzw. Follower haben.

Diesen Punkt hört man immer wieder von Kunden und auch bei Agenturen. Man möchte wichtige Kommunikatoren identifizieren, erreichen und sie möglichst im eigenen Sinne beeinflussen. Ich möchte nicht bewerten, inwieweit das gut oder schlecht ist. Es handelt sich auf jeden Fall um eine Aufgabe, die bei vielen Tools gelingt.

Persönlich finde ich einen Nebeneffekt ausgesprochen spannend: Immer wenn Kommunikatoren relativ rasch zu einem hohen Kommunikationsaufkommen zu einem bestimmten Thema bzw. Produkt neigen, handelt es sich aus meiner Sicht häufig um bezahlte Leistungen. So kann man natürlich sehen, wie stark sich Mitbewerber engagieren. Dienstleister empfehlen hier mittlerweile schon den langsameren “Aufbau” von Kommunikatoren.

Inwieweit dieses Spiel “below the line” von Nutzern akzeptiert wird, kann ich nicht einschätzen. Ich halte es für gefährlich, da es bei Identifikation dieser Kommunikatoren zu “Shitstorms” kommen kann – und sei es, dass diese von Konkurrenten angezettelt werden.

Datenaufbereitung

Hinsichtlich der Datenaufbereitung wird zwar auch mit verschiedenen Ansätzen gearbeitet – dennoch sind hierbei die Unterschiede hinsichtlich der Qualität geringer als bei den übrigen bisher genannten Punkten. Es lohnt sich einfach die Interfaces der Produkte anzuschauen, um diese nach persönlichem Geschmack und Arbeitsweise auszuwählen. Diese spielen dabei schließlich eine wichtige Rolle.

Interaktion

Je mehr Kunden ein Unternehmen hat, umso emotionaler die Beziehung der Kunden zu den Produkten; je teurer die Produkte sind, umso aufwändiger wird die Kommunikation über soziale Medien mit den Kunden. Am Beispiel von Facebook und Facebook Fans wird dies deutlichen. Wenn man 100 Fans hat, mit denen man kommuniziert, dann ist das weit weniger aufwändig als bei 100.000 Fans. Wenn sich ein Marketing-Leiter oder ein Geschäftsführer also viele Fans wünscht und in Werbung investiert, muss er hinterher auch noch Geld für die Betreuung dieser Fans in die Hand nehmen.

Da er dann mit größter Wahrscheinlichkeit nicht nur eine Page auf Facebook hat, sondern noch etwas bei Twitter etc. macht, wird die Aufgabe hinsichtlich der Beantwortung von Anfragen, Beschwerden etc. sehr schnell komplex. Der Grad an Komplexität steigt, wenn das Unternehmen auch noch sehr viele Produkte hat. Es wird ein Werkzeug benötigt, mit dem die Aufgaben verteilt und die Bearbeitung der Aufgaben beobachtet werden kann.

Umgang mit Kommunikaten

In einer ersten Stufe sollten Kommunikate aus dem Tool heraus vollständig angezeigt werden können, damit man diese beantworten kann, ohne die jeweilige Stelle im Web manuell suchen zu müssen. In einer weiteren Stufe ist es möglich, Kommunikate zu beantworten und zu kommentieren.

Workflows

In den Tools können Kommunikate meist – wenn zumindest eine Grundfunktionalität vorhanden ist – Bearbeitern zugewiesen werden. Hilfreicher ist es, wenn auch Gruppen angelegt werden können oder gleich Schnittstellen zu CRM-Systemen bedient werden können, oder die Zuweisung zu Bearbeitern automatisiert erfolgt. Zudem – und das ist ausgesprochen wichtig – sollte es möglich sein, den Stand der Bearbeitung von Aufgaben zu beobachten.

Erweiterte Kommunikationsmöglichkeiten

Die Frage, ob dann Funktionalitäten, wie beispielsweise das Anlegen von Fotoalben, gegeben sein müssen, ist eigentlich ein Randthema. Vielleicht ist es ein Feature, das Tools einmal haben werden. Mir ist derzeit noch keines bekannt. Ich nenne das Kriterium auch nur der Vollständigkeit halber und weil es mitunter als ein „Kritikpunkt“ an reinen One Stop Social Media Management Tools wie HootSuite oder TweetDeck aufgeführt wird.

Wie geschrieben – die Anforderungen sind hierbei stark vom Kommunikationsaufkommen abhängig. Für geringere Kommunikationsaufkommen erscheint es mir völlig ausreichend, wenn die entsprechenden Kommunikate aus dem Tool heraus aufgerufen und beantwortet werden können.

Aus welchen Bereichen kommen die Anbieter?

Wenn es viele Produkte für einen Anwendungsbereich gibt, dann haben die Anbieter häufig einen völlig unterschiedlichen Hintergrund. Das schlägt sich auf die technische Spezifikation der Produkte selbst nieder, und auf die Konzepte, wie die Produkte angeboten werden.

Hier zunächst zwei Links zu Verzeichnissen der Produkte:

Grob unterscheiden kann man in

  • Unternehmen, die lediglich eine technische Dienstleistung anbieten – also die Software
  • Dienstleister, die eine Software haben (nicht zwingend eine Eigenentwicklung), die diese auch noch einrichten (z.B. Topics definieren, Dashboards einrichten).
  • Dienstleister, die neben der Software und deren Einrichtung auch noch Aufgaben im Bereich Social Media übernehmen.

Alexander Plum hat zudem noch in Technologie-Know-how und Methoden-Know-how unterschieden. Nach meiner Einschätzung bezieht sich diese Dimensionierung auf den Hintergrund des Dienstleisters und ist zudem durchaus eine Beachtung wert.

Es gibt Dienstleister, die einen Schwerpunkt in der klassischen Medienanalyse haben. Für diese ist es natürlich mehr als naheliegend, die Analysegegenstände auszuweiten. Genauso ist es bei Web-Analytics-Dienstleistern. Social Media-Dienstleister benötigen natürlich Tools, um ihre Arbeit effizient zu gestalten. Bei diesen liegt naturgemäß ein stärkerer Schwerpunkt auf dem Interaktionsaspekt. Unternehmen – wie beispielsweise Adobe – benötigen ein entsprechendes Produkt zur Abrundung ihrer Marketing Suite. Dann gibt es noch Unternehmen, die eher aus dem technischen Bereich kommen, bei denen Know-how im Bereich Crawling, Textklassifikation oder KI vorlag.

Insgesamt möchte ich einfach nur darauf hinweisen, dass man diesen Aspekt bei der Entscheidung für oder gegen ein Produkt mit berücksichtigen sollte, weil der Bereich aus dem die Unternehmen kommen, meist am stärksten ausgeprägt ist.

Wie anfangs schon geschrieben, würde ich mich über Feedback freuen und den Beitrag gerne aktualisieren, wenn an der einen oder anderen Stelle noch Verbesserungsbedarf besteht. Klicken Sie einfach auf Kommentieren oder schreiben Sie mir eine Mail.