Analytics-Anforderungen KMU – Werkzeuge & Daten

In der aktuellen t3n (Ausgabe 42) ist ein Beitrag über Analytics-Tools für Start-ups bzw. kleinere Unternehmen. Darin werden einige Klassen von Werkzeugen besprochen. Grundsätzlich ist das nicht schlecht. Allerdings wirkt der Artikel schon so, als ob viele Fragestellungen nur mit diesen Tools zu lösen seien. Anschließend werden die Daten aus jeglicher Quelle Dashbord-Lösung gepackt und alles ist gut.  Hierzu gibt es einiges zu sagen. Ich erläutere deshalb hier rudimentär welche Analytics-Daten zur Steuerung eines Web-Projekts notwendig sind.

Google Analytics Homepage vor Login
Google Analytics Homepage vor Login

Analytics-Speziallösungen müssen administriert und gelernt werden

Vor allem wird die Mächtigkeit von Google Analytics als Werkzeug unterschätzt. Mit Custom Reports und Event-Tagging lässt sich vieles lösen und beantworten, wozu es kein Spezialwerkzeug braucht. Vor allem wurde im Beitrag ignoriert, dass auch Apps mit Google Analytics messbar sind. Die Daten kommen damit aus der gleichen Welt. Das hilft, weil nicht noch weitere Werkzeuge administriert und verstanden werden müssen. Fatal ist dann mitunter auch die Notwendigkeit zur Betreuung weiterer Schnittstellen. So schön in vielen Dashboards Daten aufbereitet werden – dedizierte Schnittstellen zu allen Werkzeugen, die eingesetzt werden gibt es meistens nicht. Ein oder zwei fehlen meistens. Eine eigene Datenhaltung und die Entwicklung eigener Schnittstellen wird notwendig. Das kostet Geld, Zeit und v.a. Nerven. Je weniger Analytics-Tools im Einsatz sind, um so effizienter kann mit den Resultaten umgegangen werden. Klar – die Google Analytics- bzw. Universal Analytics-Nutzverwaltung und die Weitergabe von Reports ist ein Ding an dem Google dringend arbeiten sollte. Allerdings hat eine so weit verbreitete Lösung einen entscheidenden Vorteil: Es gibt viele, die sich damit auskennen. Das spart Kosten. zudem lassen sich sogar Daten aus fremden Quellen integrieren.

A/B-Tests nicht vergessen!

Onsite würde ich kaum zu einem weiteren reinen Analytics Tools raten – außer natürlich zu Werkzeugen für A/B-Tests. Hierfür ist Google Analytics wirklich nicht die optimale Lösung. Ich mag hierfür Optimizely. Das lässt sich auch von kleineren und mittleren Unternehmen einsetzen. Diese Klasse an Analytics-Tools fehlt im Artikel. Im Marketing sind noch einige weitere Werkzeugklassen wichtig, die Werte generieren, die im Rahmen der Analytics relevant sind bzw. in Dashboards integriert werden müssen.

Onsite-Analytics heißt auch Performance und SEO

Bleiben wir bei der Website: Da sollten Werkzeuge zur Analyse der technischen Performance der Website im Einsatz sein. Wenn das Ding zu langsam wird, dann gibt es nicht nur Ärgern mit den Nutzern – auch die SEO leidet. Womit wir bei nächsten Punkt wären: SEO-Tools liefern auch wichtige Daten und geben Handlungsempfehlungen. In den Tools bekommt man diese früher als sich diese im organischen Traffic bei Google Analytics bemerkbar machen. Sicher – man kann sich über die Indices streiten, die Searchmetrics oder XOVI et al. produzieren streiten, grundsätzlich sind diese hilfreich. Die Werte gehören in ein Überblicks-Dashboard für die Marketing-Leitung. Zudem ergeben sich dadurch auch noch Hinweise hinsichtlich der Arbeit von Wettbewerbern.Wenn man einen Shop betreibt, dann ist die Bonität seiner Kunden wichtig. Auch die Ergebnisse dieser Prüfungen sollten aus dem E-Commerce-System oder auf anderem Wege einer Bewertung zugeführt werden.

Management-Werkzeuge liefern auch Analytics-Daten – was ist damit?

Verlässt man Website und App, dann geht es um die Zuleitungen zur Website. Ein sehr wichtiges Bindungswerkzeug in diesem Bereich ist die E-Mail. Man sollte beispielsweise einfach wissen, wenn die Öffnungsraten der Mails plötzlich sinken, Bounce Rates steigen etc. Grundsätzlich ist dafür kein extra Analytics-Werkzeug notwendig. Kampagnen-Werkzeuge verfügen i.d.R. über eine Auswertungs-Instanz. Die Daten müssen nur aus dem Werkzeug herausgeholt und in das Übersichts-Dashboard integriert werden. Ach ja – es sind auch noch Werte für die eigene Datenhaltung. Dazu hätte ich mir auch noch etwas in dem Artikel gewünscht: Wie geht man mit Analytics-Daten um, die in einem anderen Werkzeug eher nebenbei anfallen – wie dem E-Mail-Tool einem CMS oder einem Social Media Management-Werkzeug wie Hootsuite.

Genau analysieren, wie Werbemaßnahmen wirken

Relevant sind in diesem Zusammenhang auch die Daten von AdServern – schließlich sollte man nicht nur wissen wie oft jemand auf der eigenen Website gelandet ist, sondern auch, wie oft die eigene Display-Werbung im Netz gesehen wurde, welche Werbemittel funktionieren und welche nicht. Gerade im Bereich der zunehmenden Kontingenz von Bewegtbildwerbung über das Internet und bei Fernsehwerbung gibt es noch beträchtlichen Entwicklungsbedarf. Ich gestehe: Die Baustelle Bewegtbildwerbung und Analytics ist tendenziell etwas für größere Unternehmen.

Dashboards

Im Beitrag wird ganz richtig darauf verwiesen, dass bei all den unterschiedlichen Datenquellen eine Dashboard-Lösung notwendig ist, um den Überblick zu behalten. Es werden auch viele brauchbare Lösungen genannt. Allerdings fehlt Tableau. Hinsichtlich der Möglichkeiten zur Visualisierung ist das wirklich klasse. Zudem gibt es Tableau zu Preisen, die auch ein KMU bezahlen kann.

Das was ich jetzt geschrieben habe, ist auch nicht umfassend. Ich kann nur dazu raten sich entlang der gesamten stattfindenden Prozesse zu hangeln. In diesem Zusammenhang sollte man sich über seine Ziele klar sein. Nur so kann man nach Fragen Ausschau zu halten, die beantwortet werden sollten, um das Projekt zu optimieren. Tja – und dann geht es darum, zu sehen welche Werte Antworten auf die Fragen geben bzw. bei der Entscheidung helfen. Das müssen nicht sonderlich viele Werkzeuge sein – auch wenn es die gibt und sie an sich toll sind.

Tailwind App – ein Pinterest-Analytics Tool

Pinterest-Analytics Tools hab ich schon einige beschrieben. Die Tailwind App ist mittlerweile ziemlich wichtig geworden. Sie hat 9.000 Kunden. Das ist nicht zu unrecht so. Mir gefällt das Werkzeug ausgesprochen gut. Es ist für alle alle Unternehmensgrößen einsetzbar und eine richtig gute Hilfe wenn man den eigenen Erfolg auf Pinterest monitoren und Potenziale zu Optimierung finden möchte. Ich kann den Test des Werkzeugs nur empfehlen. Immerhin hat das Unternehmen jetzt 15 Mitarbeiter. Das garantiert aus meiner Sicht den stabilen Bestand des Werkzeugs.

Das Tailwind App Dashboard

Der gute Eindruck beginnt schon mit dem Dashboard. Es ist aufgebaut wie das bei einem Dashboard der Fall sein sollte. Am Kopf sieht man 4 KPIs und deren Entwicklung. Darunter befindest sich eine Abbildung, die sich auf jede der Kennzahlen anwenden lässt. Die Übergänge in den Ansichten sind wirklich sehr schön gelöst. Ich muss sagen, dass ist wirklich toll gemacht. Neben Standard-Zeitschnitten kann man das Tailwind App Dashboard auch auf selbst gewählte Zeitschnitte anpassen.

Das Tailwind App Dashboard
Das Tailwind App Dashboard

Das ist nicht alles. Das Dashboard hat im unteren Bereich drei Performance Scores. Dabei wird der für Pinterest wichtigste Wert zuerst gezeigt: Die Viralität. Also der Wert der angibt, wie stark sich die Pins verbreiten. Im Engagement Score wird dies dann zusätzlich auf die Zahl der Follower bezogen. BTW: Ich finde es sympathisch und professionell, dass die Kennzahlen im FAQ des Hilfebereichs alle sauber definiert werden. Das gibt es auch nicht bei jedem Werkzeug.

Die Zahlen kann man sich übrigens auch noch bezogen auf die einzelnen Boards eines Accounts ausgeben lassen. Gerade bei Unternehmen mit vielen Produktsparten erleichtert das die Übersicht. Alle Daten sind übrigens in der Professional Version als CSV exportierbar. Erschrecken Sie bitte nicht, wenn Sie das zum ersten mal machen. Sie erhalten für jeden einzelnen Tag einen Eintrag. Was im ersten Moment vielleicht ein wenig unübersichtlich wirkt, ist super, wenn man die Daten weiterverarbeiten möchte.

TailwindApp Engage Modul

Die TailwindApp zeigt einem übrigens auch bei welchen Nutzern sich ein wenig Engangement lohnt. Dabei ist bekommt man Übersichten hinsichtlich der Pin- und Repin-Aktivitäten. Es wird gezeigt, welchen der Pinner man folgt und welchen nicht. Durch einen einfachen Klick gelangt man zu den Accounts der relevanten Pinner.

TailwindApp Followers
TailwindApp Followers

Was hier noch ganz hübsch und sinnvoll aussieht, wir dann datenschutzrechtlich bedenklich, wenn man die Übersicht der Pinner von der eigenen Website ansieht. Diese Option hilft herauszufinden wer ein wahrer Fan ist. Gleichzeitig ist diese Transparenz schon ein wenig erschreckend – auch wenn in diesem Fall nur der Eigentümer eines Accounts diese Information bekommt.

TailwindApp Content Optimierer & ROI

Ich zweifele ein wenig – ist es schwer oder leicht über die Tailwind App zu schreiben? – Das Werkzeug ist einfach ziemlich umfangreich und dafür, dass es Pinterest erst so kurz gibt gewaltig gut. Man kann damit die Engagement-Zahlen zu den eigenen Pins entsprechend verschiedener Zeitschnitte bekommen. Es ist möglich zu filtern. Das ist einfach toll und zeigt wohin die Reise gehen soll. Man sieht eben sehr schnell, welche Pins erfolgreich sind und welche nicht. Dies kann sogar abhängig vom Pin-Zeitpunkt analysiert werden. OK – es ist auch stark vom Zeitpunkt des Pinnens abhängig.

TailwindApp Engagement Zeitpunkte
TailwindApp Engagement Zeitpunkte

Die Entwickler wählen die mittlerweile für diesen Zweck übliche Darstellung – vielleicht kennen Sie diese im Zusammenhang mit Twitter aus SocialBro. Noch ist es nicht möglich europäische Zeitzonen zu wählen. Das wird mit zunehmender Aktivität von Pinterest ist Europa sicher bald kommen. Mir wurde gesagt, dass dieses mit einem der nächsten Updates kommen wird.

Möglich ist schon die Verknüpfung mit einer Google Analytics Property. Das sollte in den meisten Fällen ausreichend sein, um den ROI vom Pin an sich bis zu Käufen durchzumessen. Wenn man allerdings mehrere Websites betreibt und diese mit unterschiedlichen Properties misst, wäre die Verbindung mit mehreren Properties hilfreich. Auch dies kann ja noch kommen – es wurde wohl schon von einigen Kunden gewünscht.

 

TailwindApp Konkurrenzbeobachtung

Wie gesagt: Die TalwindApp hat schon ziemlich viel von dem drin, was man in den Social Media Analytics so braucht. Möglich ist ja an einigen Stellen deutlich mehr als bei der Analyse der eigenen Website. So können viele Daten auch für Wettbewerber analysiert werden. Das ist in der TailwindApp sehr leicht konfigurierbar und ziemlich gut gestaltet.

TailwindApp Benchmarks
TailwindApp Benchmarks

In der Abbildung können Sie sehen, wie cipr, Klaus Eck und ich eigentlich relativ einträchtig nebeneinender die Zahl von Pins aufbauen. Der Kollege Klaus Eck fällt etwas ab, dafür schließt Christian Müller, den Sie vielleicht von der Karrierebibel kennen, stark auf. Man kann das Ganze auch auf der Basis weiterer Kriterien – Followern, Repins, Likes und Kommentaren – analysieren. Viel spannender dürften für Unternehmen jedoch die Domain-Benchmarks sein. Darin wird gezeigt, wie stark von den Websites der Wettbewerber gepinnt wird.

Resümee

Die TailwindApp hat auch eine Nutzerverwaltung, man kann sich auch Reports per E-Mail zuschickten lassen (auch mit CSV-Anhang) und es gibt noch einige weitere Merkmale, die das Tool richtig erwachsen und andere kleinere Werkzeuge überflüssig erscheinen lassen.  Ich finde das Werkzeug richtig gut. Die 99 US$ für die Pro Version ist angemessen und lohnend für Unternehmen, die sich auf Pinterest engagieren. Das wir immer wichtiger, das Pinterest nun in der Werbemarkt einsteigt und sich schon große Markenartikler für Werbung auf Pinterest interessieren.

 

Goldbach Interactive – Social Media Monitoring Tool Report 2013

Es ist nicht meine Art, fremden Content auf meinem Blog zu platzieren. Hier halte ich es ausnahmsweise für angebracht. Goldbach Interactive hat sich wieder die Arbeit gemacht und superviele Monitoring Tools angeschaut.

Auch wenn ich zu einigen Ergebnissen meine eigene Meinung habe und für diskussionswürdig halte, sollte man sich schon anschauen was Goldbach so gemacht hat.

Mit dem Klick auf die Infografik gelangt man zu Goldbach.

Infografik Social Media Monitoring Toolreport 2013, Goldbach Interactive (Switzerland) AG

lala

Anforderungen an Pinterest Analytics & Monitoring

Pinterest ist ein großer Wurf. Das scheint sicher. Hier sind sich die Forscher von ComScore und compete.com einig. Auch im Februar legte der Foto-Bookmark-Dienst wieder ausgesprochen kräftig zu – beinahe 50 Prozent. Dann scheint es auch noch so zu sein, dass Pinterest mehr sehr viel Referral-Traffic liefert als andere Social Media Plattformen. Dies ist Grund genug zu schauen, wie man das Phänomen aus Sicht der Social Media Analytics und des Monitoring angehen sollte, um die Leistung möglichst realistisch zu bewerten und einzuordnen. Erste Dienste, die ein entsprechendes Dashboard entwickelt haben, gibt es bereits – Pinerly & PinReach. Allerdings ist die Datentiefe noch etwas mager. Es handelt sich um Daten, die über das Pinterest API ausgewertet werden – diese beziehen sich eben nur auf die eigene Page. Das ist aber noch lange nicht alles, was an Referral Traffic produziert wird. Deshalb formuliere ich hier eine erste systematische Anforderung. Dabei gehe ich davon aus, dass Methoden der Analytics und des Monitoring kombiniert genutzt werden müssen, um den Effekt von Pinterest umfassend beurteilen zu können.

Bitte beachten Sie, dass hier eine Maximalanforderung formuliert wird. Eine Aufwandsabschätzung findet nur rudimentär statt. 

Wie wird gepinnt?

Die erste und entscheidende Frage ist tatsächlich, wie gepinnt wird. Dafür gibt es unterschiedliche Wege. Durch die folgende Abbildung wird deutlich, dass es sich bei über drei Viertel der Pins um sogenannte Repins handelt – also um solche, die von Nutzern aus einem anderen Board in das eigene oder ein anderes Board übertragen wurden.

Methoden des Pinnens (Quelle: RJMetrics)
Methoden des Pinnens (Quelle: RJMetrics)

Der wichtigste Weg, auf dem Bilder originär auf Boards gepinnt werden, ist die Verwendung des sogenannten Pinmarklets. Daneben gibt es Browser-Erweiterungen. So kann man beispielsweise durch die Verwendung der rechten Maustaste pinnen oder auch, indem man ein „P“ anklickt, das bei dem Mousover einer Grafik auf derselben erscheint. Viel weniger wichtig ist die Direkteingabe von Bild-Adressen auf Pinterest selbst. Die Erweiterungen und die Direkteingabe wurden in obiger Abbildung unter „other“ subsumiert.

Wenn man sich nun dafür interessiert, was von der eigenen Website gepinnt wurde, dann lässt sich das im Überblick relativ leicht ermitteln. Die Kollegen von futurebiz.de haben freundlicherweise darauf hingewiesen. Pinterest zeigt alle Bilder an, die von einer Domain gepinnt wurden. Dabei ist jeweils sogar die Zahl der Repins enthalten:

Pinterest Source Function
Pinterest Source Function

Die Funktion ist relativ einfach:

http://pinterest.com/source/Ihre_Domain/

Wenn man an der Stelle von „Ihre_Domain“ die eigene einträgt, bekommt man eine Übersicht vergleichbar der obigen Abbildung angezeigt. Freilich gibt es dabei einiges zu beachten.

  • Es handelt es sich lediglich um Pins, die durch die Verwendung des Marklets gemacht wurden.
  • Wird ein Bild der gleichen Domain mehrfach direkt gepinnt, so wird es jeweils einzeln angezeigt. Das ist in obiger Abbildung leicht zu erkennen. Ebenso werden Repins dieser Bilder einzeln zu den Pins zugerechnet.
  • Der Zeitraum für den Ergebnisse gezeigt werden, ist begrenzt.
  • Wenn mehrere Domains benutzt werden, müssen alle einzeln analysiert werden.
  • Bilder, die kopiert und auf anderen Plattformen eingebunden wurden, können auf diesem Weg nicht erfasst werden.

Man sollte sich also darüber klar sein, dass etwa ein Siebtel der Pins mit dieser Methode nicht gezählt werden. Das ist durchaus zu verschmerzen. Man könnte prinzipiell einfach hochrechnen. Allerdings ist zu vermuten, dass die Verwendung von Browser-Erweiterungen zunehmen wird. Studien wie die von RJMetrics müssten also regelmäßig durchgeführt werden. Zudem müssten Anhaltspunkte hinsichtlich der Verwendung des Marklet und der Nutzer von Browser-Erweiterungen etc. gewonnen werden. Im ersten Schritt ist dies aus meiner Sicht aber nachrangig.

Für das strukturierte Arbeiten wäre es ausgesprochen hilfreich, wenn die Daten für ein Bild zusammengefasst erhältlich wären. Von Pinterest werden diese Daten leider nicht in dieser Form angeboten. Die Daten manuell aufzusummieren, ist auch nicht allzu erquicklich.

Datenaufbereitung der Pins, Repins & Kommentare

Es wird rasch deutlich, dass gerade für Unternehmen mit vielen Produkten und einem großen Fanpotenzial die oben angesprochene Einfachmethode kaum ausreichen wird, um effizient zu arbeiten. Für die Bekleidungsunternehmen wird Pinterest eine wichtige Plattform zur Generierung von Traffic werden.

In einem ersten Schritt müssen die Werte für die Pins gleicher Inhalte zusammengeführt werden. Auf den ersten Blick sieht das nicht schwierig aus: Man zählt die Bilder durch und addiert Repins und Kommentare jeweils auf. Was manuell – also durch den Einsatz menschlicher Arbeitskraft zwar aufwändig, aber absolvierbar ist, stellt für einen Automaten vor eine große Herausforderung dar. Die Ursache hierfür ist in der Tatsache zu finden, dass Pinterest zumindest in der Bildausgabe, jede einzelne Grafik mit einem individuellen Namen versieht. Aus der Perspektive von Pinterest ist dies wahrscheinlich sogar zwingend, damit Bilder, die repinnt wurden, nicht verschwinden, wenn das originale Pin gelöscht wird.

Eine neue Anforderung kommt auf die Social Media Analytics und das Social Media Monitoring zu: Bilder müssen unabhängig vom Dateinamen erkannt werden oder – und dies ist wahrscheinlich der einfachere Weg – alle Links angeklickt werden, um in einer eigens konstruierten Datenbank jedem Pin einen Ziel-URL zuzuordnen und hierüber die eindeutige Identifikation des Produkts etc. zu gewährleisten. Dennoch ist dies auch keine ganz einfache Aufgabe: Bei Textilwebsites werden Produkte beispielsweise mehrfach an verschiedenen Positionen in die Website eingehängt, es gibt Bekleidungsstücke in unterschiedlichen Farben, die Websites verschiedener Unternehmen funktionieren unterschiedlich etc. In der folgenden Abbildung für

http://pinterest.com/source/gap.com/

können Sie beispielsweise in der rechten Bildspalte das gleiche Bild mit und ohne Preisangabe finden.

Mehrfach gleiche Bilder und Bilder in verschiedenen Versionen bei GAP
Mehrfach gleiche Bilder und Bilder in verschiedenen Versionen bei GAP

Es geht nun darum, mit welcher Granularität die Anforderung umgesetzt werden soll. Sollten tatsächlich verschiedene Platzierungen auf einer Website und verschiedene Farbvarianten eines Produkts zusammengefasst werden, so sehe ich keine allgemeine Lösung. Es würde sich jeweils um eine individuelle Anpassung pro Website (einer bestimmten Funktionsweise) handeln. Deshalb gehe ich davon aus, dass zunächst der allgemeinere Ansatz hinsichtlich der Zuordnung von Ziel-URLs zu Bildern realisiert wird. Um im daraus generierten Report die Übersicht zu erleichtern, könnte dieser entsprechend eines Pages-Reports in einem Web-Analytics Tool  aufgebaut sein. Dort werden i.d.R. die URLs in Verbindung mit den Page Titles gezeigt, um den Nutzern die Übersicht zu erleichtern.

Die Dimension wäre in diesem Fall also der URL in Verbindung mit dem Page Title. Als Metriken sollten dienen

  • Zahl der Original Pins,
  • Zahl der Likes
  • Zahl der Repins
  • Zahl der Comments

Diese Auswertung kann für die eigene und beliebige weitere Websites durchgeführt werden. So kann beispielsweise auch die Aktivität für verschiedene Länderwebsites gemessen werden, Wettbewerber können beobachtet werden etc.

(Noch) keine Reichweitenzahlen

Wichtig ist an dieser Stelle allerdings, dass die einfache Nutzung der Inhalte in Form von Views derzeit nicht messbar ist. D.h. es ist ebenso wie bei Twitter. Allerdings sind Views bei Twitter schon alleine aus seiner technischen Struktur heraus nicht messbar. Bei Pinterest würde das technisch schon funktionieren – die Plattform müsste es realisieren und die Daten ihren Nutzern zur Verfügung stellen. Hierbei könnte es zu Problemen hinsichtlich des Datenschutzes kommen. Aus meiner Sicht sind hier nur zwei Wege denkbar:

  • Grundsätzlicher Zugriff auf alle Daten
  • Zugriff auf Daten der eigenen Domain, bzw. auf im Zugriff befindliche Domains

Strukturierung der Daten

Es handelt sich dabei um quantitative Daten, die durchaus mit denen von Facebook vergleichbar sind. Dabei sind im Grunde genommen alle Pins, die nicht selbst gesetzt wurden „viral“ – um in der Facebook-Nomenklatur zu bleiben. Insgesamt lassen sich die Daten abbilden, wie dies bei Facebook seit Herbst 2011 gemacht wird. Allerdings gibt es nach die oben angesprochenen Lücken hinsichtlich der Nutzung – also weder Reichweitendaten noch Daten hinsichtlich VIews:

Pinterest Daten in Facebook Struktur
Pinterest Daten in Facebook Struktur

Sentiment?

Social Media Monitoring Tools werten auch das sogenannte „Sentiment“ aus. Es wird dabei ermittelt, ob die Aussage innerhalb eines Kommunikats positiv, neutral oder negativ ist. Dabei wird das Produkt, die Organisation, das Thema etc., auf die sich die Aussage bezieht, aus dem Text an sich herausgelesen. Pinterest nennt hier an der konkreten Stelle lediglich die Domain der Website. In vielen Fällen wird im oft knappen, dafür aber stark wertenden Text kein Name oder ähnliches zur Identifikation genannt. Auch für den Zweck des Monitoring muss also dem Link gefolgt werden, um den Text zuzuordnen und weiter zu qualifizieren. Der Produktname steht in den allermeisten von mir getesteten Fällen auf der Zielseite des gezeigten Bildes, müsste allerdings auch automatisiert identifiziert werden. Dabei handelt es sich um eine Aufgabe, die im Crawling von Informationen durchaus bekannt ist bisher nach meinem Wissen jedoch noch nicht im Monitoring eingesetzt wurde.

Pins eigener Produkte von fremden Websites

Insgesamt ist die Lage jedoch noch um ein Stück komplexer. Die eigenen Produkte werden in vielen Fällen ja nicht nur über die eigene Website vertrieben, sondern auch über viele andere Plattformen. Wenn man nun wissen möchte, wie oft die eigenen Produkte gepinnt werden, dann wird es knifflig. Wenn es darum geht, die Kommentare auf Produktbewertungsportalen zu monitoren, ist das auch nicht ganz einfach. Der Produktname wir leider nicht immer einheitlich geschrieben. Im Falle von Pinterest erhält man den Produktnamen mitunter erst nach zwei Klicks. Die große Frage ist dann, wo der Produktname steht, um ihn der Bewertung unterhalb des Produktbilds zuzuordnen. Nach meiner Einschätzung erfordert dies jeweils starke manuelle Eingriffe bei der Einrichtung des Monitoring für einen Kunden. Meistens steht der Produktname im Titel der Seite. Dieser Titel hat dann oft auch noch eine Erweiterung, wie beispielsweise „kaufen im Laden XY“. Diese Erweiterung ist glücklicherweise auch fast immer gleich, so dass diese automatisiert gelöscht werden kann.

Leider gibt es noch eine weitere Schwierigkeit: Auch wenn die Unternehmen ihre Stammdaten per CSV oder auf anderen Wegen an Händler übergeben, so lassen viele Online-Shops den Produktnamen nicht unberührt. Der Name wird im Sinne der SEO bearbeitet und erweitert. Aus Jacket wird Jacke, der Verwendungszweck wird ergänzt, etc. Das alles ist für den Verkauf richtig und wichtig. Für das Monitoring verursacht es einen nicht zu unterschätzenden Aufwand. Ob dieser für eine automatisierte Rücktransformation gerechtfertigt und notwendig ist, muss in der Diskussion mit dem Kunden eruiert werden. Eine allgemeine Lösung ohne Anpassungsaufwand kann ich mir derzeit nicht vorstellen.

Tracking von Pins auf der eigenen Website

Ein anderer Weg, den man einschlagen kann, um zu einer Einschätzung darüber zu gelangen, wie häufig Bilder von der eigenen Website gepinnt werden, besteht darin, dies auch auf der eigenen Website zu tracken. Ganz einfach ist das nicht, da beispielsweise der Pin-Button in einem I-Frame untergebracht ist. Eine Lösung bei der Verwendung von Google Analytics wurde von Luna Metrics formuliert.

Leider bezieht sich diese Methode zum einen nur auf Google Analytics. Hinweise zur Umsetzung in anderen Tools gibt jedoch es schon: Events können auch in Webtrends oder Adobes Omniture getrackt werden. Zum anderen – und das ist erheblich wichtiger – bezieht sich diese Methode nicht auf das Tracking unter der Verwendung des Pinmarklet, das am häufigsten zum Pinnen benutzt wird. Hier müsste auf jeden Fall geprüft werden, ob ein Tracking möglich ist. Pinterest ruft zwar das zu pinnende Bild vollständig beim Server ab. Diese Information stünde dann allerdings nur im Server-Logfile. On Demand Services wie Omniture könnten diese Information nicht auswerten. Hier wäre Webtrends on Premise im Vorteil. Eleganter wäre es, den Einsatz des Marklet an sich zu tracken, auch wenn hierbei nicht klar ist, welches Bild einer Page tatsächlich gepinnt wird. Das Marklet zeigt alle pinnbaren Bilder einer Page an und der Nutzer entscheidet durch einen Klick, welches er pinnen möchte. Ob tatsächlich gepint wurde, würde man mit dieser Methode auch nicht messen können. Tatsächlich gemessen würde lediglich die Auslösung des Marklets.

Pinterest Marklet: Oft viele Bilder
Pinterest Marklet: Oft werden viele Bilder angezeigt.

Es könnte also kaum zugeordnet, werden um welches Produkt es sich handelt. Allerdings wäre durch den Ziel-URL die Zuordnung zu einer Produktgruppe möglich.

Tracking des Referral Traffic

Das Tracking des Referral-Traffic muss in der Web-Analytics Applikation erfolgen. Für die Referrer gibt es in allen mir bekannten Lösungen Standard-Reports. Diese müssen dann nur noch auf Pinterest gefiltert werden, was auch meistens möglich ist. Für Google Analytics gibt es eine entsprechende Erläuterung.

Ratsam ist es die eigenen Pins mit Kampagnen-Codes zu versehen, dann kann der Erfolg der eigenen Pins mit dem Gesamterfolg in Relation gestellt werden. Das Vorgehen mit Google-Analytics ist denkbar einfach – auch wenn die Bearbeitung derzeit noch manuell erfolgen muss und etwas Aufwand verursacht, der aus meiner Sicht vertretbar ist. In der folgenden Abbildung, sehen Sie die beispielhafte Generierung der Tracking URL für diesen Artikel:

Google-Analytics Gernerierung Pinterest Tracking URL
Google-Analytics Gernerierung Pinterest Tracking URL

Wenn man ein Produktbild oder wie ich ein Bild aus diesem Artikel pinnt, dann kann man bei Pinterest im ersten Schritt den URL des Bildes nicht editieren, wohl aber wenn man wen man das Bild anschaut und auf Edit klickt. Sie müssen dann einfach die Tracking-URL in das entsprechende Feld kopieren (Link):

Editieren der Pinterest Tracking-URL
Editieren der Pinterest Tracking-URL

Wenn man einen eigenen Report für Pinterest haben möchte, so lässt sich das mit Produkten der Enterprise Klasse auch recht einfach lösen. Es wird ein Report angelegt, der entsprechend gefiltert ist. Wenn man es für erforderlich hält, kann man auch noch resultierenden Umsatz zuordnen und Bounces – also Besuche mit nur einem View – aus dem Report herausfiltern.

Hinweise & Diskussion?

Ich würde ich über Hinweise und eine lebhafte Diskussion freuen!

Social Media Monitoring – Kriterien zur Auswahl eines geeigneten Werkzeugs

„Social Media Monitoring“ wird derzeit heftig diskutiert und scheint zudem ein hart umkämpfter Markt zu sein. Ein Indikator dafür ist die Anzahl der Keyword-Anzeigen, die bei Google für die Phrase aktiv sind. Die Seite ist voll! Gleichzeitig heißt das aber auch, dass es viele Anbieter gibt und der Aufwand zur Auswahl der geeigneten Software bzw. des geeigneten Produkts hoch ist.

Wenn Sie sich bereits ein wenig im deutschsprachigen Web umgeschaut haben, werden Sie schon einige ähnliche Beiträge gefunden haben. Stefanie Aßmann hat sich beispielsweise in ihrer Masterarbeit mit dem Thema beschäftigt, betreibt ein Blog dazu und steuert dankenswerterweise auch noch Informationen zu einem Wiki bei, Alexander Plum hat einen Anbietervergleich veröffentlicht und es gibt noch zwei Anbieterübersichten, die relevant sind.

Hier möchte ich mich eher auf einige Hintergründe und Funktionsweisen der Tools beschränken und Kriterien herausarbeiten, die bei der Auswahl des richtigen Werkzeugs helfen. Ich erhebe dabei keinen Anspruch auf Vollständigkeit und allgemeine Gültigkeit meiner Bewertungen. Sollten Ihnen weitere Kriterien wichtig erscheinen oder Sie anders bewerten, dann würde ich mich über Ihre Hinweise freuen (datenonkel(at)gmail(.)com).

Beginnen möchte ich an dieser Stelle mit einer Begriffsklärung – also mit dem, was unter „Social Media Monitoring“ verstanden wird. Einerseits geht es um „Social Media“ und andererseits um „Media Monitoring“. Das ältere Begriffspaar ist „Media Monitoring“.

Media Monitoring

In größeren Unternehmen gab es schon vor recht vielen Jahren Pressespiegel in Papierform, die täglich oder wöchentlich herumgereicht wurden. Der Kopierer war hierfür sehr hilfreich. Die Presse wurde ausgewertet, damit Vermutungen darüber angestellt werden konnten, wie das eigene Unternehmen und auch Konkurrenten in der öffentlichen Kommunikation eingeschätzt werden. Die Datenerfassung wurde zunächst in den PR-Abteilungen der Unternehmen vollzogen. PR-Agenturen und spezialisierte Dienstleister übernahmen und übernehmen diese Aufgabe noch immer. Mittlerweile gehört es auch zum guten Ton der PR-Dienstleister, die eigene Leistung mit entsprechenden Auswertungen zu belegen. Wenn beispielsweise der Wetterreporter eines Fernsehsenders die Jacke eines Sponsors trägt, wird belegt, wie lange die Jacke inkl. Logo des Herstellers im Bild war und wieviele Personen lt. GfK-Meter vor den Bildschirmen saßen. Natürlich werden die Daten noch qualifiziert – d.h. es kommen Demographika, wie Alter und Geschlecht der Zuschauer und sonstige Daten hinzu. Auf einem ähnlichen Weg werden übrigens die Werbeausgaben für Print und TV gemessen. Es werden Anzeigenmillimeter vermessen, die mit Preisen multipliziert werden und als Qualifizierung kommen die Werbeträger und die Namen der Werbungtreibenden hinzu.

In jüngerer Zeit haben die Presseunternehmen begonnen, Pressespiegel elektronisch zu ermöglichen und die Auswertungen zu automatisieren – beispielsweise die PMG Presse-Monitor GmbH (http://www.pressemonitor.de). Insgesamt ist es also mehr als nur naheliegend, das Monitoring auch auf Social Media zu übertragen und dies automatisiert durchzuführen.

Social Media

Social Media werden häufig mit Web 2.0 gleichgesetzt – was hier auch definiert werden müsste. Die Erläuterung und das Verständnis für Social Media fällt erheblich leichter, wenn man diese von traditionellen On- und Offline-Medien abgrenzt. Das trennende Kriterium ist der nutzergenerierte Inhalt – also Inhalt, der von Menschen außerhalb dieser Medien produziert und publiziert wird. Diese Inhalte können öffentlich oder halböffentlich publiziert werden, wobei das Publizieren keine notwendige Bedingung an sich ist, wohl aber das Kriterium hinsichtlich der Inhalte, die im Rahmen des Social Media Monitoring erfasst und analysiert werden sollen. Freilich sind dabei die Übergänge fließend. In den angesprochenen Medieninstitutionen wird auch gebloggt, es werden Facebook-Pages gepflegt und es wird getwittert. Auch ehemals unabhängige Blogger finden mitunter ihren Weg in Medienorganisationen oder haben Werbeerlöse.

Damit wären wir auch schon bei den Inhalten, die analysiert werden. Es handelt sich ausschließlich um öffentlich zugängliche Inhalte. Inhalte, die auf Plattformen wie Facebook oder G+ unter Freunden geteilt werden, sind nicht öffentlich und können damit nicht erfasst und analysiert werden.

Funktionen von Social Media Monitoring Werkzeugen

Die Funktionen von Social Media Monitoring Werkzeugen lassen sich in drei Bereiche einteilen:

  1. Datenerfassung/-erhebung
  2. Datenanalyse/-aufbereitung
  3. Interaktion

Im Grunde handelt es sich bei den ersten beiden Stufen um eine Inhaltsanalyse, wie sie aus der Kommunikationswissenschaft bekannt ist. Es findet dabei eine kontinuierliche Datenerhebung und -auswertung statt.

Datenerfassung/-erhebung

Zunächst stellt sich die Frage, was analysiert werden soll. Dabei werden von den Monitoring Tools meist verschiedene Klassen unterschieden – beispielsweise

  • Blogs
  • Microblogs (z.B. Twitter)
  • Communities
  • Network-Plattformen
  • E-Commerce-/Produktbewertungsplattformen
  • Klassische Medieninhalte

Für den Kunden ist es natürlich wichtig, dass alle relevanten Kommunikate mit Meinungsäußerungen erfasst werden. Dabei ist nicht nur die vollständige Erfassung eines aktuellen Standes wichtig – also die Berücksichtigung aller relevanten Plattformen zu einem bestimmten Zeitpunkt. Wichtig ist auch, dass neue Plattformen zeitnah in die Erfassung eingehen. Hierbei hört man von den Anbietern mitunter ein beschwichtigendes “Kein Problem – wenn mal ein Blog nicht erfasst wird, dann geben sie uns einfach die Adresse und – schwupps – wird es mit ausgewertet”. Das sollte jedoch nur die Mindestanforderung des Kunden sein. Wirklich hilfreich wäre es für den Kunden, wenn er automatisch und zeitnah solche neue Plattformen mit Hilfe der Tools identifizieren könnte.

Gerade für Blogs, die nicht wie dieses hier bei einem der großen Anbieter direkt liegen, sondern auf eigenen Servern, ist die Identifikation nicht einfach. Die Tools können nicht den Datenbestand einer großen allgemeinen Suchmaschine wie Google, Bing oder den vergleichbarer Unternehmen aus Russland oder China haben. Die Anforderungen an die Tools sind andere:

Vollständigkeit

Möglichst alle Äußerungen zu einem Thema, Unternehmen, Produkt etc. sollen erfasst werden. Das wäre bei einer allgemeinen Suchmaschine ganz ähnlich. Allerdings sucht diese mitunter nicht so tief. Je nach Markt und Sprache können Lücken in der Datenbasis bestehen. Ob es akzeptabel ist, dass diese erst im Rahmen eines Kundenprojekts gefüllt werden, hängt von der Frage- bzw. Aufgabenstellung ab.

Granularität

Die Kommunikate müssen strukturierter erfasst werden, als dies bei einer allgemeinen Suchmaschine der Fall ist. Der Absender/Kommunikator muss beispielsweise identifiziert werden. Es sollte festgestellt werden können, ob es sich um eine „Erstpost“ – einen vielleicht längeren Text mit Bewertungen handelt, ob es sich um einen Kommentar zu einem Erstpost handelt, eine Weiterleitung etc.

Aktualität

Die Daten sollen möglichst zeitnah zur Verfügung stehen. D.h. beispielsweise, dass bestimmte Plattformen in Zeitschnitten unter zwei Stunden erfasst werden können müssen, Objekte wie die eigenen Facebook-Pages müssen möglichst nahe an Realtime abgefragt werden können. Bei anderen reicht es, wenn die Abfrage ein bis viermal täglich erfolgt.

Stabilität

Die Datenerfassung muss stabil und kontinuierlich erfolgen – es dürfen keine längeren Downzeiten entstehen. Dies betrifft insbesondere die zeitsensitiven Bereiche. Die Erfassung der Daten kann aufgrund der Anforderungen nicht auf einem Weg erfolgen.

Es wird also nicht eine einzelne Technik – beispielsweise ein Crawler – eingesetzt, um die Daten zu erheben, sondern eine Vielzahl unterschiedlicher Techniken . So können beispielsweise Facebook oder Twitter mittels API abgefragt werden. Allerdings werden diese APIs häufig verändert/angepasst. Aus diesem Grund wird von den Toolanbietern auch auf Aggregatoren zurückgegriffen, die APIs bündeln und pflegen. Es gibt spezialisierte Dienstleister, die crawlen, etc. So kann es passieren, dass mehrere Toolanbieter auf einen relativ ähnlichen Datenbestand zurückgreifen. Der Unterschied der Tools besteht dann in der Auswertung der Daten, in deren Aufbereitung und in den Möglichkeiten, die zur Interaktion mit den Kommunikatoren geboten werden. Auf der Startseite von Gnip sind viele bekannte Marktteilnehmer zu finden.

Datenanalyse & -aufbereitung

Selbst wenn die Daten – unabhängig von der Fragestellung eines Kunden – sehr gut erfasst werden, so ist hierdurch zwar eine gute Basis geschaffen. Die Auswertung an sich und die Aufbereitung der Daten stellt aber erhebliche Anforderungen, die nicht für jedes Unternehmen oder Produkt in der gleichen Weise erfüllbar sind. Das Kriterium ist an dieser Stelle die Identifizierbarkeit.

Identifizierbarkeit

Die erhobenen Daten müssen in eine bestimmte Struktur gebracht werden – beispielsweise Treffer für Unternehmen. An einem Beispiel aus dem Outdoor-Markt wird das sehr deutlich. Während für Unternehmen wie VAUDE oder Salewa relativ leicht Kommunikate, die diese betreffen, identifizierbar sind, ist dies für Mammut oder The North Face sehr viel schwieriger. Es gibt eben gleichzeitig Kommunikate zu dem Urzeit-Rüsseltier und der Nordwand, die aus der Ergebnismenge ausgeschlossen werden müssen, ohne diese zu stark einzugrenzen. Hier ist der Dienstleister gefordert, entsprechende Lösungen anzubieten (z.B. elaborierte Bool‘sche Ausdrücke zu entwickeln). An dieser Stelle kann man die Leistungsfähigkeit sehr gut prüfen.

Akkurate Bewertung

Für Unternehmen ist natürlich sehr interessant, ob über sie gesprochen wird. Noch spannender ist es, ob die Äußerungen positiv oder negativ sind. Diese Bewertung soll möglichst automatisch mit einer möglichst hohen Güte erfolgen. In der Praxis hört man immer wieder von Trefferwahrscheinlichkeiten von 90 Prozent. Aus meiner Sicht kann man mit automatisch erzielten 80 Prozent schon recht zufrieden sein.

Die Aufgabe an sich ist auch nicht einfach. In einem Kommunikat – also beispielsweise einem Text von 1.000 Zeichen – können sich nicht nur eine, sondern gleich mehrere Bewertungen verstecken. Diese müssen sich nicht auf ein einzelnes Produkt oder Unternehmen beziehen – es können auch mehrere sein. Mit Bool’schen Verknüpfungen kommt man hier nicht zu einem vollständig treffsicheren Ergebnis.

Die an den benutzten Verfahren sind sehr unterschiedlich. Von vollständig manueller Codierung bis zum Einsatz von Verfahren künstlicher Intelligenz kann man die verschiedensten Methoden finden. Abgesehen davon, dass die vollständig manuelle Codierung sich höchstens für ex-post-Betrachtungen eignet und für den Wunsch nach Interaktion mit dem Kunden viel zu langsam ist, erscheint das Verfahren gerade bei größeren Kommunikationsaufkommen als zu aufwändig.

Mir sind Verfahren am sympathischsten, die den Großteil ihrer Arbeit automatisch machen und bei Zweifelsfällen manuelles Eingreifen erfordern. Sprich: Die Verfahren geben zu ihren Ergebnissen gleich noch an, wie hoch ihre Trefferwahrscheinlichkeit auf der Ebene des einzelnes Kommunikats ist. Wenn die Verfahren dann durch die manuelle Codierung/Bewertung auch noch lernen und im Laufe der Zeit immer seltener ein manuelles Eingreifen erforderlich wird, ist das umso besser.

Letztlich kommt man an dieser Stelle nicht um einen Test herum. Man muss ausprobieren, ob das Produkt den eigenen Ansprüchen genügt und man damit arbeiten kann. Für reine ex-post Betrachtungen und den Vergleich mit Wettbewerbern können Trefferwahrscheinlichkeiten von 80 Prozent ausreichend sein – auch beobachtete Wettbewerber sind vom gleichen Fehler betroffen. Die aus der Sozial- und Marktforschung bekannten statistischen Verfahren können genutzt werden, um die Sinnhaftigkeit zu überprüfen.

Identifikation von „Influencern“

Was sich viele Unternehmen erhoffen, ist die Identifikation von Influencern – also solchen Personen, die häufig ihre Meinung zu Unternehmen und Produkten des relevanten Marktes äußern und gleichzeitig viele Fans bzw. Follower haben.

Diesen Punkt hört man immer wieder von Kunden und auch bei Agenturen. Man möchte wichtige Kommunikatoren identifizieren, erreichen und sie möglichst im eigenen Sinne beeinflussen. Ich möchte nicht bewerten, inwieweit das gut oder schlecht ist. Es handelt sich auf jeden Fall um eine Aufgabe, die bei vielen Tools gelingt.

Persönlich finde ich einen Nebeneffekt ausgesprochen spannend: Immer wenn Kommunikatoren relativ rasch zu einem hohen Kommunikationsaufkommen zu einem bestimmten Thema bzw. Produkt neigen, handelt es sich aus meiner Sicht häufig um bezahlte Leistungen. So kann man natürlich sehen, wie stark sich Mitbewerber engagieren. Dienstleister empfehlen hier mittlerweile schon den langsameren “Aufbau” von Kommunikatoren.

Inwieweit dieses Spiel “below the line” von Nutzern akzeptiert wird, kann ich nicht einschätzen. Ich halte es für gefährlich, da es bei Identifikation dieser Kommunikatoren zu “Shitstorms” kommen kann – und sei es, dass diese von Konkurrenten angezettelt werden.

Datenaufbereitung

Hinsichtlich der Datenaufbereitung wird zwar auch mit verschiedenen Ansätzen gearbeitet – dennoch sind hierbei die Unterschiede hinsichtlich der Qualität geringer als bei den übrigen bisher genannten Punkten. Es lohnt sich einfach die Interfaces der Produkte anzuschauen, um diese nach persönlichem Geschmack und Arbeitsweise auszuwählen. Diese spielen dabei schließlich eine wichtige Rolle.

Interaktion

Je mehr Kunden ein Unternehmen hat, umso emotionaler die Beziehung der Kunden zu den Produkten; je teurer die Produkte sind, umso aufwändiger wird die Kommunikation über soziale Medien mit den Kunden. Am Beispiel von Facebook und Facebook Fans wird dies deutlichen. Wenn man 100 Fans hat, mit denen man kommuniziert, dann ist das weit weniger aufwändig als bei 100.000 Fans. Wenn sich ein Marketing-Leiter oder ein Geschäftsführer also viele Fans wünscht und in Werbung investiert, muss er hinterher auch noch Geld für die Betreuung dieser Fans in die Hand nehmen.

Da er dann mit größter Wahrscheinlichkeit nicht nur eine Page auf Facebook hat, sondern noch etwas bei Twitter etc. macht, wird die Aufgabe hinsichtlich der Beantwortung von Anfragen, Beschwerden etc. sehr schnell komplex. Der Grad an Komplexität steigt, wenn das Unternehmen auch noch sehr viele Produkte hat. Es wird ein Werkzeug benötigt, mit dem die Aufgaben verteilt und die Bearbeitung der Aufgaben beobachtet werden kann.

Umgang mit Kommunikaten

In einer ersten Stufe sollten Kommunikate aus dem Tool heraus vollständig angezeigt werden können, damit man diese beantworten kann, ohne die jeweilige Stelle im Web manuell suchen zu müssen. In einer weiteren Stufe ist es möglich, Kommunikate zu beantworten und zu kommentieren.

Workflows

In den Tools können Kommunikate meist – wenn zumindest eine Grundfunktionalität vorhanden ist – Bearbeitern zugewiesen werden. Hilfreicher ist es, wenn auch Gruppen angelegt werden können oder gleich Schnittstellen zu CRM-Systemen bedient werden können, oder die Zuweisung zu Bearbeitern automatisiert erfolgt. Zudem – und das ist ausgesprochen wichtig – sollte es möglich sein, den Stand der Bearbeitung von Aufgaben zu beobachten.

Erweiterte Kommunikationsmöglichkeiten

Die Frage, ob dann Funktionalitäten, wie beispielsweise das Anlegen von Fotoalben, gegeben sein müssen, ist eigentlich ein Randthema. Vielleicht ist es ein Feature, das Tools einmal haben werden. Mir ist derzeit noch keines bekannt. Ich nenne das Kriterium auch nur der Vollständigkeit halber und weil es mitunter als ein „Kritikpunkt“ an reinen One Stop Social Media Management Tools wie HootSuite oder TweetDeck aufgeführt wird.

Wie geschrieben – die Anforderungen sind hierbei stark vom Kommunikationsaufkommen abhängig. Für geringere Kommunikationsaufkommen erscheint es mir völlig ausreichend, wenn die entsprechenden Kommunikate aus dem Tool heraus aufgerufen und beantwortet werden können.

Aus welchen Bereichen kommen die Anbieter?

Wenn es viele Produkte für einen Anwendungsbereich gibt, dann haben die Anbieter häufig einen völlig unterschiedlichen Hintergrund. Das schlägt sich auf die technische Spezifikation der Produkte selbst nieder, und auf die Konzepte, wie die Produkte angeboten werden.

Hier zunächst zwei Links zu Verzeichnissen der Produkte:

Grob unterscheiden kann man in

  • Unternehmen, die lediglich eine technische Dienstleistung anbieten – also die Software
  • Dienstleister, die eine Software haben (nicht zwingend eine Eigenentwicklung), die diese auch noch einrichten (z.B. Topics definieren, Dashboards einrichten).
  • Dienstleister, die neben der Software und deren Einrichtung auch noch Aufgaben im Bereich Social Media übernehmen.

Alexander Plum hat zudem noch in Technologie-Know-how und Methoden-Know-how unterschieden. Nach meiner Einschätzung bezieht sich diese Dimensionierung auf den Hintergrund des Dienstleisters und ist zudem durchaus eine Beachtung wert.

Es gibt Dienstleister, die einen Schwerpunkt in der klassischen Medienanalyse haben. Für diese ist es natürlich mehr als naheliegend, die Analysegegenstände auszuweiten. Genauso ist es bei Web-Analytics-Dienstleistern. Social Media-Dienstleister benötigen natürlich Tools, um ihre Arbeit effizient zu gestalten. Bei diesen liegt naturgemäß ein stärkerer Schwerpunkt auf dem Interaktionsaspekt. Unternehmen – wie beispielsweise Adobe – benötigen ein entsprechendes Produkt zur Abrundung ihrer Marketing Suite. Dann gibt es noch Unternehmen, die eher aus dem technischen Bereich kommen, bei denen Know-how im Bereich Crawling, Textklassifikation oder KI vorlag.

Insgesamt möchte ich einfach nur darauf hinweisen, dass man diesen Aspekt bei der Entscheidung für oder gegen ein Produkt mit berücksichtigen sollte, weil der Bereich aus dem die Unternehmen kommen, meist am stärksten ausgeprägt ist.

Wie anfangs schon geschrieben, würde ich mich über Feedback freuen und den Beitrag gerne aktualisieren, wenn an der einen oder anderen Stelle noch Verbesserungsbedarf besteht. Klicken Sie einfach auf Kommentieren oder schreiben Sie mir eine Mail.