Irgendwas mit Daten
KI, Marken, Analytics, Mediaplanung, DAM, PIM etc.
Ich mache etwas mit Daten
KI, Marken, Analytics, Mediaplanung, DAM, PIM etc.
„Social Media Monitoring“ wird derzeit heftig diskutiert und scheint zudem ein hart umkämpfter Markt zu sein. Ein Indikator dafür ist die Anzahl der Keyword-Anzeigen, die bei Google für die Phrase aktiv sind. Die Seite ist voll! Gleichzeitig heißt das aber auch, dass es viele Anbieter gibt und der Aufwand zur Auswahl der geeigneten Software bzw. des geeigneten Produkts hoch ist.
Wenn Sie sich bereits ein wenig im deutschsprachigen Web umgeschaut haben, werden Sie schon einige ähnliche Beiträge gefunden haben. Stefanie Aßmann hat sich beispielsweise in ihrer Masterarbeit mit dem Thema beschäftigt, betreibt ein Blog dazu und steuert dankenswerterweise auch noch Informationen zu einem Wiki bei, Alexander Plum hat einen Anbietervergleich veröffentlicht und es gibt noch zwei Anbieterübersichten, die relevant sind.
Hier möchte ich mich eher auf einige Hintergründe und Funktionsweisen der Tools beschränken und Kriterien herausarbeiten, die bei der Auswahl des richtigen Werkzeugs helfen. Ich erhebe dabei keinen Anspruch auf Vollständigkeit und allgemeine Gültigkeit meiner Bewertungen. Sollten Ihnen weitere Kriterien wichtig erscheinen oder Sie anders bewerten, dann würde ich mich über Ihre Hinweise freuen (datenonkel(at)gmail(.)com).
Beginnen möchte ich an dieser Stelle mit einer Begriffsklärung – also mit dem, was unter „Social Media Monitoring“ verstanden wird. Einerseits geht es um „Social Media“ und andererseits um „Media Monitoring“. Das ältere Begriffspaar ist „Media Monitoring“.
In größeren Unternehmen gab es schon vor recht vielen Jahren Pressespiegel in Papierform, die täglich oder wöchentlich herumgereicht wurden. Der Kopierer war hierfür sehr hilfreich. Die Presse wurde ausgewertet, damit Vermutungen darüber angestellt werden konnten, wie das eigene Unternehmen und auch Konkurrenten in der öffentlichen Kommunikation eingeschätzt werden. Die Datenerfassung wurde zunächst in den PR-Abteilungen der Unternehmen vollzogen. PR-Agenturen und spezialisierte Dienstleister übernahmen und übernehmen diese Aufgabe noch immer. Mittlerweile gehört es auch zum guten Ton der PR-Dienstleister, die eigene Leistung mit entsprechenden Auswertungen zu belegen. Wenn beispielsweise der Wetterreporter eines Fernsehsenders die Jacke eines Sponsors trägt, wird belegt, wie lange die Jacke inkl. Logo des Herstellers im Bild war und wieviele Personen lt. GfK-Meter vor den Bildschirmen saßen. Natürlich werden die Daten noch qualifiziert – d.h. es kommen Demographika, wie Alter und Geschlecht der Zuschauer und sonstige Daten hinzu. Auf einem ähnlichen Weg werden übrigens die Werbeausgaben für Print und TV gemessen. Es werden Anzeigenmillimeter vermessen, die mit Preisen multipliziert werden und als Qualifizierung kommen die Werbeträger und die Namen der Werbungtreibenden hinzu.
In jüngerer Zeit haben die Presseunternehmen begonnen, Pressespiegel elektronisch zu ermöglichen und die Auswertungen zu automatisieren – beispielsweise die PMG Presse-Monitor GmbH (http://www.pressemonitor.de). Insgesamt ist es also mehr als nur naheliegend, das Monitoring auch auf Social Media zu übertragen und dies automatisiert durchzuführen.
Social Media werden häufig mit Web 2.0 gleichgesetzt – was hier auch definiert werden müsste. Die Erläuterung und das Verständnis für Social Media fällt erheblich leichter, wenn man diese von traditionellen On- und Offline-Medien abgrenzt. Das trennende Kriterium ist der nutzergenerierte Inhalt – also Inhalt, der von Menschen außerhalb dieser Medien produziert und publiziert wird. Diese Inhalte können öffentlich oder halböffentlich publiziert werden, wobei das Publizieren keine notwendige Bedingung an sich ist, wohl aber das Kriterium hinsichtlich der Inhalte, die im Rahmen des Social Media Monitoring erfasst und analysiert werden sollen. Freilich sind dabei die Übergänge fließend. In den angesprochenen Medieninstitutionen wird auch gebloggt, es werden Facebook-Pages gepflegt und es wird getwittert. Auch ehemals unabhängige Blogger finden mitunter ihren Weg in Medienorganisationen oder haben Werbeerlöse.
Damit wären wir auch schon bei den Inhalten, die analysiert werden. Es handelt sich ausschließlich um öffentlich zugängliche Inhalte. Inhalte, die auf Plattformen wie Facebook oder G+ unter Freunden geteilt werden, sind nicht öffentlich und können damit nicht erfasst und analysiert werden.
Die Funktionen von Social Media Monitoring Werkzeugen lassen sich in drei Bereiche einteilen:
Im Grunde handelt es sich bei den ersten beiden Stufen um eine Inhaltsanalyse, wie sie aus der Kommunikationswissenschaft bekannt ist. Es findet dabei eine kontinuierliche Datenerhebung und -auswertung statt.
Zunächst stellt sich die Frage, was analysiert werden soll. Dabei werden von den Monitoring Tools meist verschiedene Klassen unterschieden – beispielsweise
Für den Kunden ist es natürlich wichtig, dass alle relevanten Kommunikate mit Meinungsäußerungen erfasst werden. Dabei ist nicht nur die vollständige Erfassung eines aktuellen Standes wichtig – also die Berücksichtigung aller relevanten Plattformen zu einem bestimmten Zeitpunkt. Wichtig ist auch, dass neue Plattformen zeitnah in die Erfassung eingehen. Hierbei hört man von den Anbietern mitunter ein beschwichtigendes “Kein Problem – wenn mal ein Blog nicht erfasst wird, dann geben sie uns einfach die Adresse und – schwupps – wird es mit ausgewertet”. Das sollte jedoch nur die Mindestanforderung des Kunden sein. Wirklich hilfreich wäre es für den Kunden, wenn er automatisch und zeitnah solche neue Plattformen mit Hilfe der Tools identifizieren könnte.
Gerade für Blogs, die nicht wie dieses hier bei einem der großen Anbieter direkt liegen, sondern auf eigenen Servern, ist die Identifikation nicht einfach. Die Tools können nicht den Datenbestand einer großen allgemeinen Suchmaschine wie Google, Bing oder den vergleichbarer Unternehmen aus Russland oder China haben. Die Anforderungen an die Tools sind andere:
Möglichst alle Äußerungen zu einem Thema, Unternehmen, Produkt etc. sollen erfasst werden. Das wäre bei einer allgemeinen Suchmaschine ganz ähnlich. Allerdings sucht diese mitunter nicht so tief. Je nach Markt und Sprache können Lücken in der Datenbasis bestehen. Ob es akzeptabel ist, dass diese erst im Rahmen eines Kundenprojekts gefüllt werden, hängt von der Frage- bzw. Aufgabenstellung ab.
Die Kommunikate müssen strukturierter erfasst werden, als dies bei einer allgemeinen Suchmaschine der Fall ist. Der Absender/Kommunikator muss beispielsweise identifiziert werden. Es sollte festgestellt werden können, ob es sich um eine „Erstpost“ – einen vielleicht längeren Text mit Bewertungen handelt, ob es sich um einen Kommentar zu einem Erstpost handelt, eine Weiterleitung etc.
Die Daten sollen möglichst zeitnah zur Verfügung stehen. D.h. beispielsweise, dass bestimmte Plattformen in Zeitschnitten unter zwei Stunden erfasst werden können müssen, Objekte wie die eigenen Facebook-Pages müssen möglichst nahe an Realtime abgefragt werden können. Bei anderen reicht es, wenn die Abfrage ein bis viermal täglich erfolgt.
Die Datenerfassung muss stabil und kontinuierlich erfolgen – es dürfen keine längeren Downzeiten entstehen. Dies betrifft insbesondere die zeitsensitiven Bereiche. Die Erfassung der Daten kann aufgrund der Anforderungen nicht auf einem Weg erfolgen.
Es wird also nicht eine einzelne Technik – beispielsweise ein Crawler – eingesetzt, um die Daten zu erheben, sondern eine Vielzahl unterschiedlicher Techniken . So können beispielsweise Facebook oder Twitter mittels API abgefragt werden. Allerdings werden diese APIs häufig verändert/angepasst. Aus diesem Grund wird von den Toolanbietern auch auf Aggregatoren zurückgegriffen, die APIs bündeln und pflegen. Es gibt spezialisierte Dienstleister, die crawlen, etc. So kann es passieren, dass mehrere Toolanbieter auf einen relativ ähnlichen Datenbestand zurückgreifen. Der Unterschied der Tools besteht dann in der Auswertung der Daten, in deren Aufbereitung und in den Möglichkeiten, die zur Interaktion mit den Kommunikatoren geboten werden. Auf der Startseite von Gnip sind viele bekannte Marktteilnehmer zu finden.
Selbst wenn die Daten – unabhängig von der Fragestellung eines Kunden – sehr gut erfasst werden, so ist hierdurch zwar eine gute Basis geschaffen. Die Auswertung an sich und die Aufbereitung der Daten stellt aber erhebliche Anforderungen, die nicht für jedes Unternehmen oder Produkt in der gleichen Weise erfüllbar sind. Das Kriterium ist an dieser Stelle die Identifizierbarkeit.
Die erhobenen Daten müssen in eine bestimmte Struktur gebracht werden – beispielsweise Treffer für Unternehmen. An einem Beispiel aus dem Outdoor-Markt wird das sehr deutlich. Während für Unternehmen wie VAUDE oder Salewa relativ leicht Kommunikate, die diese betreffen, identifizierbar sind, ist dies für Mammut oder The North Face sehr viel schwieriger. Es gibt eben gleichzeitig Kommunikate zu dem Urzeit-Rüsseltier und der Nordwand, die aus der Ergebnismenge ausgeschlossen werden müssen, ohne diese zu stark einzugrenzen. Hier ist der Dienstleister gefordert, entsprechende Lösungen anzubieten (z.B. elaborierte Bool‘sche Ausdrücke zu entwickeln). An dieser Stelle kann man die Leistungsfähigkeit sehr gut prüfen.
Für Unternehmen ist natürlich sehr interessant, ob über sie gesprochen wird. Noch spannender ist es, ob die Äußerungen positiv oder negativ sind. Diese Bewertung soll möglichst automatisch mit einer möglichst hohen Güte erfolgen. In der Praxis hört man immer wieder von Trefferwahrscheinlichkeiten von 90 Prozent. Aus meiner Sicht kann man mit automatisch erzielten 80 Prozent schon recht zufrieden sein.
Die Aufgabe an sich ist auch nicht einfach. In einem Kommunikat – also beispielsweise einem Text von 1.000 Zeichen – können sich nicht nur eine, sondern gleich mehrere Bewertungen verstecken. Diese müssen sich nicht auf ein einzelnes Produkt oder Unternehmen beziehen – es können auch mehrere sein. Mit Bool’schen Verknüpfungen kommt man hier nicht zu einem vollständig treffsicheren Ergebnis.
Die an den benutzten Verfahren sind sehr unterschiedlich. Von vollständig manueller Codierung bis zum Einsatz von Verfahren künstlicher Intelligenz kann man die verschiedensten Methoden finden. Abgesehen davon, dass die vollständig manuelle Codierung sich höchstens für ex-post-Betrachtungen eignet und für den Wunsch nach Interaktion mit dem Kunden viel zu langsam ist, erscheint das Verfahren gerade bei größeren Kommunikationsaufkommen als zu aufwändig.
Mir sind Verfahren am sympathischsten, die den Großteil ihrer Arbeit automatisch machen und bei Zweifelsfällen manuelles Eingreifen erfordern. Sprich: Die Verfahren geben zu ihren Ergebnissen gleich noch an, wie hoch ihre Trefferwahrscheinlichkeit auf der Ebene des einzelnes Kommunikats ist. Wenn die Verfahren dann durch die manuelle Codierung/Bewertung auch noch lernen und im Laufe der Zeit immer seltener ein manuelles Eingreifen erforderlich wird, ist das umso besser.
Letztlich kommt man an dieser Stelle nicht um einen Test herum. Man muss ausprobieren, ob das Produkt den eigenen Ansprüchen genügt und man damit arbeiten kann. Für reine ex-post Betrachtungen und den Vergleich mit Wettbewerbern können Trefferwahrscheinlichkeiten von 80 Prozent ausreichend sein – auch beobachtete Wettbewerber sind vom gleichen Fehler betroffen. Die aus der Sozial- und Marktforschung bekannten statistischen Verfahren können genutzt werden, um die Sinnhaftigkeit zu überprüfen.
Was sich viele Unternehmen erhoffen, ist die Identifikation von Influencern – also solchen Personen, die häufig ihre Meinung zu Unternehmen und Produkten des relevanten Marktes äußern und gleichzeitig viele Fans bzw. Follower haben.
Diesen Punkt hört man immer wieder von Kunden und auch bei Agenturen. Man möchte wichtige Kommunikatoren identifizieren, erreichen und sie möglichst im eigenen Sinne beeinflussen. Ich möchte nicht bewerten, inwieweit das gut oder schlecht ist. Es handelt sich auf jeden Fall um eine Aufgabe, die bei vielen Tools gelingt.
Persönlich finde ich einen Nebeneffekt ausgesprochen spannend: Immer wenn Kommunikatoren relativ rasch zu einem hohen Kommunikationsaufkommen zu einem bestimmten Thema bzw. Produkt neigen, handelt es sich aus meiner Sicht häufig um bezahlte Leistungen. So kann man natürlich sehen, wie stark sich Mitbewerber engagieren. Dienstleister empfehlen hier mittlerweile schon den langsameren “Aufbau” von Kommunikatoren.
Inwieweit dieses Spiel “below the line” von Nutzern akzeptiert wird, kann ich nicht einschätzen. Ich halte es für gefährlich, da es bei Identifikation dieser Kommunikatoren zu “Shitstorms” kommen kann – und sei es, dass diese von Konkurrenten angezettelt werden.
Hinsichtlich der Datenaufbereitung wird zwar auch mit verschiedenen Ansätzen gearbeitet – dennoch sind hierbei die Unterschiede hinsichtlich der Qualität geringer als bei den übrigen bisher genannten Punkten. Es lohnt sich einfach die Interfaces der Produkte anzuschauen, um diese nach persönlichem Geschmack und Arbeitsweise auszuwählen. Diese spielen dabei schließlich eine wichtige Rolle.
Je mehr Kunden ein Unternehmen hat, umso emotionaler die Beziehung der Kunden zu den Produkten; je teurer die Produkte sind, umso aufwändiger wird die Kommunikation über soziale Medien mit den Kunden. Am Beispiel von Facebook und Facebook Fans wird dies deutlichen. Wenn man 100 Fans hat, mit denen man kommuniziert, dann ist das weit weniger aufwändig als bei 100.000 Fans. Wenn sich ein Marketing-Leiter oder ein Geschäftsführer also viele Fans wünscht und in Werbung investiert, muss er hinterher auch noch Geld für die Betreuung dieser Fans in die Hand nehmen.
Da er dann mit größter Wahrscheinlichkeit nicht nur eine Page auf Facebook hat, sondern noch etwas bei Twitter etc. macht, wird die Aufgabe hinsichtlich der Beantwortung von Anfragen, Beschwerden etc. sehr schnell komplex. Der Grad an Komplexität steigt, wenn das Unternehmen auch noch sehr viele Produkte hat. Es wird ein Werkzeug benötigt, mit dem die Aufgaben verteilt und die Bearbeitung der Aufgaben beobachtet werden kann.
In einer ersten Stufe sollten Kommunikate aus dem Tool heraus vollständig angezeigt werden können, damit man diese beantworten kann, ohne die jeweilige Stelle im Web manuell suchen zu müssen. In einer weiteren Stufe ist es möglich, Kommunikate zu beantworten und zu kommentieren.
In den Tools können Kommunikate meist – wenn zumindest eine Grundfunktionalität vorhanden ist – Bearbeitern zugewiesen werden. Hilfreicher ist es, wenn auch Gruppen angelegt werden können oder gleich Schnittstellen zu CRM-Systemen bedient werden können, oder die Zuweisung zu Bearbeitern automatisiert erfolgt. Zudem – und das ist ausgesprochen wichtig – sollte es möglich sein, den Stand der Bearbeitung von Aufgaben zu beobachten.
Die Frage, ob dann Funktionalitäten, wie beispielsweise das Anlegen von Fotoalben, gegeben sein müssen, ist eigentlich ein Randthema. Vielleicht ist es ein Feature, das Tools einmal haben werden. Mir ist derzeit noch keines bekannt. Ich nenne das Kriterium auch nur der Vollständigkeit halber und weil es mitunter als ein „Kritikpunkt“ an reinen One Stop Social Media Management Tools wie HootSuite oder TweetDeck aufgeführt wird.
Wie geschrieben – die Anforderungen sind hierbei stark vom Kommunikationsaufkommen abhängig. Für geringere Kommunikationsaufkommen erscheint es mir völlig ausreichend, wenn die entsprechenden Kommunikate aus dem Tool heraus aufgerufen und beantwortet werden können.
Wenn es viele Produkte für einen Anwendungsbereich gibt, dann haben die Anbieter häufig einen völlig unterschiedlichen Hintergrund. Das schlägt sich auf die technische Spezifikation der Produkte selbst nieder, und auf die Konzepte, wie die Produkte angeboten werden.
Hier zunächst zwei Links zu Verzeichnissen der Produkte:
Grob unterscheiden kann man in
Alexander Plum hat zudem noch in Technologie-Know-how und Methoden-Know-how unterschieden. Nach meiner Einschätzung bezieht sich diese Dimensionierung auf den Hintergrund des Dienstleisters und ist zudem durchaus eine Beachtung wert.
Es gibt Dienstleister, die einen Schwerpunkt in der klassischen Medienanalyse haben. Für diese ist es natürlich mehr als naheliegend, die Analysegegenstände auszuweiten. Genauso ist es bei Web-Analytics-Dienstleistern. Social Media-Dienstleister benötigen natürlich Tools, um ihre Arbeit effizient zu gestalten. Bei diesen liegt naturgemäß ein stärkerer Schwerpunkt auf dem Interaktionsaspekt. Unternehmen – wie beispielsweise Adobe – benötigen ein entsprechendes Produkt zur Abrundung ihrer Marketing Suite. Dann gibt es noch Unternehmen, die eher aus dem technischen Bereich kommen, bei denen Know-how im Bereich Crawling, Textklassifikation oder KI vorlag.
Insgesamt möchte ich einfach nur darauf hinweisen, dass man diesen Aspekt bei der Entscheidung für oder gegen ein Produkt mit berücksichtigen sollte, weil der Bereich aus dem die Unternehmen kommen, meist am stärksten ausgeprägt ist.
Wie anfangs schon geschrieben, würde ich mich über Feedback freuen und den Beitrag gerne aktualisieren, wenn an der einen oder anderen Stelle noch Verbesserungsbedarf besteht. Klicken Sie einfach auf Kommentieren oder schreiben Sie mir eine Mail.
Vielen Dank für den informativen Beitrag. Habe hier der Vollständigkeit halber mal einen Testbericht, wo 11 Tools getestet wurden : http://www.goldbachinteractive.com/aktuell/fachartikel/social-media-monitoring-report-2011
Gibt es ihres Wissens Tools, die die aktuellen Problematiken wie shitstorms, bezahlte Beiträge etc. erkennen und tatsächlich bei der Datenauswertung berücksichtigen?
Welche Tools sind am empfehlenswertesten?
Bitteschön 🙂 Danke auch für den Goldbach-Link. Einen Nachteil hat der Goldbach-Test: Leider fehlen in Deutschland entwickelte bzw. deutschsprachige Tools. Da gibt es schon einige, die man sich anschauen sollte.
Was sollen die Tools hinsichtlich Shitstorms denn machen? – Die entwickeln sich meistens so schnell, dass man das Aufziehen leider auch manuell gut merkt.
Hinsichtlich bezahlter Beiträge gibt es i.d.R. bestimmte Kommunikationsverläufe bei den bezahlten Kommunikatoren – z.B. schneller Anstieg des Kommunikationsaufkommens zu einem bestimmten Thema, das stabil bleibt. Das kann man mit einigen Tools, die entsprechende Auswertungen anbieten, herausfinden.
Es wäre sicher hilfreich, wenn Tools auch auf der Ebene der Kommunikatoren bzw. Beiträge/Kommunikate entsprechende Hinweise geben würden, eine weitgehende Automatisierbarkeit sehe ich nicht. Ich lasse mich hierzu gerne umstimmen, wenn man mir ein entsprechendes Werkzeug zeigt.
Das Problem vieler Tools ist oft auch, dass sie relevante Seiten nicht von irrelevanten unterscheiden können. Schlagwort-Blogs zum Domainverkauf stehen also ohne Abwertung neben den Fachblogs. Mal schauen, ob das die Tools künftig besser hinbekommen…
Für solche Fehltreffer hab ich kein Verständnis. Die sollten eigentlich bei der QS rausfallen!
Damit solche Seiten/Beiträge bei unseren Kunden nicht ins Social Media Monitoring einfließen verwenden wir bei Webbosaurus eine halbautomatische Analyse. Dadurch werden im finalen Schritt alle Beiträge nochmal für die Kunden verifiziert. Spart eine Menge Zeit.