Social Media Monitoring – Kriterien zur Auswahl eines geeigneten Werkzeugs

„Social Media Monitoring“ wird derzeit heftig diskutiert und scheint zudem ein hart umkämpfter Markt zu sein. Ein Indikator dafür ist die Anzahl der Keyword-Anzeigen, die bei Google für die Phrase aktiv sind. Die Seite ist voll! Gleichzeitig heißt das aber auch, dass es viele Anbieter gibt und der Aufwand zur Auswahl der geeigneten Software bzw. des geeigneten Produkts hoch ist.

Wenn Sie sich bereits ein wenig im deutschsprachigen Web umgeschaut haben, werden Sie schon einige ähnliche Beiträge gefunden haben. Stefanie Aßmann hat sich beispielsweise in ihrer Masterarbeit mit dem Thema beschäftigt, betreibt ein Blog dazu und steuert dankenswerterweise auch noch Informationen zu einem Wiki bei, Alexander Plum hat einen Anbietervergleich veröffentlicht und es gibt noch zwei Anbieterübersichten, die relevant sind.

Hier möchte ich mich eher auf einige Hintergründe und Funktionsweisen der Tools beschränken und Kriterien herausarbeiten, die bei der Auswahl des richtigen Werkzeugs helfen. Ich erhebe dabei keinen Anspruch auf Vollständigkeit und allgemeine Gültigkeit meiner Bewertungen. Sollten Ihnen weitere Kriterien wichtig erscheinen oder Sie anders bewerten, dann würde ich mich über Ihre Hinweise freuen (datenonkel(at)gmail(.)com).

Beginnen möchte ich an dieser Stelle mit einer Begriffsklärung – also mit dem, was unter „Social Media Monitoring“ verstanden wird. Einerseits geht es um „Social Media“ und andererseits um „Media Monitoring“. Das ältere Begriffspaar ist „Media Monitoring“.

Media Monitoring

In größeren Unternehmen gab es schon vor recht vielen Jahren Pressespiegel in Papierform, die täglich oder wöchentlich herumgereicht wurden. Der Kopierer war hierfür sehr hilfreich. Die Presse wurde ausgewertet, damit Vermutungen darüber angestellt werden konnten, wie das eigene Unternehmen und auch Konkurrenten in der öffentlichen Kommunikation eingeschätzt werden. Die Datenerfassung wurde zunächst in den PR-Abteilungen der Unternehmen vollzogen. PR-Agenturen und spezialisierte Dienstleister übernahmen und übernehmen diese Aufgabe noch immer. Mittlerweile gehört es auch zum guten Ton der PR-Dienstleister, die eigene Leistung mit entsprechenden Auswertungen zu belegen. Wenn beispielsweise der Wetterreporter eines Fernsehsenders die Jacke eines Sponsors trägt, wird belegt, wie lange die Jacke inkl. Logo des Herstellers im Bild war und wieviele Personen lt. GfK-Meter vor den Bildschirmen saßen. Natürlich werden die Daten noch qualifiziert – d.h. es kommen Demographika, wie Alter und Geschlecht der Zuschauer und sonstige Daten hinzu. Auf einem ähnlichen Weg werden übrigens die Werbeausgaben für Print und TV gemessen. Es werden Anzeigenmillimeter vermessen, die mit Preisen multipliziert werden und als Qualifizierung kommen die Werbeträger und die Namen der Werbungtreibenden hinzu.

In jüngerer Zeit haben die Presseunternehmen begonnen, Pressespiegel elektronisch zu ermöglichen und die Auswertungen zu automatisieren – beispielsweise die PMG Presse-Monitor GmbH (http://www.pressemonitor.de). Insgesamt ist es also mehr als nur naheliegend, das Monitoring auch auf Social Media zu übertragen und dies automatisiert durchzuführen.

Social Media

Social Media werden häufig mit Web 2.0 gleichgesetzt – was hier auch definiert werden müsste. Die Erläuterung und das Verständnis für Social Media fällt erheblich leichter, wenn man diese von traditionellen On- und Offline-Medien abgrenzt. Das trennende Kriterium ist der nutzergenerierte Inhalt – also Inhalt, der von Menschen außerhalb dieser Medien produziert und publiziert wird. Diese Inhalte können öffentlich oder halböffentlich publiziert werden, wobei das Publizieren keine notwendige Bedingung an sich ist, wohl aber das Kriterium hinsichtlich der Inhalte, die im Rahmen des Social Media Monitoring erfasst und analysiert werden sollen. Freilich sind dabei die Übergänge fließend. In den angesprochenen Medieninstitutionen wird auch gebloggt, es werden Facebook-Pages gepflegt und es wird getwittert. Auch ehemals unabhängige Blogger finden mitunter ihren Weg in Medienorganisationen oder haben Werbeerlöse.

Damit wären wir auch schon bei den Inhalten, die analysiert werden. Es handelt sich ausschließlich um öffentlich zugängliche Inhalte. Inhalte, die auf Plattformen wie Facebook oder G+ unter Freunden geteilt werden, sind nicht öffentlich und können damit nicht erfasst und analysiert werden.

Funktionen von Social Media Monitoring Werkzeugen

Die Funktionen von Social Media Monitoring Werkzeugen lassen sich in drei Bereiche einteilen:

  1. Datenerfassung/-erhebung
  2. Datenanalyse/-aufbereitung
  3. Interaktion

Im Grunde handelt es sich bei den ersten beiden Stufen um eine Inhaltsanalyse, wie sie aus der Kommunikationswissenschaft bekannt ist. Es findet dabei eine kontinuierliche Datenerhebung und -auswertung statt.

Datenerfassung/-erhebung

Zunächst stellt sich die Frage, was analysiert werden soll. Dabei werden von den Monitoring Tools meist verschiedene Klassen unterschieden – beispielsweise

  • Blogs
  • Microblogs (z.B. Twitter)
  • Communities
  • Network-Plattformen
  • E-Commerce-/Produktbewertungsplattformen
  • Klassische Medieninhalte

Für den Kunden ist es natürlich wichtig, dass alle relevanten Kommunikate mit Meinungsäußerungen erfasst werden. Dabei ist nicht nur die vollständige Erfassung eines aktuellen Standes wichtig – also die Berücksichtigung aller relevanten Plattformen zu einem bestimmten Zeitpunkt. Wichtig ist auch, dass neue Plattformen zeitnah in die Erfassung eingehen. Hierbei hört man von den Anbietern mitunter ein beschwichtigendes “Kein Problem – wenn mal ein Blog nicht erfasst wird, dann geben sie uns einfach die Adresse und – schwupps – wird es mit ausgewertet”. Das sollte jedoch nur die Mindestanforderung des Kunden sein. Wirklich hilfreich wäre es für den Kunden, wenn er automatisch und zeitnah solche neue Plattformen mit Hilfe der Tools identifizieren könnte.

Gerade für Blogs, die nicht wie dieses hier bei einem der großen Anbieter direkt liegen, sondern auf eigenen Servern, ist die Identifikation nicht einfach. Die Tools können nicht den Datenbestand einer großen allgemeinen Suchmaschine wie Google, Bing oder den vergleichbarer Unternehmen aus Russland oder China haben. Die Anforderungen an die Tools sind andere:

Vollständigkeit

Möglichst alle Äußerungen zu einem Thema, Unternehmen, Produkt etc. sollen erfasst werden. Das wäre bei einer allgemeinen Suchmaschine ganz ähnlich. Allerdings sucht diese mitunter nicht so tief. Je nach Markt und Sprache können Lücken in der Datenbasis bestehen. Ob es akzeptabel ist, dass diese erst im Rahmen eines Kundenprojekts gefüllt werden, hängt von der Frage- bzw. Aufgabenstellung ab.

Granularität

Die Kommunikate müssen strukturierter erfasst werden, als dies bei einer allgemeinen Suchmaschine der Fall ist. Der Absender/Kommunikator muss beispielsweise identifiziert werden. Es sollte festgestellt werden können, ob es sich um eine „Erstpost“ – einen vielleicht längeren Text mit Bewertungen handelt, ob es sich um einen Kommentar zu einem Erstpost handelt, eine Weiterleitung etc.

Aktualität

Die Daten sollen möglichst zeitnah zur Verfügung stehen. D.h. beispielsweise, dass bestimmte Plattformen in Zeitschnitten unter zwei Stunden erfasst werden können müssen, Objekte wie die eigenen Facebook-Pages müssen möglichst nahe an Realtime abgefragt werden können. Bei anderen reicht es, wenn die Abfrage ein bis viermal täglich erfolgt.

Stabilität

Die Datenerfassung muss stabil und kontinuierlich erfolgen – es dürfen keine längeren Downzeiten entstehen. Dies betrifft insbesondere die zeitsensitiven Bereiche. Die Erfassung der Daten kann aufgrund der Anforderungen nicht auf einem Weg erfolgen.

Es wird also nicht eine einzelne Technik – beispielsweise ein Crawler – eingesetzt, um die Daten zu erheben, sondern eine Vielzahl unterschiedlicher Techniken . So können beispielsweise Facebook oder Twitter mittels API abgefragt werden. Allerdings werden diese APIs häufig verändert/angepasst. Aus diesem Grund wird von den Toolanbietern auch auf Aggregatoren zurückgegriffen, die APIs bündeln und pflegen. Es gibt spezialisierte Dienstleister, die crawlen, etc. So kann es passieren, dass mehrere Toolanbieter auf einen relativ ähnlichen Datenbestand zurückgreifen. Der Unterschied der Tools besteht dann in der Auswertung der Daten, in deren Aufbereitung und in den Möglichkeiten, die zur Interaktion mit den Kommunikatoren geboten werden. Auf der Startseite von Gnip sind viele bekannte Marktteilnehmer zu finden.

Datenanalyse & -aufbereitung

Selbst wenn die Daten – unabhängig von der Fragestellung eines Kunden – sehr gut erfasst werden, so ist hierdurch zwar eine gute Basis geschaffen. Die Auswertung an sich und die Aufbereitung der Daten stellt aber erhebliche Anforderungen, die nicht für jedes Unternehmen oder Produkt in der gleichen Weise erfüllbar sind. Das Kriterium ist an dieser Stelle die Identifizierbarkeit.

Identifizierbarkeit

Die erhobenen Daten müssen in eine bestimmte Struktur gebracht werden – beispielsweise Treffer für Unternehmen. An einem Beispiel aus dem Outdoor-Markt wird das sehr deutlich. Während für Unternehmen wie VAUDE oder Salewa relativ leicht Kommunikate, die diese betreffen, identifizierbar sind, ist dies für Mammut oder The North Face sehr viel schwieriger. Es gibt eben gleichzeitig Kommunikate zu dem Urzeit-Rüsseltier und der Nordwand, die aus der Ergebnismenge ausgeschlossen werden müssen, ohne diese zu stark einzugrenzen. Hier ist der Dienstleister gefordert, entsprechende Lösungen anzubieten (z.B. elaborierte Bool‘sche Ausdrücke zu entwickeln). An dieser Stelle kann man die Leistungsfähigkeit sehr gut prüfen.

Akkurate Bewertung

Für Unternehmen ist natürlich sehr interessant, ob über sie gesprochen wird. Noch spannender ist es, ob die Äußerungen positiv oder negativ sind. Diese Bewertung soll möglichst automatisch mit einer möglichst hohen Güte erfolgen. In der Praxis hört man immer wieder von Trefferwahrscheinlichkeiten von 90 Prozent. Aus meiner Sicht kann man mit automatisch erzielten 80 Prozent schon recht zufrieden sein.

Die Aufgabe an sich ist auch nicht einfach. In einem Kommunikat – also beispielsweise einem Text von 1.000 Zeichen – können sich nicht nur eine, sondern gleich mehrere Bewertungen verstecken. Diese müssen sich nicht auf ein einzelnes Produkt oder Unternehmen beziehen – es können auch mehrere sein. Mit Bool’schen Verknüpfungen kommt man hier nicht zu einem vollständig treffsicheren Ergebnis.

Die an den benutzten Verfahren sind sehr unterschiedlich. Von vollständig manueller Codierung bis zum Einsatz von Verfahren künstlicher Intelligenz kann man die verschiedensten Methoden finden. Abgesehen davon, dass die vollständig manuelle Codierung sich höchstens für ex-post-Betrachtungen eignet und für den Wunsch nach Interaktion mit dem Kunden viel zu langsam ist, erscheint das Verfahren gerade bei größeren Kommunikationsaufkommen als zu aufwändig.

Mir sind Verfahren am sympathischsten, die den Großteil ihrer Arbeit automatisch machen und bei Zweifelsfällen manuelles Eingreifen erfordern. Sprich: Die Verfahren geben zu ihren Ergebnissen gleich noch an, wie hoch ihre Trefferwahrscheinlichkeit auf der Ebene des einzelnes Kommunikats ist. Wenn die Verfahren dann durch die manuelle Codierung/Bewertung auch noch lernen und im Laufe der Zeit immer seltener ein manuelles Eingreifen erforderlich wird, ist das umso besser.

Letztlich kommt man an dieser Stelle nicht um einen Test herum. Man muss ausprobieren, ob das Produkt den eigenen Ansprüchen genügt und man damit arbeiten kann. Für reine ex-post Betrachtungen und den Vergleich mit Wettbewerbern können Trefferwahrscheinlichkeiten von 80 Prozent ausreichend sein – auch beobachtete Wettbewerber sind vom gleichen Fehler betroffen. Die aus der Sozial- und Marktforschung bekannten statistischen Verfahren können genutzt werden, um die Sinnhaftigkeit zu überprüfen.

Identifikation von „Influencern“

Was sich viele Unternehmen erhoffen, ist die Identifikation von Influencern – also solchen Personen, die häufig ihre Meinung zu Unternehmen und Produkten des relevanten Marktes äußern und gleichzeitig viele Fans bzw. Follower haben.

Diesen Punkt hört man immer wieder von Kunden und auch bei Agenturen. Man möchte wichtige Kommunikatoren identifizieren, erreichen und sie möglichst im eigenen Sinne beeinflussen. Ich möchte nicht bewerten, inwieweit das gut oder schlecht ist. Es handelt sich auf jeden Fall um eine Aufgabe, die bei vielen Tools gelingt.

Persönlich finde ich einen Nebeneffekt ausgesprochen spannend: Immer wenn Kommunikatoren relativ rasch zu einem hohen Kommunikationsaufkommen zu einem bestimmten Thema bzw. Produkt neigen, handelt es sich aus meiner Sicht häufig um bezahlte Leistungen. So kann man natürlich sehen, wie stark sich Mitbewerber engagieren. Dienstleister empfehlen hier mittlerweile schon den langsameren “Aufbau” von Kommunikatoren.

Inwieweit dieses Spiel “below the line” von Nutzern akzeptiert wird, kann ich nicht einschätzen. Ich halte es für gefährlich, da es bei Identifikation dieser Kommunikatoren zu “Shitstorms” kommen kann – und sei es, dass diese von Konkurrenten angezettelt werden.

Datenaufbereitung

Hinsichtlich der Datenaufbereitung wird zwar auch mit verschiedenen Ansätzen gearbeitet – dennoch sind hierbei die Unterschiede hinsichtlich der Qualität geringer als bei den übrigen bisher genannten Punkten. Es lohnt sich einfach die Interfaces der Produkte anzuschauen, um diese nach persönlichem Geschmack und Arbeitsweise auszuwählen. Diese spielen dabei schließlich eine wichtige Rolle.

Interaktion

Je mehr Kunden ein Unternehmen hat, umso emotionaler die Beziehung der Kunden zu den Produkten; je teurer die Produkte sind, umso aufwändiger wird die Kommunikation über soziale Medien mit den Kunden. Am Beispiel von Facebook und Facebook Fans wird dies deutlichen. Wenn man 100 Fans hat, mit denen man kommuniziert, dann ist das weit weniger aufwändig als bei 100.000 Fans. Wenn sich ein Marketing-Leiter oder ein Geschäftsführer also viele Fans wünscht und in Werbung investiert, muss er hinterher auch noch Geld für die Betreuung dieser Fans in die Hand nehmen.

Da er dann mit größter Wahrscheinlichkeit nicht nur eine Page auf Facebook hat, sondern noch etwas bei Twitter etc. macht, wird die Aufgabe hinsichtlich der Beantwortung von Anfragen, Beschwerden etc. sehr schnell komplex. Der Grad an Komplexität steigt, wenn das Unternehmen auch noch sehr viele Produkte hat. Es wird ein Werkzeug benötigt, mit dem die Aufgaben verteilt und die Bearbeitung der Aufgaben beobachtet werden kann.

Umgang mit Kommunikaten

In einer ersten Stufe sollten Kommunikate aus dem Tool heraus vollständig angezeigt werden können, damit man diese beantworten kann, ohne die jeweilige Stelle im Web manuell suchen zu müssen. In einer weiteren Stufe ist es möglich, Kommunikate zu beantworten und zu kommentieren.

Workflows

In den Tools können Kommunikate meist – wenn zumindest eine Grundfunktionalität vorhanden ist – Bearbeitern zugewiesen werden. Hilfreicher ist es, wenn auch Gruppen angelegt werden können oder gleich Schnittstellen zu CRM-Systemen bedient werden können, oder die Zuweisung zu Bearbeitern automatisiert erfolgt. Zudem – und das ist ausgesprochen wichtig – sollte es möglich sein, den Stand der Bearbeitung von Aufgaben zu beobachten.

Erweiterte Kommunikationsmöglichkeiten

Die Frage, ob dann Funktionalitäten, wie beispielsweise das Anlegen von Fotoalben, gegeben sein müssen, ist eigentlich ein Randthema. Vielleicht ist es ein Feature, das Tools einmal haben werden. Mir ist derzeit noch keines bekannt. Ich nenne das Kriterium auch nur der Vollständigkeit halber und weil es mitunter als ein „Kritikpunkt“ an reinen One Stop Social Media Management Tools wie HootSuite oder TweetDeck aufgeführt wird.

Wie geschrieben – die Anforderungen sind hierbei stark vom Kommunikationsaufkommen abhängig. Für geringere Kommunikationsaufkommen erscheint es mir völlig ausreichend, wenn die entsprechenden Kommunikate aus dem Tool heraus aufgerufen und beantwortet werden können.

Aus welchen Bereichen kommen die Anbieter?

Wenn es viele Produkte für einen Anwendungsbereich gibt, dann haben die Anbieter häufig einen völlig unterschiedlichen Hintergrund. Das schlägt sich auf die technische Spezifikation der Produkte selbst nieder, und auf die Konzepte, wie die Produkte angeboten werden.

Hier zunächst zwei Links zu Verzeichnissen der Produkte:

Grob unterscheiden kann man in

  • Unternehmen, die lediglich eine technische Dienstleistung anbieten – also die Software
  • Dienstleister, die eine Software haben (nicht zwingend eine Eigenentwicklung), die diese auch noch einrichten (z.B. Topics definieren, Dashboards einrichten).
  • Dienstleister, die neben der Software und deren Einrichtung auch noch Aufgaben im Bereich Social Media übernehmen.

Alexander Plum hat zudem noch in Technologie-Know-how und Methoden-Know-how unterschieden. Nach meiner Einschätzung bezieht sich diese Dimensionierung auf den Hintergrund des Dienstleisters und ist zudem durchaus eine Beachtung wert.

Es gibt Dienstleister, die einen Schwerpunkt in der klassischen Medienanalyse haben. Für diese ist es natürlich mehr als naheliegend, die Analysegegenstände auszuweiten. Genauso ist es bei Web-Analytics-Dienstleistern. Social Media-Dienstleister benötigen natürlich Tools, um ihre Arbeit effizient zu gestalten. Bei diesen liegt naturgemäß ein stärkerer Schwerpunkt auf dem Interaktionsaspekt. Unternehmen – wie beispielsweise Adobe – benötigen ein entsprechendes Produkt zur Abrundung ihrer Marketing Suite. Dann gibt es noch Unternehmen, die eher aus dem technischen Bereich kommen, bei denen Know-how im Bereich Crawling, Textklassifikation oder KI vorlag.

Insgesamt möchte ich einfach nur darauf hinweisen, dass man diesen Aspekt bei der Entscheidung für oder gegen ein Produkt mit berücksichtigen sollte, weil der Bereich aus dem die Unternehmen kommen, meist am stärksten ausgeprägt ist.

Wie anfangs schon geschrieben, würde ich mich über Feedback freuen und den Beitrag gerne aktualisieren, wenn an der einen oder anderen Stelle noch Verbesserungsbedarf besteht. Klicken Sie einfach auf Kommentieren oder schreiben Sie mir eine Mail.

Visit-Entwicklung deutscher Social Networks 2010/11

Mit den deutschen Social Networks geht es bergab – mit allen? – Nein! –  XING trotzt dem Trend. Die Konzentration auf Business Nutzer hilft offensichtlich, der Abwanderungsbewegung zu widerstehen, der die anderen Networks unterworfen sind. LinkedIn hat noch nicht sehr an der Reichweite genagt – nur 20 Prozent weniger Visits als im März 2010.

Die Frage, ob durch Social Media-Nutzung die Reichweiten redaktioneller Angebote zurückgehen, kann man anscheinend verneinen. Die Visit-Zahlen von SPIEGEL Online stiegen in den vergangenen beiden Jahren. Diese wurden zum Vergleich in die folgende Abbildung aufgenommen.

Visits deutscher Social Networks 2010/11
(Quelle der Daten: IVW)


VZ Netzwerke am stärksten betroffen

Die Zielgruppe Schüler und Studierende unterliegt offensichtlich der schnellsten Abwanderungsbewegung nach Facebook. Die VZ-Gruppe hat seit dem Höchststand der Visits im Mai 2010 über 80 Prozent der Besuche verloren.

Bei WKW verlief der Rückgang der Besuche im etwa gleichen Zeitrahmen weniger stark – auch wenn ein Verlust von 60 Prozent des Traffic sicher kein Pappenstiel ist. Es ist anzunehmen, dass die VZ Gruppe im Dezember weniger Visits haben wird als WKW.

Bei den Lokalisten setzte der Rückgang noch früher ein als bei der VZ Gruppe und WKW und war noch dramatischer. Von dem ohnehin nicht gewaltigen Traffic ist gerade ein Siebtel verblieben.

StayFriends habe ich aus der Abbildung herausgenommen. Ansonsten wäre diese im unteren Bereich etwas unübersichtlich geworden. In den vergangenen beiden Jahren gingen die Visits von 37,5 Mio. auf 16,2 Mio. zurück.

Kaum Auswirkungen auf SPIEGEL Online

Deutlich wir aber auch, dass SPIEGEL Online einem konstanten leichten Wachstum unterliegt. Mit einem Zuwachs der Visits von 17 Prozent im Verlauf der vergangenen beiden Jahre liegt das Wachstum stark über der Zunahme der Internet-Nutzerschaft in Deutschland.

Wieviele Deutsche nutzen „Social Media“?

  • Über 50 Millionen Onliner,
  • 30-33 Millionen Social Media Nutzer,
  • Knapp 20 Millionen Facebooker,
  • Wahrscheinlich etwa eine Million Google Plusser

Nachdem in den vergangenen Tagen auf Google+ mal wieder viel über Zahlen diskutiert wurde, hab ich mich bemüht und ein wenig Material aus verschiedenen Studien zusammengetragen, damit man vergleichen und die Zahlen besser einschätzen kann. Es sind Studien bzw. Zahlen von

  • BITKOM
  • AGOF
  • ARD/ZDF
  • ComScore
  • Facebook-Planungstool
  • Compete.com

Im November veröffentlichte BITKOM die Ergebnisse einer Forsa-Befragung. Da haben wir zunächst mal folgendes Ergebnis:

Leider sagt man uns dabei nicht, auf welche Internet-Reichweite man im Rahmen der Befragung von 1.023 Internet-Nutzern ab 14 Jahren gekommen ist. In der letzten AGOF Studie werden etwa 50 Mio. Internet-Nutzer für Deutschland ausgewiesen. Das wären dann etwa 25 Mio. Facebooker. Das Facebook-eigene Planungstool gibt heute (7.12.2011) eine Zahl von 21,3 Mio. aus. Dabei wird allerdings eine Obergrenze von 64 Jahren gezogen. Beachtet man, dass es sich bei einem Teil der Accounts um Fakes handelt (privat und von Dienstleistern), so sollte man davon ausgehen, dass die tatsächliche Zahl unter 20 Mio. liegt. Forsa würde also um etwa 20 Prozent übermessen.

Die Zahl von 50 Mio. Online-Nutzern in Deutschland wird auch durch die aktuelle ARD/ZDF Onlinestudie bestätigt. Dort liegt sie etwas höher – bei 51,7 Mio. Allerdings fand die Erhebung dieser Zahlen im März 2011 statt. Zu diesem Zeitpunkt gaben 43 Prozent der Befragten an, ein Profil bei einer „Social Community“ zu haben. Das wären etwa 22 Mio. Schon sind wir in Schwierigkeiten. Sind denn tatsächlich alle Onliner, die in „Social Communities“ registriert sind, bei Facebook? – Alleine auf das halbe Jahr Abstand in der Erhebung wird man den Effekt nicht zurückführen können. Vermuten wir einfach, dass es an der Fragestellung lag. Bei Langzeitstudien – wie der von Enigma-GfK durchgeführten ARD/ZDF-Onlinestudie – ist es enorm schwierig, Fragestellungen anzupassen, da diese Zeitreihenvergleiche unmöglich machen. Hierbei können Fragen nach Profilen in „Social Communities“ oder alternativ „Social Networks“ stark unterschiedliche Ergebnisse erbringen.

So bleibt eigentlich kaum etwas anderes übrig, als mit den Zahlen der AGOF zu arbeiten. Dort werden in der aktuellen Studie die Werte für die VZ Netzwerke, wer-kennt-wen.de und Lokalisten ausgewiesen.

Netzwerk Reichweite in % Reichweite in Mio.
VZ Netzwerke

13,9%

7,0 Mio

Wer-kennt-wen.de

11,2%

5,6 Mio

StayFriends.de

10,2%

5,1 Mio

XING

7,6%

3,8 Mio

Myspace.de

7,2%

3,6 Mio

Lokalisten

2,0%

1,0 Mio

Quelle: AGOF (Angebotsranking August 2011 – http://www.agof.de/angebotsranking.619.de.html)

Vergleicht man diese Zahlen mit der Rangliste der BITKOM-Studie, so ist das Abschneiden von StayFriends schon sehr erstaunlich. Man ist verunsichert. Bei welcher Studie läuft was falsch? Auch wenn ich mir nicht die Mühe gemacht habe, die Signifikanzniveaus zu ermitteln – die Ergebnisse liegen zu weit auseinander, um sie mit statistischer Ungenauigkeit erklären zu können. Zudem sind die Reichweitenwerte der AGOF sehr viel niedriger als die des BITKOM. Hier wären mehr Informationen hinsichtlich der Fragestellung hilfreich.

ComScore kommt freilich zu ganz anderen Ergebnissen: 72,7 % der deutschen Onliner (ab 13 Jahren) sind bei Facebook. Nachgerechnet hat bei ComScore und MediaMetrix offensichtlich keiner. Bei angenommenen 50 Millionen deutschen Onlinern wären das stattliche 36,5 Millionen. Erinnern wir uns – das Planungstool von Facebook gibt uns einen Wert von 21,3 Millionen aus, der nach meiner Einschätzung übermessen ist. Um es salopp auszudrücken: ComScore weist für Deutschland nahezu doppelt so viele Facebook-Nutzer aus,wie es tatsächlich gibt. Zur Ehrenrettung muss man allerdings sagen, dass es sich bei der Methode um eine User-zentrische Erhebung handelt, bei der die Panelteilnehmer eine Software auf ihren Rechnern installieren müssen. Dies führt in Deutschland u.a. dazu, dass die Nutzung in Unternehmen mit einem starken Bias in die Ergebnisse einfließt. Dennoch sind die Werte eigentlich unbrauchbar – mit dem Facebook-Planungstool und den Ergebnissen einer Telefonbefragung wäre man weiter gekommen (Quelle: ComScore).

Zudem setzt ComScore die Gesamtreichweite von Social Media in Deutschland auf 89,6 % der Online-Nutzer. Etwas realistischer erscheint hier der Wert des BITKOM: Dort werden 74 % ausgewiesen. Das wären etwa 36 Millionen. Addiert man die Werte aus obiger AGOF-Tabelle, so erhält man 26,1 Millionen (dabei werden übrigens Plattformen wie fotocommunity.de, MyVideo etc. nicht mitgerechnet). Ich gehe deshalb hier davon aus, dass der Wert des BITKOM leicht übermessen ist und wir höchstwahrscheinlich eine Zahl von 30 bis 33 Millionen Social Media Nutzern in Deutschland haben. Etwa knapp zwei Drittel davon haben einen Account bei Facebook.

Unter diesen Umständen möchte man den von Comscore veröffentlichten Werte kaum Vertrauen schenken. Eine Frage wurde allerdings noch nicht beantwortet: Wie groß ist der Anteil derer, die Social Networks mobil nutzen? 17,3 Prozent der deutschen Besitzer eines mobilen Endgeräts haben damit zwischen Juli und September 2011 ein „Social Network oder Blog besucht“. Es handelt sich dabei um die Ergebnisse einer Online-Befragung (ab 13 Jahren). Ich vermute, dass es sich um eine Stichprobe aus den ComScore Panelisten handelt (Quelle: ComScore).

Was natürlich ausgesprochen stark interessiert: Wie viele Nutzer hat Google+? Compete.com zeigt derzeit 12,4 Millionen Nutzer – also erheblich weniger als die 40 Mio., die von Google selbst kommuniziert wurden. Diese beziehen sich ausschließlich auf die Nutzung in den USA. Dafür wird ein Panel betrieben.

Unter dieser Rahmenbedingung könnten die auf Flowtown publizierten Zahlen (5,3 Millionen USA, 0,7 Millionen Deutschland) durchaus realistisch sein. Geht man davon aus, dass in die Befragung des BITKOM ein Marken-Bias hineinreicht, so sollte die Zahl der Google+ Nutzer in Deutschland auf etwas mehr als einer Million liegen (Quelle: Flowtown).