Studien-Verwirrung um Reichweiten-Entwicklung von Google+, Facebook & Co.

  • Die Nutzung von Google+ wächst,
  • Facebook wächst,
  • Business Communities gefährdet,
  • Flickr & Photobucket verlieren Nutzer.

Für mich ist es sehr eigenartig zu verfolgen, wie in der Netzgemeinde die Entwicklung der Nutzerzahlen von Facebook und Google+ diskutiert wird. Die „alten Hasen“ sollten sich eigentlich an die Diskussionen um den Host Count vor 15 Jahren erinnert fühlern.

Mit Hilfskonstruktionen wird versucht, die Nutzerzahl zu bestimmen. Mal ist es Comscore oder CircleCount, mit denen ich auch ganz gerne arbeite. Compete.com taucht auch hin und wieder auf oder Hitwise. Kurz vor Neujahr war es der Namensforscher Paul Allen, der für Google+ eine Zahl von 62 Millionen Nutzern im Dezember vergangenen Jahres nannte und 300 Millionen Nutzer bis zum Ende dieses Jahres in Aussicht stellte. Ich bin nicht der Meinung, dass diese Daten für eine valide Regression herangezogen werden können.

Dabei sind die jeweils zitierten Werte kaum miteinander vergleichbar. In einem anderen Beitrag habe ich mir die Mühe gemacht, wenigstens Anhaltspunkte aus den Daten verschiedener Quellen herauszuarbeiten.

Auf ein Thema werde ich dabei nicht näher eingehen: Für Facebook werden über das Werbeplanungs-Werkzeug „aktive Nutzer“ kommuniziert – derzeit etwa 22 Millionen – die freilich keine aktiven Nutzer sind. Es handelt sich dabei um aktive Accounts – ein Nutzer kann mehrere Accounts haben. Im Gegensatz dazu hat Google den AdPlaner für plus.google.com leider noch gesperrt. Bis hier eine Öffnung stattfindet, müssen wir leider wie folgt vorgehen:

Tendenzaussagen möglich

Eines kann man allerdings schon machen. Wenn man die Daten einer Quelle verwendet und wenn diese Daten Entwicklungen dokumentieren, so kann man diese aus meiner Sicht durchaus nutzen, um Tendenzaussagen zu treffen.

So deuten die Daten von compete.com beispielsweise an, das es seit Oktober zu einer rückläufigen Entwicklung der Nutzung von LinkedIn kam. Es kann sich um eine saisonale Schwankung handeln oder um die Umverlagerung von Fachdiskussionen nach Google+. Xing hatte im Laufe dieses Jahres in Deutschland auch einen leichten Rückgang der Nutzung zu verzeichnen. Bei Facebook geht die Nutzung kontinuierlich bergauf, bei Google+ ist die Entwicklung nicht stetig.

Als kleine Ergänzung noch die Daten von MySpace:

Bei den Compete-Daten handelt es sich um Panel-Daten von 2 Millionen Internet-Nutzern aus den USA. Die Projektion hinsichtlich der Nutzerzahlen bezieht sich also alleine auf die USA. Beachten sollte man zusätzlich, dass zur Gewinnung der Panel-Daten eine Software auf den Rechnern der Panel-Teilnehmer installiert werden muss. Das führt zu Verzerrungen hinsichtlich der Nutzung in Unternehmen. Diese sind vorsichtig, wenn eine solche Software installiert werden soll.

Dabei sind die in der Diskussion befindlichen Zahlen von Hitwise in der Tat kaum brauchbar, da der Erhebungszusammenhang unklar bleibt. Christoph Kappes hat sich auf Google+ völlig zu Recht darüber beschwert und auf Visits als Auswertungsgröße hingewiesen.

Nutzerwachstum – Argumente

Durch das Anlegen einer linearen oder multiplen Regression kommt man auch nicht wirklich weiter. Allerdings werden gerade wenn es um die Diskussion hinsichtlich des Nutzerwachstums geht, sehr viele Argumente genannt, die sich mehr oder weniger auf technische Details beziehen oder sich auf dem Niveau “Gefällt mir besser” bewegen. Dabei gibt es eine Reihe von Argumenten, die ganz klar für oder gegen eine mehr oder weniger starke Nutzerentwicklung bei Google sprechen. Der Weg der Analyse muss über die Bewertung qualitativer Argumente führen.

Facebook konnte 2011 einen enorm starken Nutzerzuwachs generieren und beispielsweise in Deutschland vielen Networks Nutzer abjagen. Die Nutzer haben sich große Freundeskreise aufgebaut, die sie nicht so einfach zu Google mitnehmen können. Wenn sie sich zusätzlich Google+ zuwenden, dann wird dies mit einem geringeren Zeitbudget stattfinden.

Man sollte, wenn man argumentiert, die Zeitbudgets der Nutzer berücksichtigen. Diese sind im Durchschnitt träge. Das zeigt sich beispielsweise in der ARD/ZDF-Langzeitstudie „Massenkommunikation“. Aus meiner Sicht heißt dies, dass sich die Zeit für die Nutzung des Internet nicht beliebig ausdehnen lässt. Es konkurriert dabei mit anderen Mediennutzungsformen. An anderer Stelle habe ich gezeigt, dass Online-Nachrichtenportale sich wacker halten. So gesehen müsste also tatsächlich eine Abwanderung von Facebook-Nutzern zu Google+ stattfinden, wenn letzteres stark wachsen will.

Die Frage ist natürlich wodurch diese Abwanderungsbewegung einsetzen könnte. Tendenziell gab es in den vergangenen Jahren bei Social Networks eine Konstante: Wenn diese von einem Investor übernommen wurden oder an die Börse gingen, dann liefen ihnen die Nutzer weg. Durch den gesteigerten Druck zur Einnahmeerzielung wurden die Nutzer offensichtlich gegängelt und wanderten ab. MySpace und die VZ Gruppe sind zwei Beispiele. Hinsichtlich Facebook hört man, dass der Börsengang nun tatsächlich ansteht und dieses Jahr noch Werbung in den Stream der Pinnwand integriert werden soll. Allerdings war Facebook in der Vergangenheit auch immer so schlau völlig unpopuläre “Features” wieder zurückzunehmen (z.B. die Veröffentlichung der Produkte, die online gekauft wurden).

Ein neues Network – wie Google+ – muss einen starken Zusatznutzen im Vergleich zu den derzeit frequentierten Networks bieten. Dieser Nutzen bestand bei Facebook in der ausgedehnteren Funktionalität im Vergleich zu andern Networks und in einem großen, die Diffusion fördernden Nutzerstamm.

Oberflächlich betrachtet hat Google+ hier wenig zu bieten. Allerdings gibt es aus meiner Sicht zwei markante und für den Normalnutzer ersichtliche Unterschiede: Die Kreise und eine einfachere Konfiguration der Einstellungen hinsichtlich der Privatsphäre sowie die Möglichkeit des Folgens. In beiderlei Hinsicht ist Google+ mehr ein aufgeblasenes Twitter als eine Kopie Facebook.

Allerdings führt dieses „Aufblasen“ dazu, dass auf Google+ sauberer diskutiert werden kann als auf Twitter. Mitunter verlagern sich hierdurch Diskussionen, die ehemals auf Blogs stattfanden, auf Google+. Google+ erlaubt in diesem Sinne eine stärker passive Nutzung als Facebook.

Die Kreise und das „Folgen“ führen dazu, dass auf Google+ im Gegensatz zu Facebook „neue Freunde“ gefunden werden können. DeAno Jackson hat das kürzlich eindrucksvoll auf den Punkt gebracht „To sum it up as simply as I can, Facebook is where you connect with old friends. Google+ is where you find new ones.“

Aus meiner Sicht liegen die Potenziale eher unter der Oberfläche. Picasa und die vereinfachte Bildverwaltung inkl. ausführlicherer Informationen zum Foto haben dazu geführt, dass sich Fotografen auf Google+ recht wohl fühlen. Flickr sollte hier also einen Rückgang bemerken. Und siehe da – bei compete.com kann man diesen Rückgang feststellen. Photobucket.com ist davon ebenso betroffen.

Ansonsten verfügt Google über einen erheblich größeren Umfang an möglichen Diensten als Facebook – inkl. Videotelefonie etc. Es ist also anzunehmen, dass hier Zug um Zug neue Nutzergruppen auf Google+ gezogen werden.

Hinzu kommt eine gewaltige Nutzerzahl durch Android Smartphones und demnächst wahrscheinlich durch Fernseher mit Android. Diese sind nur durch ein Google-Konto nutzbar und der Weg zu Google+ ist damit nicht mehr weit.

Aus dieser Gesamtsituation heraus lässt sich abschätzen, dass Google zweifellos sein Network neben Facebook positionieren kann. Inwieweit 2012 eine Zahl von mehr als 200 Millionen Accounts erreicht wird, lässt sich nicht sagen. Sicher erscheint dagegen die Tatsache, dass es Platz zwei der Networks westlichen Ursprungs erreichen wird. Kleinere und spezialisiertere Networks werden Nutzer verlieren.

Gefährdung von News-Websites durch Social Media

Die Nutzungsintensität von führenden Nachrichten-Websites ging während der vergangenen beiden Jahre zurück

Mit dem starken Reichweitenzuwachs von Social Media-Plattformen besteht für die Online-Ableger von Zeitungen und Zeitschriften die Gefahr von Reichweiteneinbußen und verringerten Nutzungsintensitäten. Nachfolgend werden einige große Angebote hinsichtlich ihrer Visit-Entwicklung und der Entwicklung der PageImpression/Visit-Ratio – also einem Intensitätsmaß – analysiert. Es wird vorwiegend auf die Daten der IVW zurückgegriffen.

Dabei kann beruhigender Weise festgestellt werden, dass die Visit-Zahlen in den vergangenen beiden Jahren grundsätzlich gestiegen sind. Bei allen untersuchten Objekten gab es im März diese Jahres einen starken Peak: Die Katastrophe im Japan mit dem Reaktorunfall in Fukujima war die Ursache. Stellt man allerdings in Rechnung, dass die Reichweite des Internet in den vergangenen beiden Jahren um knapp 19 Prozent gestiegen ist, dann sollte man vorläufig lediglich davon ausgehen, dass Positionen gehalten wurden. Die durchschnittliche Nutzungszeit pro Nutzer blieb gleich – bei etwa 136 Minuten/Tag (Quelle: ARD/ZDF Onlinestudie).

Hinsichtlich der Nutzungsintensität ist das Bild nicht ganz einheitlich. Während der Wert bei bild.de erheblich höher liegt als bei den anderen Websites und noch dazu relativ konstant bleibt, ging die Nutzungsintensität bei den Websites aus dem Verlagslager zurück. Die Werte bei SPIEGEL Online, WELT ONLINE, FOCUS Online und sueddeutsche.de nehmen ab. Dagegen nimmt die Nutzungsintensität bei n-tv.de zu.

In den folgenden Abbildungen finden sich die IVW-Zahlen im Detail:

Visit-Entwicklung und Nutzungsintensität bild.de
(Quelle der Daten: IVW)

Bild.de_Visitentwicklung

Visit-Entwicklung und Nutzungsintensität SPIEGEL Online
(Quelle der Daten: IVW)

Spiegel_Online_Visitentwicklung

Visit-Entwicklung und Nutzungsintensität WELT ONLINE
(Quelle der Daten: IVW)

Welt_Online_Visitentwicklung

Visit-Entwicklung und Nutzungsintensität FOCUS Online
(Quelle der Daten: IVW)

FOCUS_Online_Visitentwicklung

Visit-Entwicklung und Nutzungsintensität seuddeutsche.de
(Quelle der Daten: IVW)

Sueddeutsche_Visitentwicklung

Visit-Entwicklung und Nutzungsintensität n-tv.de
(Quelle der Daten: IVW)

n-tv.de_VisitentwicklungInsgesamt muss man also feststellen, dass es für die News-Websites nicht wirklich katastrophal aussieht. Allerdings haben nur bild.de und n-tv.de ihre Position leicht verbessert. Die übrigen Websites haben – beachtet man den Anstieg der Internet-Nutzerschaft – leicht verloren. Es liegt der Schluss nahe, das die gesunkene Nutzungsintensität auf die zunehmende Nutzung von Social Media-Plattformen zurückzuführen ist.

Hinsichtlich der tendenziell gesunken Nutzungsintensität sollte also, v.a. im Verlagslager, gegengesteuert werden. Erste Ansätze lassen sich hierfür schon aus den IVW-Zahlen herauslesen. Man versucht die Nutzer offensichtlich stärker in die Generierung von Content einzubinden. Lediglich bei FOCUS Online ging der Wert leicht zurück.

Anteil usergenerierter Content an den PageViews
Nov 09 Nov 11
Bild.de 2,63% 3,10%
SPIEGEL Online 1,32% 2,63%
WELT ONLINE 0,07% 4,16%
FOCUS Online 1,27% 1,13%
Sueddeutsche.de 0,20% 0,23%
n-tv.de 0,00% 0,00

(Quelle der Daten: IVW)

Nutzerverteilung und Nutzermotive Facebook & Google+

Fittkau & Maaß haben kürzlich eine Studie zu Social Media herausgegeben. Dabei sind die genannten Nutzerzahlen aus meiner Sicht mit größter Vorsicht zu genießen. Es wird davon ausgegangen, dass 44 Prozent der deutschen Onliner Facebook mindestens einmal wöchentlich nutzen. Das ist leicht zu hoch gegriffen, aber immerhin nicht ganz falsch. Diese Zahlen hab ich kürzlich analysiert.

Was aber kaum geht, ist die Zahl der wöchentlichen Google+ Nutzer:

Fast jeder dritte der wöchentlichen Facebook-Networker (31 %) gibt an, auch Google+ zu nutzen – und das ebenfalls mindestens einmal pro Woche! Insgesamt besucht fast die Hälfte der wöchentlichen Facebook-Nutzer (44 %) das Konkurrenz-Netzwerk. (Quelle: w3b)

Jeder „dritte“ – das wären etwa 6,8 Millionen der wöchentlichen „Facebook-Networker“. Im Satz danach wird nochmal von fast der Hälfte der wöchentlichen Facebook-Nutzer geschrieben. Was denn nun – 31 oder 44 Prozent? – Ganz abgesehen davon, dass die Zahl auf jeden Fall zu hoch gegriffen ist.

Die weiteren Auswerungen

Spannend und als wirklich gute Richtschnur sind die weiteren Auswertungen zu verstehen:

Der bisherige Eindruck wird bestätigt: Google+ hat die besseren Privatsphäre-Einstellungen, ist übersichtlicher und besser für die geschäftliche Nutzung. Wobei – unter „geschäftlicher Nutzung“ wurde wohl mehr die individuelle geschäftliche Nutzung verstanden und nicht der Marketing-Aspekt „Pages“. Facebook hingegen ist eher private Chat-Plattform mit Fun-Faktor.

Google+ wird nicht alle Facebook-Nutzer zu sich ziehen können. Drei Viertel der gegenwärtigen deutschen Population wollen Facebook treu bleiben. Dabei sollte man beachten, dass es sich um eine Zeitpunktbetrachtung handelt und nicht wirklich um eine Prädisposition.

Wie bereits geschrieben: Diese Werte sind durchaus spannend und legen es Unternehmen nahe, sich in beiden Networks zu engagieren.

Die Nutzerstruktur von Google+

Viele Informationen zu den Nutzern und zur Nutzerstruktur von Google+ gibt es leider nicht. An anderer Stelle habe ich darauf verwiesen, dass es derzeit wahrscheinlich etwa eine Million Nutzer in Deutschland sind. Nun bietet circlecount.com die Möglichkeit, die Struktur der dort registrierten Google+ Nutzer zu analysieren. Das ist gewiss eine Einschränkung hinsichtlich der Repräsentativität, gibt jedoch schon wertvolle Anhaltspunkte. Immerhin gibt es derzeit über 7 Millionen Profile, die ausgewertet werden.

In der Länderverteilung rangiert Deutschland derzeit auf Platz acht, hinter den USA, Indien, Brasilien, Kanada, UK, Indonesien und China. Innerhalb der EU hat Deutschland also die zweitmeisten Nutzer. Dabei sind mittlerweile etwa ein Viertel der Nutzer weiblich – in Deutschland ist der Anteil weiblicher Nutzer geringer, nur 18,5 Prozent. Was die Pages betrifft: Hier haben sich die Deutschen beeilt – sie liegen an zweiter Stelle und haben immerhin halb so viele Pages wie die USA.

(Quelle: CircleCount.com)

Studierende sind mit erheblichem Abstand die größte Nutzergruppe. Ansonsten gibt es viele Ingenieure, Softwareentwickler, Web-Designer und Fotografen, die Google+ nutzen (und den Beruf öffentlich angeben). Das ist in Deutschland nicht viel anders – es kommen noch Consultants und Schüler hinzu.

Social Media Monitoring – Kriterien zur Auswahl eines geeigneten Werkzeugs

„Social Media Monitoring“ wird derzeit heftig diskutiert und scheint zudem ein hart umkämpfter Markt zu sein. Ein Indikator dafür ist die Anzahl der Keyword-Anzeigen, die bei Google für die Phrase aktiv sind. Die Seite ist voll! Gleichzeitig heißt das aber auch, dass es viele Anbieter gibt und der Aufwand zur Auswahl der geeigneten Software bzw. des geeigneten Produkts hoch ist.

Wenn Sie sich bereits ein wenig im deutschsprachigen Web umgeschaut haben, werden Sie schon einige ähnliche Beiträge gefunden haben. Stefanie Aßmann hat sich beispielsweise in ihrer Masterarbeit mit dem Thema beschäftigt, betreibt ein Blog dazu und steuert dankenswerterweise auch noch Informationen zu einem Wiki bei, Alexander Plum hat einen Anbietervergleich veröffentlicht und es gibt noch zwei Anbieterübersichten, die relevant sind.

Hier möchte ich mich eher auf einige Hintergründe und Funktionsweisen der Tools beschränken und Kriterien herausarbeiten, die bei der Auswahl des richtigen Werkzeugs helfen. Ich erhebe dabei keinen Anspruch auf Vollständigkeit und allgemeine Gültigkeit meiner Bewertungen. Sollten Ihnen weitere Kriterien wichtig erscheinen oder Sie anders bewerten, dann würde ich mich über Ihre Hinweise freuen (datenonkel(at)gmail(.)com).

Beginnen möchte ich an dieser Stelle mit einer Begriffsklärung – also mit dem, was unter „Social Media Monitoring“ verstanden wird. Einerseits geht es um „Social Media“ und andererseits um „Media Monitoring“. Das ältere Begriffspaar ist „Media Monitoring“.

Media Monitoring

In größeren Unternehmen gab es schon vor recht vielen Jahren Pressespiegel in Papierform, die täglich oder wöchentlich herumgereicht wurden. Der Kopierer war hierfür sehr hilfreich. Die Presse wurde ausgewertet, damit Vermutungen darüber angestellt werden konnten, wie das eigene Unternehmen und auch Konkurrenten in der öffentlichen Kommunikation eingeschätzt werden. Die Datenerfassung wurde zunächst in den PR-Abteilungen der Unternehmen vollzogen. PR-Agenturen und spezialisierte Dienstleister übernahmen und übernehmen diese Aufgabe noch immer. Mittlerweile gehört es auch zum guten Ton der PR-Dienstleister, die eigene Leistung mit entsprechenden Auswertungen zu belegen. Wenn beispielsweise der Wetterreporter eines Fernsehsenders die Jacke eines Sponsors trägt, wird belegt, wie lange die Jacke inkl. Logo des Herstellers im Bild war und wieviele Personen lt. GfK-Meter vor den Bildschirmen saßen. Natürlich werden die Daten noch qualifiziert – d.h. es kommen Demographika, wie Alter und Geschlecht der Zuschauer und sonstige Daten hinzu. Auf einem ähnlichen Weg werden übrigens die Werbeausgaben für Print und TV gemessen. Es werden Anzeigenmillimeter vermessen, die mit Preisen multipliziert werden und als Qualifizierung kommen die Werbeträger und die Namen der Werbungtreibenden hinzu.

In jüngerer Zeit haben die Presseunternehmen begonnen, Pressespiegel elektronisch zu ermöglichen und die Auswertungen zu automatisieren – beispielsweise die PMG Presse-Monitor GmbH (http://www.pressemonitor.de). Insgesamt ist es also mehr als nur naheliegend, das Monitoring auch auf Social Media zu übertragen und dies automatisiert durchzuführen.

Social Media

Social Media werden häufig mit Web 2.0 gleichgesetzt – was hier auch definiert werden müsste. Die Erläuterung und das Verständnis für Social Media fällt erheblich leichter, wenn man diese von traditionellen On- und Offline-Medien abgrenzt. Das trennende Kriterium ist der nutzergenerierte Inhalt – also Inhalt, der von Menschen außerhalb dieser Medien produziert und publiziert wird. Diese Inhalte können öffentlich oder halböffentlich publiziert werden, wobei das Publizieren keine notwendige Bedingung an sich ist, wohl aber das Kriterium hinsichtlich der Inhalte, die im Rahmen des Social Media Monitoring erfasst und analysiert werden sollen. Freilich sind dabei die Übergänge fließend. In den angesprochenen Medieninstitutionen wird auch gebloggt, es werden Facebook-Pages gepflegt und es wird getwittert. Auch ehemals unabhängige Blogger finden mitunter ihren Weg in Medienorganisationen oder haben Werbeerlöse.

Damit wären wir auch schon bei den Inhalten, die analysiert werden. Es handelt sich ausschließlich um öffentlich zugängliche Inhalte. Inhalte, die auf Plattformen wie Facebook oder G+ unter Freunden geteilt werden, sind nicht öffentlich und können damit nicht erfasst und analysiert werden.

Funktionen von Social Media Monitoring Werkzeugen

Die Funktionen von Social Media Monitoring Werkzeugen lassen sich in drei Bereiche einteilen:

  1. Datenerfassung/-erhebung
  2. Datenanalyse/-aufbereitung
  3. Interaktion

Im Grunde handelt es sich bei den ersten beiden Stufen um eine Inhaltsanalyse, wie sie aus der Kommunikationswissenschaft bekannt ist. Es findet dabei eine kontinuierliche Datenerhebung und -auswertung statt.

Datenerfassung/-erhebung

Zunächst stellt sich die Frage, was analysiert werden soll. Dabei werden von den Monitoring Tools meist verschiedene Klassen unterschieden – beispielsweise

  • Blogs
  • Microblogs (z.B. Twitter)
  • Communities
  • Network-Plattformen
  • E-Commerce-/Produktbewertungsplattformen
  • Klassische Medieninhalte

Für den Kunden ist es natürlich wichtig, dass alle relevanten Kommunikate mit Meinungsäußerungen erfasst werden. Dabei ist nicht nur die vollständige Erfassung eines aktuellen Standes wichtig – also die Berücksichtigung aller relevanten Plattformen zu einem bestimmten Zeitpunkt. Wichtig ist auch, dass neue Plattformen zeitnah in die Erfassung eingehen. Hierbei hört man von den Anbietern mitunter ein beschwichtigendes “Kein Problem – wenn mal ein Blog nicht erfasst wird, dann geben sie uns einfach die Adresse und – schwupps – wird es mit ausgewertet”. Das sollte jedoch nur die Mindestanforderung des Kunden sein. Wirklich hilfreich wäre es für den Kunden, wenn er automatisch und zeitnah solche neue Plattformen mit Hilfe der Tools identifizieren könnte.

Gerade für Blogs, die nicht wie dieses hier bei einem der großen Anbieter direkt liegen, sondern auf eigenen Servern, ist die Identifikation nicht einfach. Die Tools können nicht den Datenbestand einer großen allgemeinen Suchmaschine wie Google, Bing oder den vergleichbarer Unternehmen aus Russland oder China haben. Die Anforderungen an die Tools sind andere:

Vollständigkeit

Möglichst alle Äußerungen zu einem Thema, Unternehmen, Produkt etc. sollen erfasst werden. Das wäre bei einer allgemeinen Suchmaschine ganz ähnlich. Allerdings sucht diese mitunter nicht so tief. Je nach Markt und Sprache können Lücken in der Datenbasis bestehen. Ob es akzeptabel ist, dass diese erst im Rahmen eines Kundenprojekts gefüllt werden, hängt von der Frage- bzw. Aufgabenstellung ab.

Granularität

Die Kommunikate müssen strukturierter erfasst werden, als dies bei einer allgemeinen Suchmaschine der Fall ist. Der Absender/Kommunikator muss beispielsweise identifiziert werden. Es sollte festgestellt werden können, ob es sich um eine „Erstpost“ – einen vielleicht längeren Text mit Bewertungen handelt, ob es sich um einen Kommentar zu einem Erstpost handelt, eine Weiterleitung etc.

Aktualität

Die Daten sollen möglichst zeitnah zur Verfügung stehen. D.h. beispielsweise, dass bestimmte Plattformen in Zeitschnitten unter zwei Stunden erfasst werden können müssen, Objekte wie die eigenen Facebook-Pages müssen möglichst nahe an Realtime abgefragt werden können. Bei anderen reicht es, wenn die Abfrage ein bis viermal täglich erfolgt.

Stabilität

Die Datenerfassung muss stabil und kontinuierlich erfolgen – es dürfen keine längeren Downzeiten entstehen. Dies betrifft insbesondere die zeitsensitiven Bereiche. Die Erfassung der Daten kann aufgrund der Anforderungen nicht auf einem Weg erfolgen.

Es wird also nicht eine einzelne Technik – beispielsweise ein Crawler – eingesetzt, um die Daten zu erheben, sondern eine Vielzahl unterschiedlicher Techniken . So können beispielsweise Facebook oder Twitter mittels API abgefragt werden. Allerdings werden diese APIs häufig verändert/angepasst. Aus diesem Grund wird von den Toolanbietern auch auf Aggregatoren zurückgegriffen, die APIs bündeln und pflegen. Es gibt spezialisierte Dienstleister, die crawlen, etc. So kann es passieren, dass mehrere Toolanbieter auf einen relativ ähnlichen Datenbestand zurückgreifen. Der Unterschied der Tools besteht dann in der Auswertung der Daten, in deren Aufbereitung und in den Möglichkeiten, die zur Interaktion mit den Kommunikatoren geboten werden. Auf der Startseite von Gnip sind viele bekannte Marktteilnehmer zu finden.

Datenanalyse & -aufbereitung

Selbst wenn die Daten – unabhängig von der Fragestellung eines Kunden – sehr gut erfasst werden, so ist hierdurch zwar eine gute Basis geschaffen. Die Auswertung an sich und die Aufbereitung der Daten stellt aber erhebliche Anforderungen, die nicht für jedes Unternehmen oder Produkt in der gleichen Weise erfüllbar sind. Das Kriterium ist an dieser Stelle die Identifizierbarkeit.

Identifizierbarkeit

Die erhobenen Daten müssen in eine bestimmte Struktur gebracht werden – beispielsweise Treffer für Unternehmen. An einem Beispiel aus dem Outdoor-Markt wird das sehr deutlich. Während für Unternehmen wie VAUDE oder Salewa relativ leicht Kommunikate, die diese betreffen, identifizierbar sind, ist dies für Mammut oder The North Face sehr viel schwieriger. Es gibt eben gleichzeitig Kommunikate zu dem Urzeit-Rüsseltier und der Nordwand, die aus der Ergebnismenge ausgeschlossen werden müssen, ohne diese zu stark einzugrenzen. Hier ist der Dienstleister gefordert, entsprechende Lösungen anzubieten (z.B. elaborierte Bool‘sche Ausdrücke zu entwickeln). An dieser Stelle kann man die Leistungsfähigkeit sehr gut prüfen.

Akkurate Bewertung

Für Unternehmen ist natürlich sehr interessant, ob über sie gesprochen wird. Noch spannender ist es, ob die Äußerungen positiv oder negativ sind. Diese Bewertung soll möglichst automatisch mit einer möglichst hohen Güte erfolgen. In der Praxis hört man immer wieder von Trefferwahrscheinlichkeiten von 90 Prozent. Aus meiner Sicht kann man mit automatisch erzielten 80 Prozent schon recht zufrieden sein.

Die Aufgabe an sich ist auch nicht einfach. In einem Kommunikat – also beispielsweise einem Text von 1.000 Zeichen – können sich nicht nur eine, sondern gleich mehrere Bewertungen verstecken. Diese müssen sich nicht auf ein einzelnes Produkt oder Unternehmen beziehen – es können auch mehrere sein. Mit Bool’schen Verknüpfungen kommt man hier nicht zu einem vollständig treffsicheren Ergebnis.

Die an den benutzten Verfahren sind sehr unterschiedlich. Von vollständig manueller Codierung bis zum Einsatz von Verfahren künstlicher Intelligenz kann man die verschiedensten Methoden finden. Abgesehen davon, dass die vollständig manuelle Codierung sich höchstens für ex-post-Betrachtungen eignet und für den Wunsch nach Interaktion mit dem Kunden viel zu langsam ist, erscheint das Verfahren gerade bei größeren Kommunikationsaufkommen als zu aufwändig.

Mir sind Verfahren am sympathischsten, die den Großteil ihrer Arbeit automatisch machen und bei Zweifelsfällen manuelles Eingreifen erfordern. Sprich: Die Verfahren geben zu ihren Ergebnissen gleich noch an, wie hoch ihre Trefferwahrscheinlichkeit auf der Ebene des einzelnes Kommunikats ist. Wenn die Verfahren dann durch die manuelle Codierung/Bewertung auch noch lernen und im Laufe der Zeit immer seltener ein manuelles Eingreifen erforderlich wird, ist das umso besser.

Letztlich kommt man an dieser Stelle nicht um einen Test herum. Man muss ausprobieren, ob das Produkt den eigenen Ansprüchen genügt und man damit arbeiten kann. Für reine ex-post Betrachtungen und den Vergleich mit Wettbewerbern können Trefferwahrscheinlichkeiten von 80 Prozent ausreichend sein – auch beobachtete Wettbewerber sind vom gleichen Fehler betroffen. Die aus der Sozial- und Marktforschung bekannten statistischen Verfahren können genutzt werden, um die Sinnhaftigkeit zu überprüfen.

Identifikation von „Influencern“

Was sich viele Unternehmen erhoffen, ist die Identifikation von Influencern – also solchen Personen, die häufig ihre Meinung zu Unternehmen und Produkten des relevanten Marktes äußern und gleichzeitig viele Fans bzw. Follower haben.

Diesen Punkt hört man immer wieder von Kunden und auch bei Agenturen. Man möchte wichtige Kommunikatoren identifizieren, erreichen und sie möglichst im eigenen Sinne beeinflussen. Ich möchte nicht bewerten, inwieweit das gut oder schlecht ist. Es handelt sich auf jeden Fall um eine Aufgabe, die bei vielen Tools gelingt.

Persönlich finde ich einen Nebeneffekt ausgesprochen spannend: Immer wenn Kommunikatoren relativ rasch zu einem hohen Kommunikationsaufkommen zu einem bestimmten Thema bzw. Produkt neigen, handelt es sich aus meiner Sicht häufig um bezahlte Leistungen. So kann man natürlich sehen, wie stark sich Mitbewerber engagieren. Dienstleister empfehlen hier mittlerweile schon den langsameren “Aufbau” von Kommunikatoren.

Inwieweit dieses Spiel “below the line” von Nutzern akzeptiert wird, kann ich nicht einschätzen. Ich halte es für gefährlich, da es bei Identifikation dieser Kommunikatoren zu “Shitstorms” kommen kann – und sei es, dass diese von Konkurrenten angezettelt werden.

Datenaufbereitung

Hinsichtlich der Datenaufbereitung wird zwar auch mit verschiedenen Ansätzen gearbeitet – dennoch sind hierbei die Unterschiede hinsichtlich der Qualität geringer als bei den übrigen bisher genannten Punkten. Es lohnt sich einfach die Interfaces der Produkte anzuschauen, um diese nach persönlichem Geschmack und Arbeitsweise auszuwählen. Diese spielen dabei schließlich eine wichtige Rolle.

Interaktion

Je mehr Kunden ein Unternehmen hat, umso emotionaler die Beziehung der Kunden zu den Produkten; je teurer die Produkte sind, umso aufwändiger wird die Kommunikation über soziale Medien mit den Kunden. Am Beispiel von Facebook und Facebook Fans wird dies deutlichen. Wenn man 100 Fans hat, mit denen man kommuniziert, dann ist das weit weniger aufwändig als bei 100.000 Fans. Wenn sich ein Marketing-Leiter oder ein Geschäftsführer also viele Fans wünscht und in Werbung investiert, muss er hinterher auch noch Geld für die Betreuung dieser Fans in die Hand nehmen.

Da er dann mit größter Wahrscheinlichkeit nicht nur eine Page auf Facebook hat, sondern noch etwas bei Twitter etc. macht, wird die Aufgabe hinsichtlich der Beantwortung von Anfragen, Beschwerden etc. sehr schnell komplex. Der Grad an Komplexität steigt, wenn das Unternehmen auch noch sehr viele Produkte hat. Es wird ein Werkzeug benötigt, mit dem die Aufgaben verteilt und die Bearbeitung der Aufgaben beobachtet werden kann.

Umgang mit Kommunikaten

In einer ersten Stufe sollten Kommunikate aus dem Tool heraus vollständig angezeigt werden können, damit man diese beantworten kann, ohne die jeweilige Stelle im Web manuell suchen zu müssen. In einer weiteren Stufe ist es möglich, Kommunikate zu beantworten und zu kommentieren.

Workflows

In den Tools können Kommunikate meist – wenn zumindest eine Grundfunktionalität vorhanden ist – Bearbeitern zugewiesen werden. Hilfreicher ist es, wenn auch Gruppen angelegt werden können oder gleich Schnittstellen zu CRM-Systemen bedient werden können, oder die Zuweisung zu Bearbeitern automatisiert erfolgt. Zudem – und das ist ausgesprochen wichtig – sollte es möglich sein, den Stand der Bearbeitung von Aufgaben zu beobachten.

Erweiterte Kommunikationsmöglichkeiten

Die Frage, ob dann Funktionalitäten, wie beispielsweise das Anlegen von Fotoalben, gegeben sein müssen, ist eigentlich ein Randthema. Vielleicht ist es ein Feature, das Tools einmal haben werden. Mir ist derzeit noch keines bekannt. Ich nenne das Kriterium auch nur der Vollständigkeit halber und weil es mitunter als ein „Kritikpunkt“ an reinen One Stop Social Media Management Tools wie HootSuite oder TweetDeck aufgeführt wird.

Wie geschrieben – die Anforderungen sind hierbei stark vom Kommunikationsaufkommen abhängig. Für geringere Kommunikationsaufkommen erscheint es mir völlig ausreichend, wenn die entsprechenden Kommunikate aus dem Tool heraus aufgerufen und beantwortet werden können.

Aus welchen Bereichen kommen die Anbieter?

Wenn es viele Produkte für einen Anwendungsbereich gibt, dann haben die Anbieter häufig einen völlig unterschiedlichen Hintergrund. Das schlägt sich auf die technische Spezifikation der Produkte selbst nieder, und auf die Konzepte, wie die Produkte angeboten werden.

Hier zunächst zwei Links zu Verzeichnissen der Produkte:

Grob unterscheiden kann man in

  • Unternehmen, die lediglich eine technische Dienstleistung anbieten – also die Software
  • Dienstleister, die eine Software haben (nicht zwingend eine Eigenentwicklung), die diese auch noch einrichten (z.B. Topics definieren, Dashboards einrichten).
  • Dienstleister, die neben der Software und deren Einrichtung auch noch Aufgaben im Bereich Social Media übernehmen.

Alexander Plum hat zudem noch in Technologie-Know-how und Methoden-Know-how unterschieden. Nach meiner Einschätzung bezieht sich diese Dimensionierung auf den Hintergrund des Dienstleisters und ist zudem durchaus eine Beachtung wert.

Es gibt Dienstleister, die einen Schwerpunkt in der klassischen Medienanalyse haben. Für diese ist es natürlich mehr als naheliegend, die Analysegegenstände auszuweiten. Genauso ist es bei Web-Analytics-Dienstleistern. Social Media-Dienstleister benötigen natürlich Tools, um ihre Arbeit effizient zu gestalten. Bei diesen liegt naturgemäß ein stärkerer Schwerpunkt auf dem Interaktionsaspekt. Unternehmen – wie beispielsweise Adobe – benötigen ein entsprechendes Produkt zur Abrundung ihrer Marketing Suite. Dann gibt es noch Unternehmen, die eher aus dem technischen Bereich kommen, bei denen Know-how im Bereich Crawling, Textklassifikation oder KI vorlag.

Insgesamt möchte ich einfach nur darauf hinweisen, dass man diesen Aspekt bei der Entscheidung für oder gegen ein Produkt mit berücksichtigen sollte, weil der Bereich aus dem die Unternehmen kommen, meist am stärksten ausgeprägt ist.

Wie anfangs schon geschrieben, würde ich mich über Feedback freuen und den Beitrag gerne aktualisieren, wenn an der einen oder anderen Stelle noch Verbesserungsbedarf besteht. Klicken Sie einfach auf Kommentieren oder schreiben Sie mir eine Mail.

Visit-Entwicklung deutscher Social Networks 2010/11

Mit den deutschen Social Networks geht es bergab – mit allen? – Nein! –  XING trotzt dem Trend. Die Konzentration auf Business Nutzer hilft offensichtlich, der Abwanderungsbewegung zu widerstehen, der die anderen Networks unterworfen sind. LinkedIn hat noch nicht sehr an der Reichweite genagt – nur 20 Prozent weniger Visits als im März 2010.

Die Frage, ob durch Social Media-Nutzung die Reichweiten redaktioneller Angebote zurückgehen, kann man anscheinend verneinen. Die Visit-Zahlen von SPIEGEL Online stiegen in den vergangenen beiden Jahren. Diese wurden zum Vergleich in die folgende Abbildung aufgenommen.

Visits deutscher Social Networks 2010/11
(Quelle der Daten: IVW)


VZ Netzwerke am stärksten betroffen

Die Zielgruppe Schüler und Studierende unterliegt offensichtlich der schnellsten Abwanderungsbewegung nach Facebook. Die VZ-Gruppe hat seit dem Höchststand der Visits im Mai 2010 über 80 Prozent der Besuche verloren.

Bei WKW verlief der Rückgang der Besuche im etwa gleichen Zeitrahmen weniger stark – auch wenn ein Verlust von 60 Prozent des Traffic sicher kein Pappenstiel ist. Es ist anzunehmen, dass die VZ Gruppe im Dezember weniger Visits haben wird als WKW.

Bei den Lokalisten setzte der Rückgang noch früher ein als bei der VZ Gruppe und WKW und war noch dramatischer. Von dem ohnehin nicht gewaltigen Traffic ist gerade ein Siebtel verblieben.

StayFriends habe ich aus der Abbildung herausgenommen. Ansonsten wäre diese im unteren Bereich etwas unübersichtlich geworden. In den vergangenen beiden Jahren gingen die Visits von 37,5 Mio. auf 16,2 Mio. zurück.

Kaum Auswirkungen auf SPIEGEL Online

Deutlich wir aber auch, dass SPIEGEL Online einem konstanten leichten Wachstum unterliegt. Mit einem Zuwachs der Visits von 17 Prozent im Verlauf der vergangenen beiden Jahre liegt das Wachstum stark über der Zunahme der Internet-Nutzerschaft in Deutschland.

Wieviele Deutsche nutzen „Social Media“?

  • Über 50 Millionen Onliner,
  • 30-33 Millionen Social Media Nutzer,
  • Knapp 20 Millionen Facebooker,
  • Wahrscheinlich etwa eine Million Google Plusser

Nachdem in den vergangenen Tagen auf Google+ mal wieder viel über Zahlen diskutiert wurde, hab ich mich bemüht und ein wenig Material aus verschiedenen Studien zusammengetragen, damit man vergleichen und die Zahlen besser einschätzen kann. Es sind Studien bzw. Zahlen von

  • BITKOM
  • AGOF
  • ARD/ZDF
  • ComScore
  • Facebook-Planungstool
  • Compete.com

Im November veröffentlichte BITKOM die Ergebnisse einer Forsa-Befragung. Da haben wir zunächst mal folgendes Ergebnis:

Leider sagt man uns dabei nicht, auf welche Internet-Reichweite man im Rahmen der Befragung von 1.023 Internet-Nutzern ab 14 Jahren gekommen ist. In der letzten AGOF Studie werden etwa 50 Mio. Internet-Nutzer für Deutschland ausgewiesen. Das wären dann etwa 25 Mio. Facebooker. Das Facebook-eigene Planungstool gibt heute (7.12.2011) eine Zahl von 21,3 Mio. aus. Dabei wird allerdings eine Obergrenze von 64 Jahren gezogen. Beachtet man, dass es sich bei einem Teil der Accounts um Fakes handelt (privat und von Dienstleistern), so sollte man davon ausgehen, dass die tatsächliche Zahl unter 20 Mio. liegt. Forsa würde also um etwa 20 Prozent übermessen.

Die Zahl von 50 Mio. Online-Nutzern in Deutschland wird auch durch die aktuelle ARD/ZDF Onlinestudie bestätigt. Dort liegt sie etwas höher – bei 51,7 Mio. Allerdings fand die Erhebung dieser Zahlen im März 2011 statt. Zu diesem Zeitpunkt gaben 43 Prozent der Befragten an, ein Profil bei einer „Social Community“ zu haben. Das wären etwa 22 Mio. Schon sind wir in Schwierigkeiten. Sind denn tatsächlich alle Onliner, die in „Social Communities“ registriert sind, bei Facebook? – Alleine auf das halbe Jahr Abstand in der Erhebung wird man den Effekt nicht zurückführen können. Vermuten wir einfach, dass es an der Fragestellung lag. Bei Langzeitstudien – wie der von Enigma-GfK durchgeführten ARD/ZDF-Onlinestudie – ist es enorm schwierig, Fragestellungen anzupassen, da diese Zeitreihenvergleiche unmöglich machen. Hierbei können Fragen nach Profilen in „Social Communities“ oder alternativ „Social Networks“ stark unterschiedliche Ergebnisse erbringen.

So bleibt eigentlich kaum etwas anderes übrig, als mit den Zahlen der AGOF zu arbeiten. Dort werden in der aktuellen Studie die Werte für die VZ Netzwerke, wer-kennt-wen.de und Lokalisten ausgewiesen.

Netzwerk Reichweite in % Reichweite in Mio.
VZ Netzwerke

13,9%

7,0 Mio

Wer-kennt-wen.de

11,2%

5,6 Mio

StayFriends.de

10,2%

5,1 Mio

XING

7,6%

3,8 Mio

Myspace.de

7,2%

3,6 Mio

Lokalisten

2,0%

1,0 Mio

Quelle: AGOF (Angebotsranking August 2011 – http://www.agof.de/angebotsranking.619.de.html)

Vergleicht man diese Zahlen mit der Rangliste der BITKOM-Studie, so ist das Abschneiden von StayFriends schon sehr erstaunlich. Man ist verunsichert. Bei welcher Studie läuft was falsch? Auch wenn ich mir nicht die Mühe gemacht habe, die Signifikanzniveaus zu ermitteln – die Ergebnisse liegen zu weit auseinander, um sie mit statistischer Ungenauigkeit erklären zu können. Zudem sind die Reichweitenwerte der AGOF sehr viel niedriger als die des BITKOM. Hier wären mehr Informationen hinsichtlich der Fragestellung hilfreich.

ComScore kommt freilich zu ganz anderen Ergebnissen: 72,7 % der deutschen Onliner (ab 13 Jahren) sind bei Facebook. Nachgerechnet hat bei ComScore und MediaMetrix offensichtlich keiner. Bei angenommenen 50 Millionen deutschen Onlinern wären das stattliche 36,5 Millionen. Erinnern wir uns – das Planungstool von Facebook gibt uns einen Wert von 21,3 Millionen aus, der nach meiner Einschätzung übermessen ist. Um es salopp auszudrücken: ComScore weist für Deutschland nahezu doppelt so viele Facebook-Nutzer aus,wie es tatsächlich gibt. Zur Ehrenrettung muss man allerdings sagen, dass es sich bei der Methode um eine User-zentrische Erhebung handelt, bei der die Panelteilnehmer eine Software auf ihren Rechnern installieren müssen. Dies führt in Deutschland u.a. dazu, dass die Nutzung in Unternehmen mit einem starken Bias in die Ergebnisse einfließt. Dennoch sind die Werte eigentlich unbrauchbar – mit dem Facebook-Planungstool und den Ergebnissen einer Telefonbefragung wäre man weiter gekommen (Quelle: ComScore).

Zudem setzt ComScore die Gesamtreichweite von Social Media in Deutschland auf 89,6 % der Online-Nutzer. Etwas realistischer erscheint hier der Wert des BITKOM: Dort werden 74 % ausgewiesen. Das wären etwa 36 Millionen. Addiert man die Werte aus obiger AGOF-Tabelle, so erhält man 26,1 Millionen (dabei werden übrigens Plattformen wie fotocommunity.de, MyVideo etc. nicht mitgerechnet). Ich gehe deshalb hier davon aus, dass der Wert des BITKOM leicht übermessen ist und wir höchstwahrscheinlich eine Zahl von 30 bis 33 Millionen Social Media Nutzern in Deutschland haben. Etwa knapp zwei Drittel davon haben einen Account bei Facebook.

Unter diesen Umständen möchte man den von Comscore veröffentlichten Werte kaum Vertrauen schenken. Eine Frage wurde allerdings noch nicht beantwortet: Wie groß ist der Anteil derer, die Social Networks mobil nutzen? 17,3 Prozent der deutschen Besitzer eines mobilen Endgeräts haben damit zwischen Juli und September 2011 ein „Social Network oder Blog besucht“. Es handelt sich dabei um die Ergebnisse einer Online-Befragung (ab 13 Jahren). Ich vermute, dass es sich um eine Stichprobe aus den ComScore Panelisten handelt (Quelle: ComScore).

Was natürlich ausgesprochen stark interessiert: Wie viele Nutzer hat Google+? Compete.com zeigt derzeit 12,4 Millionen Nutzer – also erheblich weniger als die 40 Mio., die von Google selbst kommuniziert wurden. Diese beziehen sich ausschließlich auf die Nutzung in den USA. Dafür wird ein Panel betrieben.

Unter dieser Rahmenbedingung könnten die auf Flowtown publizierten Zahlen (5,3 Millionen USA, 0,7 Millionen Deutschland) durchaus realistisch sein. Geht man davon aus, dass in die Befragung des BITKOM ein Marken-Bias hineinreicht, so sollte die Zahl der Google+ Nutzer in Deutschland auf etwas mehr als einer Million liegen (Quelle: Flowtown).