Reden Sie ihren Kunden den Visitor aus! Besucher sind nicht valide messbar und taugen als KPI nicht

Immer wieder lese ich über Visitor-Zahlen, dabei sind diese kaum bestimmbar – und wenn, dann nur unter eng eingegrenzten Bedingungen. Schon seit über zehn Jahren versuche ich, die Kennzahl – KPI – bei meinen Jobs zu vermeiden. Sie taugt einfach nicht. Es ist ein wenig wie bei diesem so wichtigen Satz auf der ersten Seite von Ludwig Wittgensteins Tractatus: „Was sich überhaupt sagen läßt, läßt sich klar sagen; und wovon man nicht reden kann, darüber muß man schweigen.“ Für die Digital Analytics heißt dies übersetzt: „Was sich messen lässt, lässt sich klar messen: und was man nicht messen kann, davon muss man schweigen.“

Damit möchte ich ausdrücken, dass sich Web- oder Digital Analytics Spezialisten keinen Gefallen tun, wenn sie mit Kennzahlen arbeiten – um nicht hantieren zu schreiben – die kaum valide bestimmbar sind. Sicher, in der letzten Auflage meines Buchs „Marketing-Instrument Internet“ habe ich 2003 geäußert, dass das Cookie wohl die beste Annäherung bringt. Der Hintergrund war zu diesem Zeitpunkt ein anderer: Es gab weder viele Mobilgeräte noch die grundsätzliche Verweigerungshaltung gegenüber Cookies in vielen Bereichen. Diese trägt dazu bei, dass Nutzer im Grunde nur noch im eingeloggten Zustand einigermaßen valide messbar sind. Ich drösele den Zusammenhang hier auf, denn es hat – wenn es um Messzusammenhänge mit Menschen geht – immer eine sozialwissenschaftliche Komponente, die wir bei aller Begeisterung über die so tollen Möglichkeiten der Technik zu leicht vergessen.

Was sind Besucher oder Visitors?

Also – wenn wir von Besuchern oder Visitors reden, dann geht es um einen Head Count. Wir sollen also Köpfe zählen. Sind dies beispielsweise Brutto- oder Nettowerte? Vielleicht kennen Sie dies von der Zählung von Messebesuchern. Bei mehrtägigen Messen ist es üblich Messebesucher, die an mehreren Tagen das Messegelände betreten, auch mehrfach zu zählen. Einen expliziten Hinweis darauf, oder die Darstellung von Brutto- und Nettowerten, gibt es leider nur in seltenen Fällen. Diese Zahlen sollen aus der Sicht der Veranstalter möglichst hoch wirken. Nun ist dies bei Messen nicht so tragisch. Dies laufen in der Regel über wenige Tage und sie sind meist individuell. Die Zahl der Besucher pro Messetag ist eine sehr gute Maßzahl. Bei Websites werden normalerweise auch größere Zeiträume beobachtet und analysiert. Dabei wäre eine Mehrfachzählung nur wenig zielführend. Genau darauf läuft es jedoch hinaus, wenn wir kommentarlos die Visitor-Zahlen weitergeben und der Empfänger der Zahlenwerke vielleicht auch noch ernsthaft versucht, damit zu arbeiten. Dass das Cookie zur Messung kaum taugt, habe ich in einem früheren Beitrag beschrieben. Dabei ging es weitgehend um technische Fragestellungen. Möglicherweise hilft es ja, wenn ich hier nochmal den sozialen Kontext integriere. Ich will damit eine Argumentationshilfe bauen, damit Visitor- oder Besucher-Kennzahlen – KPIs – aus Reports herausargumentiert werden können, solange die Werte nicht annähernd valider bestimmbar sind.

Vom Zielgruppen-Dashboard in Google Analytics bleibt nicht mehr viel übrig, wenn die Kennzahl "Nutzer" nichts taugt!
Vom Zielgruppen-Dashboard in Google Analytics bleibt nicht mehr viel übrig, wenn die Kennzahl „Nutzer“ nichts taugt!

Ein Besucher, mehrere Endgeräte

Wir sollen bei der Bestimmung des Visitors also Köpfe zählen. Diese Besucher benutzen jedoch deutlich mehr Endgeräte als noch vor 15 Jahren. Denken Sie bitte daran, wie viele Endgeräte Sie selbst benutzen, um Websites zu besuchen! Im Büro gibt es oft ein Notebook oder einen Arbeitsplatzrechner. Unterwegs ein Mobiltelefon und vielleicht noch ein Tablett. Wobei, bei vielen meiner Kollegen beobachte ich mittlerweile das Zeitgerät. Zuhause gibt es dann ein weiteres Notebook oder vielleicht eine Gaming-Maschine und ein Tablet. Wie ist das? Sind alle Browser brav bei Google eingeloggt und synchronisieren sich diese über Gerätegrenzen hinweg oder etwa nicht? Lassen sie möglicherweise Safari grundsätzlich als „Neutral-Browser“ laufen, um einfach einen nicht getrackten Zustand simulieren zu können? Haben Sie für die berufliche Nutzung Edge, weil der Arbeitgeber irrigerweise nichts anderes erlaubt? Trennen Sie beruflich und privat durch Chrome und Firefox? Wie auch immer – als Digitala oder Digitalo würden und werden Sie mehrfach gezählt. Nein – haben Sie tatsächlich all ihre Browser auf allen Geräten synchronisiert? Sie vielleicht, aber nicht alle Nutzer. Und da haben wir den Salat. Die Zahl der Besucher wird aufgrund der Nutzung mehrerer Endgeräte übermessen. Hierdurch werden also mehr Visitors ausgewiesen, als es tatsächlich sind.

Wenn Sie nun an Menschen denken, die nicht in Büros arbeiten… Wie ist die Situation hier? Ein Smartphone haben diese auch alle. In den meisten dieser Haushalte gibt es wenigstens noch ein weiteres Gerät, entweder ein Notebook, einen Desktop-Rechner oder ein Tablet. Auch hier kann es zu einer Mehrfachzählung kommen.

Ein Endgerät, mehrere Besucher

Oft kommt es hierbei zu einem gegenteiligen Effekt. Wenn nicht jedes Haushaltsmitglied seinen eigenen Rechner hat, wird dieser geteilt. Ob dann verschiedene Nutzerkonten für verschiedene Nutzer angelegt wurden, kann durch einfache Methoden der Web-Analytics nicht belegt werden. Gerade bei Menschen, die keinen Bürojobs nachgehen oder vielleicht schon in Rente sind, wird eine solche Situation oft treffend sein. Wenn unterschiedliche Menschen das gleiche Endgerät (am gleichen Tag) benutzen, wird die Zahl der Besucher untermessen. Es werden also weniger Visitors ausgewiesen, als es tatsächlich sind.

Man könnte nun die Meinung vertreten, dass sich beide Effekte aufheben – die Unter- und Übermessung sich also aufheben und wir dadurch einen der durchschnittlichen Realität entsprechenden intersubjektiven Mittelwert als Resultat bekommen. Nur haben wir nicht die geringsten Belege dafür, dass sich die Abweichungen nach oben und unten ausgleichen, also sollten wir nicht der Versuchung erliegen, dies anzunehmen. Allerdings ist dies schon seit gut 20 Jahren gängige Praxis. Besser wird es dadurch immer noch nicht. Auch der Verweis auf die Unzulänglichkeiten der sozialwissenschaftlichen Offline-Befragungsmethoden halte ich für nicht angebracht. Entweder macht man seine Arbeit gut und transparent oder man lässt es.

Die Cookie-Falle

Neben diesen Faktoren, die durch das Verhalten der zu messenden Besucher begründet sind, gibt es noch leidige technische Unzulänglichkeiten. Zur Messung der Besucher wird das Cookie herangezogen. Dabei ist es noch mehr als bei den oben genannten Fehlerquellen so, dass das Cookie-Verfahren hinsichtlich der validen Messung von Nutzern mehr Verwirrung schafft, als es wertvolle Schlüsse zulässt, denn Nutzer können es ablehnen oder blockieren. Mitunter blockiert es auch der Browser ohne Zutun der Nutzer. Diese können der Verwendung zustimmen und doch wird der Keks nach kurzer Zeit gelöscht. Wenn, dann funktioniert es am besten, wenn man Nutzer zu einem automatischen Login bewegt, denn dann kann man diesen Teil der eingeloggten Nutzer sauber analysieren. In diesem Fall gibt es also zwei Töpfe: Den der eingeloggten Nutzer und den der Nutzer oder Cookies, bei denen man nicht wirklich Genaues sagen kann. Sicher – es ist möglich, einen Schritt weiterzugehen und Auswertungen über die IMEI und entsprechende Synchronisationen durchzuführen. Ich sage ja auch nicht, dass dies im Detail unsinnig ist. Es ist ein Herantasten an die valide Messung realer Situationen. In einem früheren Beitrag bin ich auf die Cookie-Problematik genauer eingegangen.

Besucherzahlen: Kennzahl richtig oder gar nicht verwenden!

Was mir wichtig ist: Berater sollten ihren Kunden dringend die Arbeit mit den Kennzahlen bzw. KPI „Besucher“, „eindeutige Besucher“ in den Standard Reports von Google Analytics ausreden. Eine valide Messung ist nur unter eng abgesteckten Bedingungen möglich. Da ist es eher hinderlich, wenn Google die Kennzahl in GA überhaupt global ermöglicht und es kein Verfahren, gibt den Wert aus den Standard Reports zu verbannen.

Auswege, die bleiben, sind:

  • Möglichst viele Nutzer zu einem (automatischen) Login zu bewegen und diese in speziellen Reports analysieren. Das Login-Verfahren betreiben viele Online-Publikationen, die mit Werbung einen Teil ihrer Einnahmen erzielen.
  • Den direkten Zugriff auf Google Analytics verbieten und Zahlenwerke an anderer Stelle zu zeigen, seien es Tableau, Qlik, DataStudio etc.
  • Dem Kunden bzw. Unternehmen mit genauer messbaren Kennzahlen sichere Entscheidungshilfen geben. Hierzu werde ich mich in einem weiteren Beitrag beschäftigen.

Damit sind wir wieder bei Wittgenstein: Sagen Sie, was Sie sicher messen können. Und über das, was Sie nicht messen können, sollten Sie schweigen! Da nun mal das Kind schon recht lange in den Brunnen gefallen ist, nochmal meine eindringliche Bitte: Erklären Sie Ihren Kunden oder Chefs, dass die Visitors nicht messbar sind und man sich sogenannte Besucherzahlen als KPI ohne entsprechende Rahmenbedingungen getrost in die Haare schmieren kann.

Covid-19-Situation in Aachen: Degressive Entwicklung in der vergangenen Woche

(Am 30.3.2020 leicht aktualisiert)
Corona nimmt uns alle mit. Ob es nun die konkrete Krankheit ist, das geschlossene Geschäft, Belastung durch dauerhaftes Homeoffice, notwendigen Schichtbetrieb etc. Aachen liegt nahe dem deutschen Hotspot Heinsberg und war früh ein Kreis mit mehr als 150 festgestellten Infektionen (am 15.3.2020). Vielleicht ist es deshalb schon jetzt ein Gebiet mit einer degressiven Entwicklung der dokumentierten Infektionen. Aber machen wir zunächst einen Schritt zurück:

Covid-19 verbreitet sich anfangs exponentiell – bis zum ersten Wendepunkt. Idealtypisch ist es – wie bei allen Diffusionen – eine Glockenkurve bzw. Normalverteilung. Es geht um den guten alten Gauss, den wir vielleicht schon in der Schule oder zumindest im Statistik-Unterricht an der Hochschule kennengelernt haben. Ob man die Methodik nun für das Marketing, in der Kommunikationswissenschaft oder für die Beurteilung der Verbreitung von Krankheitserregern nutzt, ist zweitrangig, denn die Ableitungen sind immer ähnlicher Natur. Wichtig ist für uns der erste Wendepunkt, das ist der Zeitpunkt, von dem an der absolute Zuwachs an festgestellten Infektionen geringer wird im Vergleich zu den vorigen Messzeitpunkten. In diesem Fall heißt das, dass die Verbreitungsgeschwindigkeit abnimmt und die getroffenen Maßnahmen anschlagen. In Aachen ist das derzeit tatsächlich so. Allerdings ist das nicht wirklich leicht messbar:

Zunächst müssen Tests durchgeführt werden. Sind diese ausreichend und repräsentativ? Es kann eben sein, dass Infizierte nicht zum Test gehen wollen oder abgelehnt werden. Zudem können zeitliche Ungleichverteilungen stattfinden, weil beispielsweise Teststellen ungleichmäßig besetzt sind. Schließlich kommt es immer wieder zu Verzögerungen bei der Meldung der Fallzahlen. Hierbei wird es im Nachgang zur Corona-Krise sicher zu Korrekturen kommen. Um diese Unwägbarkeiten auszugleichen, arbeitet man normalerweise mit Glättungen – d.h. bildet Durchschnittswerte oder fasst Zeiträume zusammen. Ich habe das für die Region Aachen einfach mit den Zahlen aus den Pressemitteilungen der Stadt Aachen gemacht.

15 Prozent Rückgang der Neuinfektionen

So stellt man erfreulicherweise fest, dass die Zahl der Neuinfektionen in den sieben Tagen vom 15.3. bis zum 21.3.2020 mit 361 erheblich höher lag als vom 22.3. bis zum 28.3.2020. Im jüngsten Zeitraum kamen nur 308 neue festgestellte Infektionen hinzu, es handelt sich also um einen Rückgang um rund 15 Prozent. Dies lässt in Anbetracht der langen Infektions- und Krankheitszeiträume hoffen. Möglicherweise schlagen die Maßnahmen der Bundes- und Landesregierung in der Region Aachen aufgrund der Nähe zu Heinsberg schneller an als in anderen Gebieten Deutschlands – durch die angesprochene Nähe verhalten sich die Menschen vielleicht anders. Am Samstag und Sonntag kamen jeweils weniger als 5 Prozent gemeldete Neuinfektionen hinzu. Ausreichend ist diese Rate wahrscheinlich noch nicht: Erst wenn ein Infizierter durchschnittlich weniger als einen Nicht-Infizierten ansteckt, kommt es zu einem absoluten Rückgang. Da sowohl die Inkubationszeiten als auch die Krankheitsverläufe lang sind, erlaube ich mir hierzu keine Aussage und warte auf zurückgehende absolute Zahlen der Infizierten.

3 Euro Erhöhung der Ticketsteuer – weniger als ein Anfang

Eigentlich ist das hier kein politisches Blog. Aber die Entscheidung der Bundesregierung, die Ticketsteuer resp. Luftverkehrabgabe nur marginal zu erhöhen finde ich einfach handwerklich superschlecht oder von falschen Zielen getrieben. Da wurde wohl schnell etwas total wirkungsloses zu einer ohnehin steuerungslosen Abgabe hinzugefügt, damit etwas gemacht wurde. Das ist einfach nur ärgerlich! Zugegeben, mein Ökonomiestudium in Mannheim liegt schon einige Jahre zurück. Und das was da gemacht wurde widerspricht so ziemlich allem, was ich gelernt habe.

Die Ticketsteuer ist eine wirkungslose Mengensteuer

Also – in Deutschland gibt es bereits seit 1. Januar 2011 eine Luftverkehrabgabe oder Ticketsteuer. Gebracht hat diese außer einem Steuerkaufkommen von knapp 600 Millionen Euro in 2018 für knapp 80 Millionen Passagiere – nichts. Steuer kommt von steuern und das Steuerziel war die Begrenzung des Luftverkehrs. In der Abbildung wird dies überaus deutlich – nach 2008 sank die Zahl der Passagiere aufgrund der wirtschaftlichen Delle. Dann stieg diese wieder kontinuierlich an. Zugegeben – unsere Nachbarn in Europa arbeiten mit ähnlichen Konzepten. Deshalb wird die Steuer auch nicht besser. Mengensteuern sind ohnehin keine sonderlich intelligenten Werkzeuge: 2011 wurden auf Kurzstrecken knapp 8 Euro gefordert – egal ob es ein Ticket für 99 oder 400 Euro war. Liebe SPD – sonderlich sozial ist das nicht. Steigt der Preis eines Gutes inflationsbedingt, so reduziert sich auch der Steueranteil pro Ticket. Insgesamt ist es so, dass eine Vielzahl der Mengensteuern zu Bagatellsteuern verkommen sind – sie sind einfach doof, weil sie bei einer sehr geringen Preiselastizität keine steuernde Wirkung haben. Ich frage mich, wer bei den Verhandlungen der Koalition auf die nutzlose Idee gekommen ist, das Instrument, das bei einem Preis von 8 Euro nicht funktioniert hat, um weniger als ein Drittel zu erhöhen und zu glauben, dass es zu einer Verhaltensänderung kommt? Wenn man tatsächlich steuernde Wirkungen verzeichnen möchte, hätten es mindestens 30-50 Euro sein müssen.

Anzahl der beförderten Personen im Luftverkehr in den Jahren 2004 bis 2018 in Deutschland (Passagiere in 1.000)

Ein Beispiel: Ein Flugticket von Düsseldorf nach Berlin kostet oft sehr viel weniger als ein Zugticket und es geht schneller. Ich wohne in Aachen. Wie soll ich mich entscheiden? Der Zug kostet 178 Euro. Der Flieger 157 Euro ab Düsseldorf. Mit dem Flieger schaffe ich es an einem Tag – mit dem Zug brauche ich wegen der 5 ½ Stunden Fahrzeit zwei Tage und benötige zusätzlich eine Hotelübernachtung. Bei der Flugreise zahle ich außerdem 26 Euro für das Parkhaus. Nach der Abgabenanpassung liegen wir in beiden Fällen bei 160 Euro. Die Nebenkosten bleiben identisch. Mit der Bahn sind es dann wahrscheinlich etwa 260 Euro, mit dem Flieger habe ich noch einen Puffer von 70 Euro für Taxi & Co. BTW: Der Steueranteil bei Bahn und Flugzeug ist in diesem Beispiel nahezu identisch. „Steuern“ wird die Ticketsteuer für Flüge so nicht!

Zu beachten und analysieren wäre besonders die sogenannte Kreuzpreiselastizität: Wie muss sich der Ticketpreis des Zuges ändern, damit dieser dem Flugzeug vorgezogen wird oder umgekehrt: Wie muss sich der Ticketpreis des Flugzeugs ändern, damit der Zug vorgezogen wird. Es sind schließlich nicht zwei vollständige Äquivalente. Der Zug kostet mehr Zeit, lässt einen aber unterwegs mitunter besser arbeiten. Zusätzlich müssen Nebenkosten wie Hotels in die Analyse integriert werden etc.

Angebotsseitige Wertsteuer für Luftverkehr notwendig!

Was im Grunde noch gravierender ist: Fliegt ein leerer Flieger durch die Luft, ist das Steueraufkommen gleich Null! Der Anreiz der Fluggesellschaften, Sprit zu sparen oder umweltfreundlichere Antriebe einzusetzen, ist nicht gegeben.

Bei der Ticketsteuer handelt es sich um eine nachfrageseitige Abgabe ohne Wertbezug. Die Steuerung über eine Wertsteuer auf der Angebotsseite wäre aber sehr viel effektiver. Im einfachsten Fall könnte dies über die Besteuerung des Kerosins stattfinden. Die hierdurch entstehenden Kosten würden Fluggesellschaften auf die Tickets aufschlagen. Zumindest für Inlandsflüge würde dies auch zu keiner Wettbewerbsverzerrung auf internationaler Ebene führen und könnte ohne weiteres eingeführt werden und würde schon zu erheblichen CO2-Einsparungen führen – es sind knapp 50 Prozent der Flugtickets! Mit dem Ziel, diese Besteuerung auf europäische Ebene auszuweiten, könnte hier aufgrund der oben angesprochenen Elastizität mit nicht unerheblichen Steuereinnahmen vom mehr als 5 Mrd. Euro gerechnet werden. Zumindest aus Frankreich kommen hierfür wohlwollende Signale. Sicher, die Fluggesellschaften sind hiervon größtenteils nicht begeistert. An vielen sind die Staaten beteiligt und sie rechnen mit Mindereinnahmen. Aber wie geschrieben, die Preiselastizität ist sehr ähnlich wie bei Zigaretten. Brutto würde jedoch für den Staat mehr übrigbleiben, das Flugaufkommen wäre lenkbar und der CO2-Ausstoß würde verringert.

EasyJet ist hier übrigens eine Ausnahme – diese Fluggesellschaft übt sich in der Reduktion des Kraftstoffverbrauchs und wäre begeistert.

Bilder als SEO-Faktor

2019 feiern wir das 25. Jahr Suchmaschinenoptimierung. SEO war über all die Jahre ein Rennen zwischen Optimieren, Manipulatoren und Suchmaschinen. Suchmaschinen suchten immer nach schwer bzw. aufwändig zu manipulierenden Validatoren als Ranking-Faktoren. Googles Page Rank – grob gesagt, die Links auf eine Seite als Relevanz-Kriterium – ist nun auch schon über 20 Jahre alt. Jetzt kommen die Bilder also SEO-Kriterium dran. So banal, wie das zuletzt in einem t3n-Artikel beschrieben wurde, ist es aber leider nicht. Google kann nämlich erheblich mehr als einfach nur einen Dateinamen auslesen, den ALT-Tag analysieren, den Kontext beurteilen sowie Dateiformate oder Bildauflösungen beurteilen.

Bilder als SEO-Kriterium sind im Kommen

Dies wird nach meiner Einschätzung die neue Sau werden, die während der kommenden Jahre durch die Online-Dörfer getrieben wird. Die vergangenen Jahre waren durch die Content-Produktion im Bereich Wording geprägt und Content-Marketer scheinen leider noch immer kaum Gedanken an visuellen Content zu verschwenden. Zumindest deuten das die jüngst in Lead digital von Karsten Lohmeyer genannten Trends an. Doch jetzt erreicht uns die Bilder-Welle mit ungeahnter Kraft. Ist die Antinomie zwischen Voice-Search und Bilder-SEO nicht eigenartig? – Auf der einen Seite Suche mit Wörtern und auf der anderen Seite Bewertung durch Bilder? – Seit Instagram, Pinterest und Tumblr stiegen die Anforderungen hinsichtlich Quantität und Qualität des Bildmaterials stetig. Tolle, ansprechende Fotos in gewaltiger Zahl sind mittlerweile notwendig – auch wenn die Textproduktion freilich nicht vernachlässigt werden darf.

Pole-Position ohne Text – helfen Bilder?

So genau kann ich mich nicht mehr erinnern. Wahrscheinlich sind es etwa drei oder vier Jahre, seit es Seiten ohne offensichtliche Textoptimierung schaffen, die ersten Plätze der Ergebnislisten zu belegen. Was im ersten Moment eigenartig erscheint, kann natürlich verschiedene Ursachen haben. Google könnte beispielsweise merken, dass die Nutzer genau diese Seiten für die korrelierten Keywords bevorzugen. Sie kennen wahrscheinlich die Geschichte mit den häufig wechselnden Treffern auf den hinteren Plätzen der ersten Ergebnisseite. Im Allgemeinen geht man davon aus, dass Google hierbei testet. Analysiert man die Struktur und die Inhalte der hinter den textarmen Seiten liegenden Inhalte, so konnte man in der Vergangenheit feststellen, dass diese sehr wohl textoptimiert waren.

Google Lens erkennt sehr viele Bilder

Im Dezember war ich in Sevilla und hatte keinen Reiseführer dabei. Ich musste zunächst mit Google Trips und TripAdvisor auskommen. Dann stand ich an der Plaza de España, es war schönes Wetter, schnell ein Foto gemacht und dann – ein neues Symbol unterhalb des Fotos in Google Fotos. Ein Klick und schon war sie da, die Information über meinen Aufenthaltsort und die Möglichkeit, den Wikipedia-Eintrag direkt abzurufen (siehe Abbildung). Während das an dieser Stelle vielleicht nicht ganz so schwierig war – natürlich hatte ich die Standortermittlung freigeschaltet und die Geokoordinaten waren somit im Foto enthalten – kann Google noch viel mehr.

Google Lens erkennt die Plaza de España in Sevilla
Google Lens erkennt die Plaza de España in Sevilla

Bilder-SEO muss entwickelt werden

Im zweiten Beispiel sehen Sie eine Frau, die ein Foto des Op-Art-Künstlers Victor Vasarely im Städel Frankfurt aufnimmt (hervorragende Ausstellung übrigens). In Googles überwältigender Manier wird zunächst der Pulli der Fotografin interpretiert. Damit kann zukünftig Geld verdient werden. Sie sehen das in der zweiten Abbildung. Ob das Kleidungsstück tatsächlich von Marc o’Polo ist? – Vermutlich nicht. Deutlich wird, dass eine „Bilder-SEO“ in einer völlig neuen Art und Weise entwickelt werden muss. Billiges Stuffing oder Bild-Gestammel werden nicht zielführend sein.

Automatische Keyword-Zuweisung durch Google
Automatische Keyword-Zuweisung durch Google

Nehmen Sie ab und an Fotos mit einem Android Smartphone auf? – Befördern Sie diese Fotos zu Google Fotos? – Dann haben Sie sicher schon hin und wieder Anmerkungen von Google zu ihrem Bildmaterial bekommen. Da werden zum Beispiel Belichtungskorrekturen vorgeschlagen etc.

Bilder – ein schwer zu manipulierendes Relevanzkriterium?

Google kann also sehr viel mehr, als Sie in der Search Console einfach auf ein wenig taugliches Dateiformat und übertriebene Datenmengen aufmerksam machen. Die Suchmaschine kann die Qualität von Bildern bereits in ganz anderer Hinsicht beurteilen. Es geht weit über Umfeld-Inhalte hinaus; der Inhalt der Bilder und die Qualität derselben werden direkt analysiert. So ist es nur eine Frage der Zeit, bis diese ein relevantes und ausgesprochen schwierig zu manipulierendes SEO-Relevanzkriterium werden, wenn sie es nicht bereits jetzt schon sind. Natürlich sind Bilder manipulierbar – nur ist dies unendlich viel teurer als Texte zu optimieren.

Durch Google erstellte Verschlagwortung von Bildern

Im Social Media Monitoring wird das Bild-Thema schon um einiges ernster genommen. So verfügt beispielsweise Talkwalker über eine Bilderkennung. Interessant ist auch der Beitrag über zehn Bilderkennungstools, der sich im Talkwalker-Blog findet.

Aus meiner Sicht ist die strukturelle Beschäftigung hinsichtlich der Vermehrung des visuellen Content und dessen SEO-Tauglichkeit unbedingt erforderlich. Hier sollten einige Fragen mehr beantwortet werden, als dies beispielsweise Searchmetrics macht und darauf verweist, dass Google bei bildlastigen Themen wie Möbeln höhere Ladezeiten erlaubt.

Die Herausforderung wird darin bestehen, dass das was bisher als Keywords vom Betreiber der Website in den Text geschrieben wurden, plötzlich von Google selbständig und automatisch für Bilder gemacht wird. Es gibt also nichtmehr sowas wie die HIntergrund-Keywords bei Amazon, die selbstständig integriert werden können oder Keywords, die von Jobbörsen selbständig und manuell für Stellenanzeigen in Backends geschrieben werden. Der Suchmaschinenoptimierer ist also gezwungen herauszufinden, welche Bildqualität zu welcher Verschlagwortung führt. Es wird darum gehen, Metadaten so anzureichern, dass die entsprechenden Keywords möglicherweise übernommen werden. Google will lernen und im Bereich der Bilder kann es das durch Metadaten und Informationen, die aus den Bildern mittels Algorithmen selbständig erkannt werden. So kann es beispielsweise wichtiger werden, Produkte aus verschiedenen Ansichten zu zeigen, das Logo deutlich sichtbarer zu integrieren oder durch das Foto selbst eine Marke erkennbar zu machen. Laufen wir also los, produzieren wir mehr Bilder als bisher, lasst uns herausfinden, welche Merkmale der Fotos für Google (und vielleicht auch Amazon) wichtig sind. Das ist nicht alles – hören wir auf John Mueller und bauen wir großartige Websites, dann wird alles gut!

 

 

 

 

 

 

 

 

 

Der Zielgruppen-Begriff für das Online-Marketing

Lange habe ich keinen Beitrag mehr veröffentlich. OK – ich schreibe an einem größeren Projekt. Nun werde ich versuchen, regelmäßig Texte zu bloggen. Anfangen möchte ich mit dem Zielgruppen-Begriff. Dieser ist aus meiner Sicht zentral für das Online-Marketing und damit auch eine Basis für jegliches datenorientierte Arbeiten. Aus diesem Grund sollte der Begriff an sich näher untersucht werden.

Definitionen Zielgruppe aus dem Lehrbuch

Grundsätzlich ist es so, dass man seinen Aussagen – einem Text – nicht losgelöst von der Umwelt existiert. Einordnung ist notwendig. Als ich in den Index des Buchs von Jochen Becker (Marketingkonzeption 1998) schaute, entdeckte ich weder den Zielgruppen-Begriff noch den der Target Group. Ich war enttäuscht. In Manfred Bruhns Kommunikationspolitik (1997) war ich erfolgreicher. Dort ist auf Seite 3 eine Definition:

Zielgruppen der Kommunikation sind mittels des Einsatzes des kommunikationspolitischen Instrumentariums anzusprechende Adressaten (Rezipienten) der Unternehmenskommunikation.

Definitionen dieser Ausprägung sagen auch etwas über den Ersteller aus. Da ist der Begriff „Kommunikation“ zu lesen. Genauer „Zielgruppen der Kommunikation“. Wenn ein Marketing-Mann das so definiert, dann sollte es also auch noch Zielgruppen der Produktpolitik, Preispolitik und Distributionspolitik geben. Das sollte so sein, weil das Adressaten mittels des kommunikationspolitischen Instrumentariums angesprochen werden. Abgesehen davon, dass das Konstrukt der Zielgruppe natürlich – und völlig richtig – in allen genannten Bereichen des Marketings eine Rolle spielen sollte, demonstriert die Definition eine Einstellung, die im Online-Marketing nicht vorherrschen sollte. Adressaten werden „angesprochen“. Die Adressaten werden auch noch als „Rezipienten“ bezeichnet. Salopp gesagt, möchte man anscheinend nur Botschaften loswerden – vielleicht auch überzeugen – mit Kunden reden wohl nicht.

Wenn ich mich recht erinnere, war das in den 80er und 90er Jahren tatsächlich die herrschende Einstellung. Mangels Rückkanal und in voller Breite messbarer öffentlicher Konsumenten-Kommunikation verwundert es im Nachhinein nicht mehr so stark. Das Internet, der verbreiterte Rückkanal und die erweiterten Möglichkeiten der öffentlichen oder halböffentlichen Kommunikation haben die Marketing-Umwelt diesbezüglich gravierend verändert. Online-Marketer sind sich des Rückkanals sowie Social Media & Co. sehr wohl bewusst. Die Definition sollte erweitert werden. Ich muss gestehen, dass ich hinsichtlich der Definition von Becker unsicher war. Das Buch in meinem Regal ist schließlich eine Auflage von 1997. Deshalb habe ich eine jüngere Kollegin gebeten in ihrem Bücherschrank nachzusehen. Christian Homburg (2012, S. 171) formuliert die Definition in seinem Lehrbuch ähnlich salopp, wie ich hier weitgehend formuliere:

Angestrebte Zielgruppe: Um den späteren Markterfolg des Produktkonzepts vorzubereiten, sollte festgelegt werden, wer als zukünftiger Käufer eines Produkts in Frage kommt.

Diese Definition findet sich in einem Kapitel zum Innovationsmanagement. Im Kapitel zum Instrumentalbereich „Kommunikationspolitik“ wird beschrieben, wie die Charakterisierung einer Zielgruppe operationalisiert wird. Homburg (2012, S. 216) nennt die üblichen Dimensionen:

  • demographische Kriterien
  • sozioökonomische Kriterien
  • allgemeine Persönlichkeitsmerkmale
  • Nutzenkriterien
  • kaufverhaltensbezogene Kriterien

Homburg formuliert hier etwas vorsichtiger und schreibt „bei wem soll etwas erreicht werden?“ Genau das ist richtig. Es soll etwas erreicht werden. Was erreicht werden soll, ist nicht zwingend ein Kauf. Vielleicht ist es lediglich die öffentliche Aussage über ein Produkt, Bekanntheit, Einstellungen etc.

Manfred Kirchgeorg ist bei der Definition der Zielgruppe im Gabler Wirtschaftslexikon viel formaler. Er schreibt explizit von „Adressaten“ und „Ansprache“. Vielleicht ist es der Kommunikationswissenschaftler in mir, der diese einseitigen Definitionen in der Tradition der Lasswell-Formel „Who says what in which channel to whom with what effect?“(1948) für unvollständig hält. In diesem Satz werden die verschiedenen Ansatzpunkte zur Analyse genannt. Diese werden auch noch immer forscherisch bearbeitet. Das große Dilemma des Satzes ist allerdings, dass es ein Satz ist und dieser mit „with what effect“ endet. Genau dieses Ende, der „Effekt“ kann zwar auch bedeuten, dass in einen Dialog einzutreten ist – aber eben nur implizit. Diese Tatsache wurde gerade im Marketing lange nur unzureichend berücksichtigt.

Im Online-Marketing ist die Lage etwas anders. Online ist Kommunikation gegeben und auffällig. Sicher – es ist nicht nur Kommunikation – auch wenn die Kommunikation notwendige Bedingung ist. Es gibt auch viele Aspekte der Distributions- sowie der Preispolitik. Vielleicht ist die größte Veränderung hinsichtlich der Zielgruppendefinition in hinsichtlich der Produktpolitik vorhanden.

Zielgruppen wurden und werden immer noch definiert, um abzuschätzen, welche Potenziale ein Produkt oder Unternehmen hat. Das wurde in der Definition von Homburg deutlich. Es muss antizipiert werden, wie hoch das Käuferpotenzial für dieselben ist und mit welchem Aufwand diese erreicht werden können. Hierbei hat das Internet zu merklichen Veränderungen geführt: Kleine Zielgruppen sind mitunter höchst effizient ansprechbar und die Produkte können über die mittlerweile entwickelten Logistiksysteme in Rekordzeit zu Konsumenten gebracht werden.

Definition Zielgruppe für das Online-Marketing

Die Definition der Zielgruppe sollte also auch für das Online-Marketing das gesamte Marketing-Instrumentarium betreffen. Natürlich sollte der Rückkanal berücksichtigt werden.

Zielgruppen im Online-Marketing sind Menschen oder Maschinen mit denen mittels Internet kommuniziert werden soll, um Marketing-Ziele umzusetzen und final gewünschte Handlungen zu erreichen.

Diese Definition ist prinzipiell dicht an die Definitionen in der Literatur angelehnt. Allerdings würde ich grundsätzlich im Plural formulieren, da ich nicht davon ausgehe, die gewünschte Handlung – wohl meist ein Kauf – direkt nur durch Kommunikation mit ebendiesem Personenkreis zu erreichen. Einen solchen Personenkreis kann man beispielsweise wie folgt beschreiben: Männer und Frauen zwischen 25 und 35 Jahren, die sich in Baden-Württemberg und Bayern aufhalten und mindestens einmal im Monat mehr als zehn Kilometer wandern.

Zielgruppen-Auswahl bei LinkedIn
Zielgruppen-Auswahl bei LinkedIn

Nur indem auf Facebook, Google oder an einer anderen Stelle die „Zielgruppe“ angeklickt und damit ausgewählt und Werbung gebucht wird, kann weder ein Kleidungsstück noch ein Rucksack oder ein Ticket für den Nahverkehr verkauft werden.  Nur weil das bei LinkedIn übersichtlicher ist (Abbildung) auch nicht. Die Kommunikation mit weiteren Personen oder Organisationen ist notwendig. Wenn es um Bekleidung geht, muss diese beispielsweise auch in den stationären Handel und in der Online-Handel gelangen. Häufig sind es tatsächlich eine ganze Reihe von Zielgruppen, die bestimmt und mit denen kommuniziert werden muss. In der Online-Welt sind dies teilweise auch Maschinen. Von Käufern spreche ich auch ausgesprochen ungern. Das Ziel von Marketing-Maßnahmen ist eben nicht immer ein Kauf. Gerade im Online-Marketing ist das Ziel sehr häufig auch Kommunikation oder eine andere Art von Handlung. Diese etwas allgemeinere Formulierung halte ich für günstiger. Selbst final muss es kein Kauf sein – auch nicht online. Denken Sie beispielsweise an das Marketing von Öffentlichen Einrichtungen oder den Bereich Personalmarketing. Wenn aus der Personalabteilung heraus Ingenieure erreicht werden müssen, dann ist das Ziel meist die Unterschrift eines Arbeitsvertrags.

 

Analytics-Anforderungen KMU – Werkzeuge & Daten

In der aktuellen t3n (Ausgabe 42) ist ein Beitrag über Analytics-Tools für Start-ups bzw. kleinere Unternehmen. Darin werden einige Klassen von Werkzeugen besprochen. Grundsätzlich ist das nicht schlecht. Allerdings wirkt der Artikel schon so, als ob viele Fragestellungen nur mit diesen Tools zu lösen seien. Anschließend werden die Daten aus jeglicher Quelle Dashbord-Lösung gepackt und alles ist gut.  Hierzu gibt es einiges zu sagen. Ich erläutere deshalb hier rudimentär welche Analytics-Daten zur Steuerung eines Web-Projekts notwendig sind.

Google Analytics Homepage vor Login
Google Analytics Homepage vor Login

Analytics-Speziallösungen müssen administriert und gelernt werden

Vor allem wird die Mächtigkeit von Google Analytics als Werkzeug unterschätzt. Mit Custom Reports und Event-Tagging lässt sich vieles lösen und beantworten, wozu es kein Spezialwerkzeug braucht. Vor allem wurde im Beitrag ignoriert, dass auch Apps mit Google Analytics messbar sind. Die Daten kommen damit aus der gleichen Welt. Das hilft, weil nicht noch weitere Werkzeuge administriert und verstanden werden müssen. Fatal ist dann mitunter auch die Notwendigkeit zur Betreuung weiterer Schnittstellen. So schön in vielen Dashboards Daten aufbereitet werden – dedizierte Schnittstellen zu allen Werkzeugen, die eingesetzt werden gibt es meistens nicht. Ein oder zwei fehlen meistens. Eine eigene Datenhaltung und die Entwicklung eigener Schnittstellen wird notwendig. Das kostet Geld, Zeit und v.a. Nerven. Je weniger Analytics-Tools im Einsatz sind, um so effizienter kann mit den Resultaten umgegangen werden. Klar – die Google Analytics- bzw. Universal Analytics-Nutzverwaltung und die Weitergabe von Reports ist ein Ding an dem Google dringend arbeiten sollte. Allerdings hat eine so weit verbreitete Lösung einen entscheidenden Vorteil: Es gibt viele, die sich damit auskennen. Das spart Kosten. zudem lassen sich sogar Daten aus fremden Quellen integrieren.

A/B-Tests nicht vergessen!

Onsite würde ich kaum zu einem weiteren reinen Analytics Tools raten – außer natürlich zu Werkzeugen für A/B-Tests. Hierfür ist Google Analytics wirklich nicht die optimale Lösung. Ich mag hierfür Optimizely. Das lässt sich auch von kleineren und mittleren Unternehmen einsetzen. Diese Klasse an Analytics-Tools fehlt im Artikel. Im Marketing sind noch einige weitere Werkzeugklassen wichtig, die Werte generieren, die im Rahmen der Analytics relevant sind bzw. in Dashboards integriert werden müssen.

Onsite-Analytics heißt auch Performance und SEO

Bleiben wir bei der Website: Da sollten Werkzeuge zur Analyse der technischen Performance der Website im Einsatz sein. Wenn das Ding zu langsam wird, dann gibt es nicht nur Ärgern mit den Nutzern – auch die SEO leidet. Womit wir bei nächsten Punkt wären: SEO-Tools liefern auch wichtige Daten und geben Handlungsempfehlungen. In den Tools bekommt man diese früher als sich diese im organischen Traffic bei Google Analytics bemerkbar machen. Sicher – man kann sich über die Indices streiten, die Searchmetrics oder XOVI et al. produzieren streiten, grundsätzlich sind diese hilfreich. Die Werte gehören in ein Überblicks-Dashboard für die Marketing-Leitung. Zudem ergeben sich dadurch auch noch Hinweise hinsichtlich der Arbeit von Wettbewerbern.Wenn man einen Shop betreibt, dann ist die Bonität seiner Kunden wichtig. Auch die Ergebnisse dieser Prüfungen sollten aus dem E-Commerce-System oder auf anderem Wege einer Bewertung zugeführt werden.

Management-Werkzeuge liefern auch Analytics-Daten – was ist damit?

Verlässt man Website und App, dann geht es um die Zuleitungen zur Website. Ein sehr wichtiges Bindungswerkzeug in diesem Bereich ist die E-Mail. Man sollte beispielsweise einfach wissen, wenn die Öffnungsraten der Mails plötzlich sinken, Bounce Rates steigen etc. Grundsätzlich ist dafür kein extra Analytics-Werkzeug notwendig. Kampagnen-Werkzeuge verfügen i.d.R. über eine Auswertungs-Instanz. Die Daten müssen nur aus dem Werkzeug herausgeholt und in das Übersichts-Dashboard integriert werden. Ach ja – es sind auch noch Werte für die eigene Datenhaltung. Dazu hätte ich mir auch noch etwas in dem Artikel gewünscht: Wie geht man mit Analytics-Daten um, die in einem anderen Werkzeug eher nebenbei anfallen – wie dem E-Mail-Tool einem CMS oder einem Social Media Management-Werkzeug wie Hootsuite.

Genau analysieren, wie Werbemaßnahmen wirken

Relevant sind in diesem Zusammenhang auch die Daten von AdServern – schließlich sollte man nicht nur wissen wie oft jemand auf der eigenen Website gelandet ist, sondern auch, wie oft die eigene Display-Werbung im Netz gesehen wurde, welche Werbemittel funktionieren und welche nicht. Gerade im Bereich der zunehmenden Kontingenz von Bewegtbildwerbung über das Internet und bei Fernsehwerbung gibt es noch beträchtlichen Entwicklungsbedarf. Ich gestehe: Die Baustelle Bewegtbildwerbung und Analytics ist tendenziell etwas für größere Unternehmen.

Dashboards

Im Beitrag wird ganz richtig darauf verwiesen, dass bei all den unterschiedlichen Datenquellen eine Dashboard-Lösung notwendig ist, um den Überblick zu behalten. Es werden auch viele brauchbare Lösungen genannt. Allerdings fehlt Tableau. Hinsichtlich der Möglichkeiten zur Visualisierung ist das wirklich klasse. Zudem gibt es Tableau zu Preisen, die auch ein KMU bezahlen kann.

Das was ich jetzt geschrieben habe, ist auch nicht umfassend. Ich kann nur dazu raten sich entlang der gesamten stattfindenden Prozesse zu hangeln. In diesem Zusammenhang sollte man sich über seine Ziele klar sein. Nur so kann man nach Fragen Ausschau zu halten, die beantwortet werden sollten, um das Projekt zu optimieren. Tja – und dann geht es darum, zu sehen welche Werte Antworten auf die Fragen geben bzw. bei der Entscheidung helfen. Das müssen nicht sonderlich viele Werkzeuge sein – auch wenn es die gibt und sie an sich toll sind.

Mit IFTTT Pinterest automatisieren

Seit letzter Woche hat Pinterest seine API stärker zur Nutzung freigegeben als bisher. Das ist toll und wird Pinterest einen weiteren Schub verpassen. Ein Partner mit dem Pinterest diese so erfreuliche Nachricht promotete ist IFTTT (IfThisThenThat). Damit kann vieles im Web und über das Web automatisiert werden. Ein Beispiel: Wenn Sie ein Instagram veröffentlichen, kann es automatisch auch auf ein Pinterest-Board gepinnt werden. In die andere Richtung ist auch vieles möglich: Wenn Sie auf ein bestimmtes Bord einen Pin setzen, können Sie diesen gleichzeitig auf Tumblr befördern oder das Bild in Google Drive speichern.

Pinterest & IFTTT: Featured Recipes
Pinterest & IFTTT: Featured Recipes

Pinterest selbst hat schon etwa 30 Rezepte angelegt, mit deren Hilfe die Automatisierung möglich ist. Auf der Startseite der Rezepte wird gleich das Rezept zum Pinnen von Instagrammen gezeigt. Es ist gleichzeitig eines bei dem nicht so viel schief gehen kann. Stellen Sie sich bitte vor, es würde jedes Mal ein neuer Pin angelegt, wenn ein Tweet mit einem bestimmten Hashtag und einem Bild auf Twitter auftaucht – grauenvoll. Die Integration ist schon recht vorsichtig gemacht – aus meiner Sicht hat das Pinterest so gelöst, dass keine größere Spam-Gefahr besteht.

IFTTT – Pinterest: So funktioniert’s

Zunächst müssen Sie sich einen Account bei IFTTT anlegen. Wählen Sie bitte ein Passwort, das Sie sonst nicht verwenden. Sie müssen andere Konten damit verknüpfen. Damit IFTTT richtig arbeitet, benötigt es Posting-Berechtigungen. Hier kann einiges schief gehen, wenn wer das Passwort hat.

Pinterrest Tumblr Rezept
Pinterrest Tumblr Rezept

OK – es gibt einige Rezepte die fertig angelegt sind. Diese können Sie natürlich verwenden und sich durch den Prozess leiten lassen. Wie gesagt, Pinterest hat schon etwa 30 Rezepte angelegt. Diese Rezepte bestehen immer aus Triggern und Actions. Im Trigger wird ein Auslöser definiert. Das können im Falle von Pinterest Likes sein oder Pins, die auf ein bestimmtes Board gesetzt werden. Die Action ist dann, was auf einer Anderen Plattform damit gemacht wird.  Ein Rezept für Pinterest mit Tumblr sehen Sie in der Abbildung oben.

Nachdem Sie beide Plattformen mit IFTTT verbunden haben, ist es ganz einfach. Sie wählen das Board aus, auf das gepinnt wurde und dann können Sie entscheiden, was damit auf Tumblr passiert. Es kann sofort gebloggt werden, in eine Queue wandern, als Vorlage gespeichert werden oder privat publiziert werden. Tumblr Nutzer sehen hier auch eine Schwierigkeit. Wenn Sie mehr als ein Blog auf Tumblr betreiben, fehlt die Möglichkeit zur Einstellung auf welchem Blog der Pin landet – es ist eine Überraschung! Sie müssen mit einem Test herausfinden, wo Ihr Pin landet – also in die Entwürfe Ihrer Blogs schauen.

Den Post selbst können Sie auch ein wenig beeinflussen. Im Fall von Tumblr können Sie bei einem Photo Post die URL editieren, den Text und die Tags. Wie Sie in der folgenden Abbildung sehen, ist es möglich aus einer Reihe von Parametern, die Pinterest an IFTTT übergibt, Felder zu editieren, die später in Tumblr erscheinen. Das ist recht einfach gemacht, wenn man über ein gewisses technisches Grundverständnis verfügt. Die Parameter werden über eine Auswahlmaske eingefügt stehen dann in doppelt geschwungenen Klammern in einem Text, der editierfähig ist – z.B. {{HexColor}}. Probieren Sie es einfach aus. Am besten bei einer Plattform, bei der nichts direkt veröffentlicht wird oder es zunächst verbergbar ist – also bei Tumblr, Google Drive oder GMail – nicht bei Facebook oder Twitter. Den Source-URL sollten Sie auf jeden fall reienpacken und auch die Quelle nennen. Sie wissen schon: Copyright.

 

IFTTT Rezept Editieren
IFTTT Rezept Editieren

 

Dann kann noch ein wenig an den Tags editiert werden. Deren Übernahme ist von Pinterest nach Tumblr leider nicht möglich. Sie können lediglich voreditiert werden. So kann man beispielsweise den Namen des Boards als Hashtag angeben und auch noch weitere passende Begriffe.

Für andere Plattformen und Anwendungen funktioniert das entsprechend. Wenn es sein muss können Sie sich sogar Lichtsignale geben, wenn ein Pin auf ein Gruppen-Board gepinnt wurde.

Tja – und lange dauert es nicht mehr. Dann erschein mein neues Buch – noch im Juli: Tumblr. Passt ziemlich gut zu Pinterest.

Pinterest erlaubt Google Analytics UTM Parameter

Eigentlich ist es kein großes Ding – aber einer kurzen Meldung wert. Pinterest erlaubt seit letzter Woche offiziell UTM Parameter von Google-Analytics. Es ist ja beinahe schon der Standard-Weg, um den Werbeeffekt von Meldungen in sozialen Netzwerken zu messen: Man fügt dem URL die UTM Parameter hinzu und kann hinter in Google-Analytics oder in Universal Analytics die Traffic-Menge, Conversions etc. von Werbeaktivitäten analysieren. Das funktioniert eigentlich bei allen Social Networks ganz wunderbar – nur eben bei Pinterest nicht wirklich zuverlässig.

UTM Parameter wurden früher ab und an gelöscht

Der Grund dafür war aus meiner Sich ziemlich unverständlich – man könnte überspitzt auch vermuten, dass es ein Ergebnis jugendlichen Leichtsinns war: Pinterest muss Geld verdienen. In diesem Zuge möchte sich Pinterest für Referrals entlohnen lassen. Das ist schön und gut. Wenn nun Pinterest-Nutzer in den URLs ihrer Pins Affiliate-Parameter von Amazon oder von anderen Programmen haben, findet das Pinterest nicht so dolle und will selbst daran verdienen. Also wurden beispielsweise vor etwa 2 Jahren einfach alle URL-Erweiterungen entfernt. Das betraf sowohl Affiliate-Parameter als auch Tracking-Parameter von Google-Analytics und anderen Analytics-Werkzeugen. Einzusehen war das aus der Sicht kommerzieller Nutzer nicht. Auch mir kamen mehrfach Parameter abhanden – URLs wurden von Pinterest manipuliert. Das soll nun ein Ende haben: UTM-Parameter sind erlaubt uns sollen nicht wieder entfernt werden.

So funktioniert das Einfügen von UTM Parametern in Pinterest

Hier erklärt Google ziemlich knapp und sehr anschaulich, wie man UTM Parameter zum Tracking von Kampagnen einsetzen kann.

UTM-Parameter
UTM Parameter

Es ist ziemlich einfach. Probieren Sie es einfach mal aus. Generieren Sie einen URL, für ein Bild das Sie von Ihrer Website pinnen und hängen Sie den URL auf Pinterest an das Bild. Dazu müssen Sie zuerst das Bild pinnen, dann den Pin aufrufen und auf den kleinen Stift unterhalb des Bildes klicken. Dann können Sie den URL editieren. Sie sehen das in der nächsten Abbildung.

Edit URL in Pinterest
Edit URL in Pinterest

Kommen Sie aber bitte nicht auf die Idee, mehr als die URL-Erweiterung zu manipulieren. Das ist bei Pinterest verboten.

 

 

Instagram das Netzwerk für Teenager?

Vor einigen Tagen hat Piper Jaffray seinen Halbjahresreport „Taking Stock with Teens“ veröffentlicht. Darin gibt es auch eine Frage hinsichtlich der Wichtigkeit der Sozialen Netzwerke für Teenager. Auf MarketingCharts sah man die Tatsache, dass Twitter den Marktführer Facebook überholt hat als größte Nachricht an. Allerdings haben beide an Wichtigkeit eingebüßt. Facebook 10 Prozentpunkte, Twitter nur 4 Prozentpunkte. Dabei ist Facebook schon länger auf dem absteigenden Ast. Bei Twitter ist das noch nicht so sicher.

Die wichtigsten Netzwerke amerikanischer Teenager
Die wichtigsten Netzwerke amerikanischer Teenager

Die wirklich spannendste Nachricht wurde dann doch noch erkannt. Es geht um Instagram:

While Facebook’s appeal is weakening, Instagram’s is growing quickly. In fact, Instagram is now tied with Facebook as the second-most important social network among teens, at almost double its share of respondents (12%) from the year-earlier period.

Mit einem Plus von 12 Prozentpunkten ist Instagram weitaus erfolgreicher und befindet sich mit Facebook auf dem gleichen Niveau. Schaut man sich den gewaltigen Sprung an, den Instagram im Verlauf des letzten Jahres gemacht hat, so sieht es schon sehr danach aus, dass es im Frühjahr 2014 das wichtigste Soziale Netzwerk für amerikanische Teenager sein wird.

Es ist ein Beleg dafür wie wichtig Bilder und die einfache Möglichkeit diese zu teilen mittlerweile geworden sind. Dabei sind es wohl vor allem die selbst gemachten Bilder mit dem Smartphone, die den Jugendlichen besonders wichtig sind. Allgemeine Themen, wie diese auch auf Facebook oder Google+ angesprochen werden sind es anscheinend weniger.