3 Euro Erhöhung der Ticketsteuer – weniger als ein Anfang

Eigentlich ist das hier kein politisches Blog. Aber die Entscheidung der Bundesregierung, die Ticketsteuer resp. Luftverkehrabgabe nur marginal zu erhöhen finde ich einfach handwerklich superschlecht oder von falschen Zielen getrieben. Da wurde wohl schnell etwas total wirkungsloses zu einer ohnehin steuerungslosen Abgabe hinzugefügt, damit etwas gemacht wurde. Das ist einfach nur ärgerlich! Zugegeben, mein Ökonomiestudium in Mannheim liegt schon einige Jahre zurück. Und das was da gemacht wurde widerspricht so ziemlich allem, was ich gelernt habe.

Die Ticketsteuer ist eine wirkungslose Mengensteuer

Also – in Deutschland gibt es bereits seit 1. Januar 2011 eine Luftverkehrabgabe oder Ticketsteuer. Gebracht hat diese außer einem Steuerkaufkommen von knapp 600 Millionen Euro in 2018 für knapp 80 Millionen Passagiere – nichts. Steuer kommt von steuern und das Steuerziel war die Begrenzung des Luftverkehrs. In der Abbildung wird dies überaus deutlich – nach 2008 sank die Zahl der Passagiere aufgrund der wirtschaftlichen Delle. Dann stieg diese wieder kontinuierlich an. Zugegeben – unsere Nachbarn in Europa arbeiten mit ähnlichen Konzepten. Deshalb wird die Steuer auch nicht besser. Mengensteuern sind ohnehin keine sonderlich intelligenten Werkzeuge: 2011 wurden auf Kurzstrecken knapp 8 Euro gefordert – egal ob es ein Ticket für 99 oder 400 Euro war. Liebe SPD – sonderlich sozial ist das nicht. Steigt der Preis eines Gutes inflationsbedingt, so reduziert sich auch der Steueranteil pro Ticket. Insgesamt ist es so, dass eine Vielzahl der Mengensteuern zu Bagatellsteuern verkommen sind – sie sind einfach doof, weil sie bei einer sehr geringen Preiselastizität keine steuernde Wirkung haben. Ich frage mich, wer bei den Verhandlungen der Koalition auf die nutzlose Idee gekommen ist, das Instrument, das bei einem Preis von 8 Euro nicht funktioniert hat, um weniger als ein Drittel zu erhöhen und zu glauben, dass es zu einer Verhaltensänderung kommt? Wenn man tatsächlich steuernde Wirkungen verzeichnen möchte, hätten es mindestens 30-50 Euro sein müssen.

Anzahl der beförderten Personen im Luftverkehr in den Jahren 2004 bis 2018 in Deutschland (Passagiere in 1.000)

Ein Beispiel: Ein Flugticket von Düsseldorf nach Berlin kostet oft sehr viel weniger als ein Zugticket und es geht schneller. Ich wohne in Aachen. Wie soll ich mich entscheiden? Der Zug kostet 178 Euro. Der Flieger 157 Euro ab Düsseldorf. Mit dem Flieger schaffe ich es an einem Tag – mit dem Zug brauche ich wegen der 5 ½ Stunden Fahrzeit zwei Tage und benötige zusätzlich eine Hotelübernachtung. Bei der Flugreise zahle ich außerdem 26 Euro für das Parkhaus. Nach der Abgabenanpassung liegen wir in beiden Fällen bei 160 Euro. Die Nebenkosten bleiben identisch. Mit der Bahn sind es dann wahrscheinlich etwa 260 Euro, mit dem Flieger habe ich noch einen Puffer von 70 Euro für Taxi & Co. BTW: Der Steueranteil bei Bahn und Flugzeug ist in diesem Beispiel nahezu identisch. „Steuern“ wird die Ticketsteuer für Flüge so nicht!

Zu beachten und analysieren wäre besonders die sogenannte Kreuzpreiselastizität: Wie muss sich der Ticketpreis des Zuges ändern, damit dieser dem Flugzeug vorgezogen wird oder umgekehrt: Wie muss sich der Ticketpreis des Flugzeugs ändern, damit der Zug vorgezogen wird. Es sind schließlich nicht zwei vollständige Äquivalente. Der Zug kostet mehr Zeit, lässt einen aber unterwegs mitunter besser arbeiten. Zusätzlich müssen Nebenkosten wie Hotels in die Analyse integriert werden etc.

Angebotsseitige Wertsteuer für Luftverkehr notwendig!

Was im Grunde noch gravierender ist: Fliegt ein leerer Flieger durch die Luft, ist das Steueraufkommen gleich Null! Der Anreiz der Fluggesellschaften, Sprit zu sparen oder umweltfreundlichere Antriebe einzusetzen, ist nicht gegeben.

Bei der Ticketsteuer handelt es sich um eine nachfrageseitige Abgabe ohne Wertbezug. Die Steuerung über eine Wertsteuer auf der Angebotsseite wäre aber sehr viel effektiver. Im einfachsten Fall könnte dies über die Besteuerung des Kerosins stattfinden. Die hierdurch entstehenden Kosten würden Fluggesellschaften auf die Tickets aufschlagen. Zumindest für Inlandsflüge würde dies auch zu keiner Wettbewerbsverzerrung auf internationaler Ebene führen und könnte ohne weiteres eingeführt werden und würde schon zu erheblichen CO2-Einsparungen führen – es sind knapp 50 Prozent der Flugtickets! Mit dem Ziel, diese Besteuerung auf europäische Ebene auszuweiten, könnte hier aufgrund der oben angesprochenen Elastizität mit nicht unerheblichen Steuereinnahmen vom mehr als 5 Mrd. Euro gerechnet werden. Zumindest aus Frankreich kommen hierfür wohlwollende Signale. Sicher, die Fluggesellschaften sind hiervon größtenteils nicht begeistert. An vielen sind die Staaten beteiligt und sie rechnen mit Mindereinnahmen. Aber wie geschrieben, die Preiselastizität ist sehr ähnlich wie bei Zigaretten. Brutto würde jedoch für den Staat mehr übrigbleiben, das Flugaufkommen wäre lenkbar und der CO2-Ausstoß würde verringert.

EasyJet ist hier übrigens eine Ausnahme – diese Fluggesellschaft übt sich in der Reduktion des Kraftstoffverbrauchs und wäre begeistert.

UX als SEO – Wie sich ausgezeichnete User Experience positiv auf die Position in Suchmaschinen auswirken wird

SEO mit Wörtern und Texten gibt es seit mehr als 20 Jahren. Werkzeuge zur Optimierung gibt es auch schon ziemlich lange. Mit dem Page Rank wurden externe Links wichtig – kurz nach der Jahrtausendwende. Auch hierfür gab es rasch Tools und Dienstleister. Bei allem kam es zu Auswüchsen, die weder Suchmaschinen noch Nutzer toll fanden. SEO wurde technischer, Suchmaschinen versuchten mit Social Layern zu arbeiten und Nutzungsaspekte der Websites zu analysieren. Zuletzt habe ich dann darüber geschrieben, dass Google sehr wahrscheinlich auch Bildinhalte als Rankingfaktor nutzt und nicht einfach nur die dazugeschriebenen Umfeld-Informationen der Bilder – Alt-Tags, Unterschriften etc.

Was ich total eigenartig finde, ist die Tatsache, dass Google seit Jahren kommuniziert, dass man einfach nur großartige Websites bauen müsse, um hoch gerankt zu werden. Mit anderen Worten: Ist UX (User Experience) womöglich ein entscheidender Faktor, und was wird mit Text-SEO versucht? – Oft genug wurde in der Vergangenheit die Benutzbarkeit von Seiten zugunsten der SEO reduziert. Abgesehen davon, dass dieses Verfahren offensichtlich nicht zielführend sein kann, gab es auch noch recht viele Blog-Beiträge im Netz hinsichtlich des Verhältnisses von UX und SEO.

 

UX ist SEO

Sucht man im Netz nach UX und SEO, so findet man noch viele Beiträge wie „UX vs. SEO“ u.Ä.: Wie „passen UX und SEO zusammen?“. Manchmal gibt es auch sowas: „Wie ist es möglich, SEO und UX zu vereinbaren?“ Ganz selten ist dagegen die Feststellung „UX ist SEO!“.

Ich kann nur sagen, dass SEO aus der Vergangenheit lernen sollte: Die Basis besteht ganz einfach nun mal darin, sich an die Hinweise der Search Consolen zu halten. Alles andere ist normalerweise von kurzer oder mittelfristiger Haltbarkeit. In den Search Consolen ist eigenartigerweise nie von Textlängen die Rede! Dennoch wurden die Texte in den vergangenen Jahren verlängert – über 1.000 Worte werden empfohlen. Mir war das vor zwei Jahren auch aufgefallen. Bei einem vergangenen Arbeitgeber wurde das auch gemacht. Klar – es funktioniert. Dennoch stand ich von Anfang an mit erhobenem Zeigefinder da: Es wird nicht ewig funktionieren. Ganz flott wurden Texte, die von Tabs verborgen waren, von Google offensichtlich nicht mehr gewertet – schließlich funktionieren diese so ähnlich wie Texte in Hintergrundfarbe.

Was ich damit sagen möchte, ist folgendes: Google kann die UX einer Seite messen. Das ist etwas schwieriger, als Textmengen zu analysieren, aber sicher nicht viel komplexer als Synonyme zuzuordnen oder die Lesbarkeit eines Textes zu messen. Wie ich zuletzt beschrieben habe, kann Google mittlerweile Bildinhalte interpretieren und diesen Attribute zuordnen. Der Weg zur UX als SEO-Kriterium ist also ganz nahe oder bereits vorhanden. Schon seit zwei oder drei Jahren gibt es Suchtreffer auf den oberen Positionen von Ergebnislisten, die kaum noch Text oder SEO-Text enthalten. SEO-Spezialisten interpretierten diese Tatsache als „Google weiß aus der Vergangenheit, dass diese Treffer für einen Suchstring die besten Ergebnisse sind“. Auf den hinteren Plätzen der ersten Suchergebnisseite erschienen sogenannte „Testergebnisse“, also Ergebnisse, bei denen sich Google nicht sicher war, dass diese aus Nutzersicht gut sind. Bald wird sich dieses Bild ändern: Seiten werden nur noch dann ganz oben stehen, wenn diese aus Googles Sicht eine gute User Experience versprechen.

 

Google definiert gute UX

Vor einigen Tagen wurde ein „Google eCommerce UX Playbook“ öffentlich. Darin wurde über sechs Elementarbereiche von mobilen E-Commerce Websites verdeutlicht, was Google unter guter UX versteht. Nun möchte ich nicht Googles Analyse rekapitulieren. Schauen Sie sich dazu bitte die Präsentation an. Ich komme aber zu einem Beispiel: Der deutsche Matratzen-Markt ist im Wandel. Hier hat vor allem Bett1.de mit einem neuartigen Online-Vertriebskonzept zu einem Marktumbruch geführt, sodass sich die Platzhirsche umorientieren mussten. In einem aktuellen Artikel in Capital wird dies sehr anschaulich beschrieben. Schauen wir uns also die Ergebnisse für den Suchstring „Matratze kaufen“ an. Auf den ersten drei Positionen sind Websites mit herkömmlicher Optimierung. Schlafwelt präsentiert eine Ergebnisliste mit viel Text und darunter einen recht langen Text mit eingebautem Video und erringt so den ersten Platz. Bei Betten.de ist es ähnlich, allerdings ist den auf der ersten Seite präsentierten Produkten deutlich weniger Text zugeordnet – und im SEO-Text am Seitenende ist kein Video eingebaut. Dann kommt noch Lidl mit einer strukturell ähnlichen Seite – ok, es gibt einen anderen Produktüberbau und der Lidl Online-Shop an sich ist sehr erfolgreich. Auf Platz vier kommt dann Matratzen Concord mit einer Website, die in der Mobil- und Desktop-Variante quasi entsprechend der Google Leitlinie konzipiert wurde:

Optimierte Startseite von Matratzen Concord
Optimierte Startseite von Matratzen Concord

 

Am Kopf finden sich Benefits, eine Suche, die deutlich mehr kann als einfach nur Textvorschläge machen. Matratzen Concord hat sehr viele Standorte, also gehört auch ein entsprechender Finder in den Kopf. Dieser findet sich in der Mobil-Version im Navigationsbereich. Natürlich sind auch die Navigations-Menüs so aufgebaut, dass man diese auch mit schwach ausgebildeter Feinmotorik bedienen kann. Auf eine unübersichtliche Zahl von Matratzen wird verzichtet. Stattdessen findet sich auf der Startseite ein übersichtlich aufgebauter Matratzenfinder. Erlauben Sie mir bitte die Prognose, dass der Matratzen-Markt online bald ähnlich Bekleidung abgebildet wird. Langtexte werden überflüssig, stattdessen werden Usability und Qualität von Texten stetig wichtiger – auch für die SEO.

Schauen Sie sich also bitte die Anforderungen von Google an. Diese sind relativ einfach mess- und in SEO-Kriterien überführbar. In der Abbildung  am Anfang des Artikels sehen Sie die Übersicht. Ein Relaunch einer E-Commerce Website sollte sich auf jeden Fall an diesen Vorgaben orientieren – auch wenn G Pay in Europa aus kartellrechtlichen Gründen hinsichtlich SEO sicher keine Vorteile bringen darf.

 

Bilder als SEO-Faktor

2019 feiern wir das 25. Jahr Suchmaschinenoptimierung. SEO war über all die Jahre ein Rennen zwischen Optimieren, Manipulatoren und Suchmaschinen. Suchmaschinen suchten immer nach schwer bzw. aufwändig zu manipulierenden Validatoren als Ranking-Faktoren. Googles Page Rank – grob gesagt, die Links auf eine Seite als Relevanz-Kriterium – ist nun auch schon über 20 Jahre alt. Jetzt kommen die Bilder also SEO-Kriterium dran. So banal, wie das zuletzt in einem t3n-Artikel beschrieben wurde, ist es aber leider nicht. Google kann nämlich erheblich mehr als einfach nur einen Dateinamen auslesen, den ALT-Tag analysieren, den Kontext beurteilen sowie Dateiformate oder Bildauflösungen beurteilen.

Bilder als SEO-Kriterium sind im Kommen

Dies wird nach meiner Einschätzung die neue Sau werden, die während der kommenden Jahre durch die Online-Dörfer getrieben wird. Die vergangenen Jahre waren durch die Content-Produktion im Bereich Wording geprägt und Content-Marketer scheinen leider noch immer kaum Gedanken an visuellen Content zu verschwenden. Zumindest deuten das die jüngst in Lead digital von Karsten Lohmeyer genannten Trends an. Doch jetzt erreicht uns die Bilder-Welle mit ungeahnter Kraft. Ist die Antinomie zwischen Voice-Search und Bilder-SEO nicht eigenartig? – Auf der einen Seite Suche mit Wörtern und auf der anderen Seite Bewertung durch Bilder? – Seit Instagram, Pinterest und Tumblr stiegen die Anforderungen hinsichtlich Quantität und Qualität des Bildmaterials stetig. Tolle, ansprechende Fotos in gewaltiger Zahl sind mittlerweile notwendig – auch wenn die Textproduktion freilich nicht vernachlässigt werden darf.

Pole-Position ohne Text – helfen Bilder?

So genau kann ich mich nicht mehr erinnern. Wahrscheinlich sind es etwa drei oder vier Jahre, seit es Seiten ohne offensichtliche Textoptimierung schaffen, die ersten Plätze der Ergebnislisten zu belegen. Was im ersten Moment eigenartig erscheint, kann natürlich verschiedene Ursachen haben. Google könnte beispielsweise merken, dass die Nutzer genau diese Seiten für die korrelierten Keywords bevorzugen. Sie kennen wahrscheinlich die Geschichte mit den häufig wechselnden Treffern auf den hinteren Plätzen der ersten Ergebnisseite. Im Allgemeinen geht man davon aus, dass Google hierbei testet. Analysiert man die Struktur und die Inhalte der hinter den textarmen Seiten liegenden Inhalte, so konnte man in der Vergangenheit feststellen, dass diese sehr wohl textoptimiert waren.

Google Lens erkennt sehr viele Bilder

Im Dezember war ich in Sevilla und hatte keinen Reiseführer dabei. Ich musste zunächst mit Google Trips und TripAdvisor auskommen. Dann stand ich an der Plaza de España, es war schönes Wetter, schnell ein Foto gemacht und dann – ein neues Symbol unterhalb des Fotos in Google Fotos. Ein Klick und schon war sie da, die Information über meinen Aufenthaltsort und die Möglichkeit, den Wikipedia-Eintrag direkt abzurufen (siehe Abbildung). Während das an dieser Stelle vielleicht nicht ganz so schwierig war – natürlich hatte ich die Standortermittlung freigeschaltet und die Geokoordinaten waren somit im Foto enthalten – kann Google noch viel mehr.

Google Lens erkennt die Plaza de España in Sevilla
Google Lens erkennt die Plaza de España in Sevilla

Bilder-SEO muss entwickelt werden

Im zweiten Beispiel sehen Sie eine Frau, die ein Foto des Op-Art-Künstlers Victor Vasarely im Städel Frankfurt aufnimmt (hervorragende Ausstellung übrigens). In Googles überwältigender Manier wird zunächst der Pulli der Fotografin interpretiert. Damit kann zukünftig Geld verdient werden. Sie sehen das in der zweiten Abbildung. Ob das Kleidungsstück tatsächlich von Marc o’Polo ist? – Vermutlich nicht. Deutlich wird, dass eine „Bilder-SEO“ in einer völlig neuen Art und Weise entwickelt werden muss. Billiges Stuffing oder Bild-Gestammel werden nicht zielführend sein.

Automatische Keyword-Zuweisung durch Google
Automatische Keyword-Zuweisung durch Google

Nehmen Sie ab und an Fotos mit einem Android Smartphone auf? – Befördern Sie diese Fotos zu Google Fotos? – Dann haben Sie sicher schon hin und wieder Anmerkungen von Google zu ihrem Bildmaterial bekommen. Da werden zum Beispiel Belichtungskorrekturen vorgeschlagen etc.

Bilder – ein schwer zu manipulierendes Relevanzkriterium?

Google kann also sehr viel mehr, als Sie in der Search Console einfach auf ein wenig taugliches Dateiformat und übertriebene Datenmengen aufmerksam machen. Die Suchmaschine kann die Qualität von Bildern bereits in ganz anderer Hinsicht beurteilen. Es geht weit über Umfeld-Inhalte hinaus; der Inhalt der Bilder und die Qualität derselben werden direkt analysiert. So ist es nur eine Frage der Zeit, bis diese ein relevantes und ausgesprochen schwierig zu manipulierendes SEO-Relevanzkriterium werden, wenn sie es nicht bereits jetzt schon sind. Natürlich sind Bilder manipulierbar – nur ist dies unendlich viel teurer als Texte zu optimieren.

Durch Google erstellte Verschlagwortung von Bildern

Im Social Media Monitoring wird das Bild-Thema schon um einiges ernster genommen. So verfügt beispielsweise Talkwalker über eine Bilderkennung. Interessant ist auch der Beitrag über zehn Bilderkennungstools, der sich im Talkwalker-Blog findet.

Aus meiner Sicht ist die strukturelle Beschäftigung hinsichtlich der Vermehrung des visuellen Content und dessen SEO-Tauglichkeit unbedingt erforderlich. Hier sollten einige Fragen mehr beantwortet werden, als dies beispielsweise Searchmetrics macht und darauf verweist, dass Google bei bildlastigen Themen wie Möbeln höhere Ladezeiten erlaubt.

Die Herausforderung wird darin bestehen, dass das was bisher als Keywords vom Betreiber der Website in den Text geschrieben wurden, plötzlich von Google selbständig und automatisch für Bilder gemacht wird. Es gibt also nichtmehr sowas wie die HIntergrund-Keywords bei Amazon, die selbstständig integriert werden können oder Keywords, die von Jobbörsen selbständig und manuell für Stellenanzeigen in Backends geschrieben werden. Der Suchmaschinenoptimierer ist also gezwungen herauszufinden, welche Bildqualität zu welcher Verschlagwortung führt. Es wird darum gehen, Metadaten so anzureichern, dass die entsprechenden Keywords möglicherweise übernommen werden. Google will lernen und im Bereich der Bilder kann es das durch Metadaten und Informationen, die aus den Bildern mittels Algorithmen selbständig erkannt werden. So kann es beispielsweise wichtiger werden, Produkte aus verschiedenen Ansichten zu zeigen, das Logo deutlich sichtbarer zu integrieren oder durch das Foto selbst eine Marke erkennbar zu machen. Laufen wir also los, produzieren wir mehr Bilder als bisher, lasst uns herausfinden, welche Merkmale der Fotos für Google (und vielleicht auch Amazon) wichtig sind. Das ist nicht alles – hören wir auf John Mueller und bauen wir großartige Websites, dann wird alles gut!

 

 

 

 

 

 

 

 

 

Customer Journey: Wie uns KPIs falsche Entscheidungen treffen lassen

Alles ist relativ, wenn es etwas gibt, wozu es relativ sein kann. Wenn ich mich recht erinnere, habe ich das im Physikunterricht gelernt. Das gilt besonders für die Zahlen, die wir in Analytics-Werkzeugen anschauen können. Gerade bei der Analyse der Customer Journey und bei Attributionsmodellen treten immer wieder gravierende Probleme auf. Dabei ist es völlig gleich, ob es sich um Zahlen handelt, die aus den Werkzeugen der Web- bzw. Digital-Analytics gewonnen werden, oder ob es Werte sind, die von den mitunter etwas überheblichen Beratern eines Business-Analytics Dienstleisters präsentiert werden. Der Kontext ist immer entscheidend. Wurden die Zahlen richtig gewonnen? Sind diese vollständig? Sind Übertragungsfehler möglich? Etc. Ich glaube, dass die Herausforderungen an dieser Stelle letztlich allgemein bekannt sind. Jedoch wird wird diese Grundlagenarbeit leider zu oft nicht genügend gewürdigt, so dass es zu Fehler und damit falschen Entscheidungen kommt. Das gilt bei der Gewinnung von Nutzern und Kunden besonders dann, wenn Attributionsmodelle eingesetzt werden. Die richtige Beurteilung der Customer Journey und deren Interpretation ist eben keine einfache Nummer, sondern es handelt sich um eine große Kunst. Dabei geht es nicht nur darum, wie Zahlen korrekt und valide gewonnen werden können. Ausgesprochen relevant ist auch die verhaltenswissenschaftliche Bewertung der Zusammenhänge. Um es ganz klar auszudrücken: Alleine mit einem Mathematiker und einem Informatiker kommt man nicht weit! Und um das Ganze zu strukturieren, sind Sozialwissenschaftler mit ökonomischem Know-how mitunter ausgesprochen hilfreich. Doch dazu gleich.

 

Die Beurteilungsdimension

 

In Unternehmen spielen Conversion Rates eine gewichtige Rolle – also eine “Measure” im Sinne der Analytics Tools. Durch sie ist es möglich, die Kosten für eine Conversion aus verschiedenen Quellen zu berechnen. Grundsätzlich ist dies eine ausgesprochen sinnvolle Fragestellung. Natürlich sollten Mittel entsprechend der Erfolgswahrscheinlichkeit verteilt werden. Sie stimmen mir sicher zu, wenn ich behaupte, dass alles Geld in Retargeting zu stecken, weil die Klickpreise so schön günstig sind, unsinnig ist. Wenn Aggregatoren, Keyword-Advertising, sowie Display-Werbung verschiedener Ausprägung weggelassen werden, wird dies katastrophale Folgen haben. Ein Klick ist eben an dieser Stelle nicht nur ein Klick, sondern der Kontext ist für die Interpretation seiner Bedeutung ausgesprochen wichtig. Wir sind bei der Customer Journey angelangt – oder einem Trichter. Grundsätzlich ist dieses Verfahren an den Makro- und Mikro-Conversions angelehnt, das nach meinem Wissen vor etwa von zehn Jahren von Avinash Kaushik stark propagiert wurde. Die Makro-Conversion ist der Schritt oder die Handlung, die dem Entstehen von Umsatz direkt vorausgeht. Mikro-Conversions sind Goals, die für vorgelagerte Ziele gesetzt werden, beispielsweise Newsletter-Abonnements oder Produktansichten bestimmter Länge etc. Seit 2013 gibt es in Google-Analytics das Modellvergleichs-Tool. Darin kann man untersuchen, wie sich die Gewichtung von verschiedenen Kontakten mit der eigenen Website und deren Quellen, Kanälen und Medien auf die Zahl der zurechenbaren Goals auswirkt. Meistens werden diese noch genannt. Die offiziellen Informationen von Google zum Modellvergleichs-Tool sind eigentlich ziemlich gut.

Attribution der Customer Journey im Google Modellvergleichs-Tool
Google Modellvergleichs-Tool

Dann kommen wir jetzt zunächst zu einer ökonomischen Herangehensweise. Diese ist sozusagen die Schale, in der sich alles abspielt. Ziele sind – zumindest für Unternehmen – meistens etwas, das wenigstens mittelbar mit Geld zu tun hat. Es geht um Bewertung. Diese Bewertung richtet sich nach der Art des zu beurteilenden Objekts. Wenn es beispielsweise um eine E-Commerce Website geht, dürften die Ziel durchaus anders sein als bei dem Auftritt eines Markenartiklers. Bei einem Automobilhersteller sind diese anders als bei einem Hersteller von Verbrauchsartikeln, und Endverbraucher agieren anders als Unternehmen im B2B-Geschäft. Aufbau und Ablauf von Kommunikationsstrategien sind bei Unternehmen mit kleinen – sehr spitzen – Zielgruppen anders als bei Catch-All-Ansätzen. Außerdem spielt nicht zuletzt das Budget eine Rolle.

Ups – da haben wir ihn nun den Klick und das, was wir messen und beurteilen können. Sicher, aufgrund der Verschiedenartigkeit der Ziele sollten auch unterschiedliche Goals gesetzt werden und eben diese Goals müssen dann natürlich auch verschiedene Werte haben.

Der erste Schritt beginnt also mit der Zieldefinition. Darüber gibt es große Einigkeit. Allerdings fällt es immer wieder schwer, diese Ziele in Prozesse zu gießen. Natürlich soll hinten Geld rauskommen – was sonst. Aber wie soll der Weg dahin beschritten werden? Wie ist die Strategie des Unternehmens? Sicher, es mag manche Unternehmen wie z.B. Tesla geben, die völlig auf ihren Chef und dessen Medienpräsenz vertrauen. In Sachen SEO oder AdWords tat sich wenig, als ich mit entsprechenden Keywords den Möglichkeitsraum “Tesla” durchsucht habe.

Dann gibt es viele Unternehmen, die sich im Bereich der Suchmaschinenoptimierung abmühen. Oft gibt es nur zwei oder drei Plätze, die relatisch erreichbar sind, weil Google Ergebnisse zu den verschiedenen Dimensionen einer Suchanfrage ausspucken muss, um die Suchanfrage der Nutzer zu beantworten. Also wird das Unternehmen gezwungen sein, AdWords-Werbung zu schalten, wenn es besser gefunden werden möchte.

Was ich mit dieser Schilderung zeigen möchte: Mit unterschiedlichen Online-Werbeverfahren können Nutzer in verschiedenen Phasen der Customer Journey erreicht werden. Wenn nun alle Verfahren anhand der gleichen Goals bewertet werden, fallen solche Verfahren, mit denen Kunden zum Beginn der Customer Journey angesprochen werden, möglicherweise aus dem Mediamix heraus. Noch ein Stück tragischer wird die Angelegenheit durch die Tatsache, dass der Verzicht auf den Kanal erst verspätet auffallen wird. Hier ein Beispiel: Ich wurde einmal von einem Vorgesetzten – gegen meinen Rat – aufgefordert, auf die Ansprache einer Teilzielgruppe per AdWords zu verzichten. Erst zwei bis drei Monate später traten die messbaren negativen Effekte hinsichtlich der Conversions auf. Das war umso ärgerlicher, weil es dann leider zwei bis drei Monate dauerte, um die Verluste aus dem Kanal wieder auszuholen. Man kann dies natürlich durch einen Kanal versuchen, der die Conversion in einem zeitlich geringeren Abstand anspricht. Möglicherweise ist dies aber teurer oder funktioniert gar nicht.

 

Letztlich sollte man wohl folgendermaßen herangehen: Definieren Sie Ziele so, dass es messbare Goals für Mikro-Conversions gibt. Das können Abonnements von Newslettern, Visits bestimmter Länge, Nutzung von Service-Bereichen, wiederkehrende Besuche und viele andere Ereignisse sein. Möglicherweise helfen Ihnen diese Mikro-Conversions, die Attribution besser zu verstehen. Wenn ich nicht genug Daten zur Verfügung habe, pflege ich die Lage zunächst anhand einer Intra-Kanaloptimierung von verbessern. Diese beiden Dinge sollten Sie unbedingt tun – Mikro-Goals setzen und Ihre Kanäle intern optimieren.

 

Intra-Kanaloptimierung

Es ist also ausgesprochen wichtig, richtig zu bewerten. Dabei ist die Intra-Kanaloptimierung am einfachsten. Wenn Sie die Leistung von AdWords und Bing Ads vergleichen wollen, ist das nicht schwierig. Sie können dies sogar auf der Basis einzelner Keywords, Anzeigengruppen oder Kampagnen machen. Die Klicks kaufen Sie dann einfach dort, wo diese am günstigsten sind. Wichtig ist, dass Sie immer Kanäle optimieren, über die Sie Nutzer die auf der gleichen Ebene, des Funnels zuführen.

Funnel der Coustomer Journey nach Zielen
Funnel der Coustomer Journey nach Zielen

Ende der Customer Journey: Intra-Kanaloptimierung direkt vor dem Verkauf und im Bereich Kundenbindungsmaßnahmen

Bei Aggregatoren – also beispielsweise Preis- oder Jobsuchmaschinen – funktioniert das ähnlich.. Hier befinden wir uns in einem weitaus finaleren Stand der Customer Journey. Was davor liegt, ist erledigt; der Kunde möchte nun kaufen oder – bei Stellenbörsen – weiß, welche Art Job er haben möchte. Auch auf dieser Ebene ist es möglich, die Kosten einer Conversion zu bestimmen und den kostengünstigsten Dienstleister zu wählen. Aber Vorsicht – es ist nicht ganz  Die Kosten der Conversions sollten auf der Ebene von Produktklassen optimiert werden. Normalerweise sind die Dienstleister nicht über das gesamte Produktspektrum gleich gut. In Fall von Jobs unterscheiden sich diese hinsichtlich verschiedener Jobklassen. Im Jobmarkt gibt es bei den Aggregatoren Dienstleister, die lediglich einen Bewerben-Klick – das Goal – weitergeben, andere geben noch die Micro-Conversion davor, einen View, weiter. In diesem Fall müssen Sie überlegen, ob eine Korrektur des Conversion-Werts für das Bewerben-Goal notwendig ist. Wenn es um bepreiste materielle Produkte, geht ist die Lage übrigens nicht zwingend einfacher. Das betrifft gerade Hersteller. Wenn diese direkt über Aggregatoren verkaufen, setzen sie meist keinen sonderlich aggressiven Preis. Die Conversion Rates der Hersteller sind oft schlechter als die von Händlern. Das mag wohl darin begründet sein, weil Kunden beim Hersteller eine höhere Informationstiefe hinsichtlich des Produkts erwarten und den Kauf danach beim billigeren Händler tätigen.

Besonders kniffelig wird es, wenn wir kurz vor der Conversion verschiedene Kanäle vergleichen möchten. Dummerweise herrscht hier gewaltiges Gedränge. Neben Aggregatoren gibt es noch das Remarketing, welches sich hier als besonders kostengünstig verkaufen möchte. Aber Vorsicht: Job Boards mussten leidvoll feststellen, dass Remarketing lediglich ein kommunikatives Äquivalent für Jobs ist, die per Mail verschickt werden. Hier sollte man nur für solche Nutzer Remarketing betreiben, die nicht per Mail erreichbar sind, sonst sinkt die Conversion Rate für den Mail-Kanal. Sicher, man sollte natürlich die Kosten für die Gewinnung einer E-Mail-Adresse beachten und in die Analyse einbeziehen.

 

Der mittlere Bereich der Customer Journey: Intra-Kanaloptimierung für Maßnahmen im Bereich Bekanntheit und Auffindbarkeit

Maßnahmen dieser Kategorie sind beispielsweise SEO, Keyword-Advertising und Conversion-orientiertes Behavioural Targeting. SEO ist hierbei sehr viel schwieriger bewertbar, als es im ersten Moment erscheinen mag. Wenn es Dienstleister gibt, die nach Conversions bezahlt werden, dann ist die Herausforderung analytisch kaum bewältigbar: Für welche Keywords wollen Sie – abgesehen vom konkreten Messproblem – bezahlen? Selbst wenn der Name Ihres Unternehmens ausscheidet und Sie Goals nur dann bezahlen, wenn Nutzer über konkret vereinbarte Landing Pages auf Ihre Plattform gelangten, dann ist es alles andere als einfach und genug Stoff für einen eigenen Beitrag. Als Tipp kann ich an dieser Stelle nur die Vereinbarung von Landing Pages, Klick-Tiefen und Keyword Sets geben.

 

Wenn wir jetzt noch versuchen wollen, das Zusammenspiel verschiedener Zuleitungen zu optimieren, wird die Analyse unendlich komplex. Man spricht in diesem Fall von Attributionsmodellen, mit denen verschiede Kontaktzusammensetzungen richtig bewertet werden sollen. Manchmal beeindruckt der Begriff mehr als das Ergebnis. Die Badewanne ist wirklich sehr anschaulich. Dabei wird die Quelle des ersten Kontakts und und die letzte vor einer Conversion hoch gewertet und die übrigen gering. Wenn Sie nun an den ersten Kontakt denken: Google Analytics erlaubt es, verschiedene Zeiträume zu testen. Wenn SIe auf verschiedene Produktgruppen filtern, werden Sie unterschiedliche Ergebnisse bekommen. Ich kann nur dazu raten wirklich lange mit den entsprechenden Werkzeugen herumzuspielen. Testen Sie viele Modelle durch. Schauen Sie bitte auch welche Wege bzw. Kontakte mit kostenpflichtiger Werbung Ihre Nutzer haben. Mitunter hätte ich Bewerber am liebsten einen Screen gezeigt auf den steht: “Bleib bitte weg! Du kostest uns viel Geld und bist offensichtlich nicht in der Lage einen Job zu finden. Nimm bitte professionelle Hilfe in Anspruch!”

 

Marke, Bekanntheit & Reichweite

An dieser Stelle wird es sehr schwierig. Web Analytics funktioniert dann recht gut, wenn man selbst die Herrschaft über eine Website hat und einen Analytics Tag platzieren darf. Manchmal ist das ja auch fremden Plattformen möglich, dann aber nur indem beispielsweise lediglich die Tracking ID eingeben und das Basis Tracking auf der entsprechenden Plattform nutzen. OK, es ist das andere Ende, aber Eventbrite mag ich an dieser Stelle absolut überhaupt nicht. Hier sollte sich der Anbieter dringend optimieren. Schließlich ist es in diesem Fall die finale Konversion. Ansonsten ist alles auf die im Besitz befindlichen Plattformen mit vollem Zugriff zentriert. Dort passiert in dieser Stufe in vielen Fällen nicht sehr viel. Für Bekanntheit und Reichweite wird an anderer Stelle gesorgt.  

 

Wie würden Sie beispielsweise die Views auf Banner oder Videos bewerten? Als Daten gibt es die Kontaktmenge der jeweiligen Plattform. Hilfreicher ist es, die Cookie-Daten in einem Topf zu verarbeiten. Hier gäbe es dann Clients, die bekannt sind, bei denen der Client bereits auf die eigene Domäne zugegriffen hat. Daneben gibt es unbekannte Clients. Diese können in solche eingeteilt werden, deren Nutzer bekannt sind (und kein Zusammenhang herstellbar ist) und solche, die völlig unbekannt sind.

Grundsätzlich gibt es für alle drei Fälle demographische Daten sowie Daten hinsichtlich den Clients und ihren Nutzern zugeschriebenen Eigenschaften und Vorlieben. Es ist also möglich Segelinteressierte zu targeten. Wird diesen dann Werbung für Bootszubehör, Skipper-Bekleidung, Schuhe, Nautisches Gerät inklusive entsprechender Uhren etc. angezeigt, können bei einem Klick entsprechende Zusammenhänge hergestellt werden. Bedauerlich ist, dass der Effekt der werblichen Maßnahmen nicht zwingend in Online-Beschaffungsvorgängen mündet. Selbst die Information hinsichtlich der beworbenen Produkte und Leistungen muss nicht beim Absender der Botschaft erfolgen. Ganz banal: Schuhhersteller bewirbt sein neues Modell beispielsweise auf Instagram. Dem interessierten Nutzer ist die weitere Recherche auf seinem Mobilgerät viel zu hakelig. Wo sucht der Nutzer nun mit Alexa oder auf seinem MacBook? Auf Amazon, Zalando, bei decathlon oder doch lieber bei Timberland? Selbst wenn Hersteller Markenbildende Werbung im Netz oder auf mit dem Netz verbundenen Geräten schalten, finden selbst kurzfristige Beschaffungsvorgänge nicht zwingend bei diesen statt. Alleine mit Methoden der Digital Analytics kommt man nicht weiter. So geben die Verkäufe an Online-Händler schon einen gewissen Indikator. Also rein in SAP BW und Analysis. Hier noch ein kleiner Tipp am Rande. Einige Amazon Tool-Anbieter “messen” Umsätze von Amazon Händlern, indem sie grob gesagt deren Lagerbestände abfragen. Diese beziehen sich i.d.R. nicht nur auf Amazon. Es ist also grob möglich, kurzfristige Absatzerfolge zu beurteilen – allerdings nicht auf granularer Ebene.

Natürlich ist es möglich noch einen Schritt weiterzugehen: Wieso sollte es keine Verbindung zwischen stationärem Handel und dem Netz geben. Ansätze hierzu gibt es schon viele Jahre. Menschen die mit Werbung in Kontakt kamen, sind unter bestimmten Bedingungen in einem Laden identifizierbar. Allerdings ist das System löchrig. Es funktioniert dann am besten, wenn Marken den Absatz über den stationären Handel völlig in eigener Hand haben oder zumindest über Franchise-Systeme kontrollieren können. Bekleidungshersteller wie Zara oder H&M können hier als Beispiel dienen. Für die Systemgastronomie sind auch Ansätze vorstellbar.  Die Herausforderungen sind groß:

  • Es darf nur kontrollierbare Werbung platziert werden. Fernsehen bietet hier nur einzelne zaghafte Ansätze. Out of Home ist in seiner Struktur noch erheblich poröser und kaum flächendeckend einsetzbar.
  • Der Point of Sales muss unter der Kontrolle der Marke sein. Alternativ können auch die Besucher von triangulierbaren geographischen Einheiten mit werblichen Maßnahmen beballert werden. Die Besucher der CeBIT oder Hannover Messe sind hierbei allseits beliebt.
  • Es können i.d.R. nur ein Teil der Nutzer an den entsprechenden Positionen identifiziert werden, sodass die Durchoptimierung vor Konversion gefährlich ist. Empfehlenswert ist auch in diesem Fall die Intra-Kanaloptimierung.

 

Wichtig ist Folgendes: Unterschiede hinsichtlich kognitiver Effekte gibt es hierbei je nach der Plattform auf der der Kontakt geschah. Klicks und Käufe erfolgen schließlich in den meisten Fällen nicht direkt. Es ist eine Frage von Kontaktmengen, Kontakten auf verschiedenen Wegen u.s.w. Leider wird diese Erkenntnis-Klasse des Marketing nur zu oft vergessen. Der Klick alleine ist es wirklich nicht. Was davor passiert, was Menschen sehen, wenn sie einen PC nutzen oder vor dem Fernseher sitzen ist wichtig. Prinzipiell sollten sich die werbefinanzierten Fernseh- und Radiosender endlich bemühen, auf den Cookie der großen Systeme mitzureiten und weniger zaghaft vorzugehen. Dummerweise wird der Klick dann ja nicht auf dem Fernsehschirm oder in der Küche stattfinden.

Vor mehr als 20 Jahren diskutierte ich mit dem Vertriebsmitarbeiter von Net Gravity, einer AdServer-Lösung, die von DoubleClick übernommen wurde. Mir war es wichtig, dass regionales Targeting immer funktioniert. Der Kerl war sichtlich irritiert: Warum will dieser Deutsche eigentlich 100-prozentige Abdeckung? Sein Argument war ganz einfach: Nimm die 50 Prozent bei denen wir den Ort sicher wissen und beschicken den Rest mit General Rotation. Genauso könnte man auch mit Fernseh- und Hörfunk-Werbung verfahren. Es wäre dann nach und nach möglich die “Rezipienten” mit individuellen Kontaktmengen zu beschicken und auf dieser Ebene genauere Ergebnisse zu generieren als dies mit herkömmlichen Methoden der empirischen Sozialforschung erfolgen kann.  

Der Werbekontakt, der Klick und die Konversion

Web-Analytics alleine ist zu wenig. Digital Analytics geht weiter ist aber auch nicht umfassend genug. Im Marketing-Controlling und der daraus folgenden Optimierung müssen weitere Schritte unternommen werden, um sicher und stabil zu arbeiten. Der Durchgriff auf Werte aus dem klassischen Controlling ist genauso notwendig wie der vorsichtige Umgang mit Zahlen auf den unterschiedlichen Ebenen der Customer Journey.  Daher meine Empfehlung, zunächst immer auf der Ebene einzelner Kanäle zu optimieren. Die Gefahr von Erfassungsbrüchen ist zu hoch. Womöglich wird auf sinnvolle Werbemaßnahmen verzichtet weil diese nicht messbar sind oder weil bei der Beurteilung der Werbemaßnahmen fehlerhafte Einschätzungen durch methodische Fehler entstehen. Wir werden noch lange an der analyse und Optimierung der Customer Journey arbeiten müssen. Hoffen wir, dass uns der verantwortungsvolle Umgang mit der DSGVO nicht zu viele Steine in den Weg legt.

 

Zielgruppen: Klassisch sozialwissenschaftliche Herangehensweise für Online-Marketing unerlässlich

In einem meiner letzen Beiträge ging es um den Begriff der Zielgruppe. Ich habe versucht eine operationale Definition herzuleiten. Es geht mir darum, zu charakterisieren was ich hier unter Zielgruppe verstehe. Vielleicht fragen Sie sich nun, warum ich in einem Blog so sehr auf dieser Formalie bestehe. Ich möchte das etwas erläutern: Das Verständnis für Zielgruppen ist für das Marketing der Kit zwischen den verschiedenen Akteuren. Wenn Sie ein Unternehmen leiten, müssen Sie den Mitarbeiter verschiedenster Abteilungen klarmachen, für wen die Leistungen des Unternehmens bestimmt sind, welche Ziele erreicht werden sollen. Steht der Relaunch einer Website an, müssen Leiter Online-Marketing dies – wahrscheinlich gemeinsam oder in Abstimmung mit der Marketing-Leitung und Vertretern aus der IT – den Mitarbeitern verschiedener Agenturen erläutern. Nur wenn genau wissen, wer erreicht werden soll, kann es zu befriedigenden Ergebnissen kommen. Nehmen wir ein Beispiel aus dem Bereich „Outdoor“: In diesem Fall wird es keinesfalls ausreichen, wenn die Zielgruppe so beschrieben wird: Männer und Frauen zwischen 25 und 35 Jahren, die sich in Baden-Württemberg und Bayern aufhalten und mindestens einmal im Monat mehr als zehn Kilometer wandern.

Zielgruppen verstehen – qualitativ

Ein erheblich tiefgehenderes Verständnis ist erforderlich. Einer der Gründe liegt im Wettbewerb. Wer die Zielgruppe besser versteht, der weiß, wie diese „tickt“, wird besser kommunizieren können, Produkte solider für die Zielgruppe entwickeln können und sich auch vom Wettbewerber abgrenzen können. Im Beispiel ist es eben durchaus relevant, ob die Zielgruppe Wandern als Sport versteht oder nicht, ob es um Wanderer geht, die auch im Hochgebirge unterwegs sind oder solche, die sich nur im Mittelgebirge bewegen und Wege ohne Steigung bevorzugen. Gehen die Wanderer tatsächlich rund ums Jahr regelmäßig oder nur zur „Wandersaison“? Geht die Zielgruppe auch bei Regenwetter? Natürlich können Sie die Zielgruppe auch noch weiter segmentieren. Ein Beispiel hierfür wäre die Frage nach dem Kinderanteil innerhalb der umrissenen Zielgruppe. Hier wird deutlich, dass es neben quantitativen Kriterien auch noch sehr viele qualitative Kriterien geben kann und sollte.

Quantitative Zielgruppen-Kriterien

Die quantitativen Kriterien – vielleicht sollte ich diese besser als quantifizierbare Kriterien bezeichnen – spielen im Online-Marketing eine größere Rolle. Immer wenn Werbung eingekauft werden soll, sind solche Kriterien unerlässlich. Medienhäuser nutzen diese in Deutschland schon seit weit mehr als 60 Jahren. Die Arbeitsgemeinschaft Media-Analyse e.V. (agma) als wichtiger Verband in diesem Bereich wurde 1954 gegründet. Damals ging es darum zu zeigen, wie die Leser von Zeitungen und Zeitschriften gruppiert werden können, damit Werbungtreibende Daten für die Platzierung ihrer Anzeigen bekommen.

Zielgruppen und Marktpotenzial-Analyse

In der Wissenschaft wird die Marktpotenzial-Analyse analytisch sauber und grundsätzlich auch berechtigt von der Kommunikationspolitik getrennt.  Zunächst wird berechnet wie groß die Zielgruppe ist. Das ist im Beispiel der Wanderer in Baden-Württemberg und Bayern zum Teil über die amtliche Statistik der Statistischen Landesämter und des Statistischen Bundesamts möglich. Diese erlauben es, die Zahl der Einwohner nach Altersklassen zu recherchieren. Wie hoch der Anteil der Wanderer ist wird nicht erfasst. Hier empfiehlt es sich bei Verbänden oder in Markt-Media-Studien zu recherchieren. Sehr schnell werden Sie feststellen, dass es in der Offline-Marketing-Welt auch keine perfekte Zugänglichkeit zu Daten gibt. Für unser Beispiel werden Sie auf die Verbrauchs- und Mediaanalyse VuMA stoßen. Diese Studie, die von den öffentlich-rechtlichen Fernsehsendern und der RMS durchgeführt wird, erfasst in regelmäßigen Abständen mittels persönlich-mündlichem Interview (CAPI) und Haushaltsbüchern die Mediennutzung und das Konsumverhalten. Allerdings muss man sich an den abgebildeten Parametern orientieren. Diese wiederum sind in großen Teilen an die Parameter der Studien der AG.MA angelehnt.

Berechnung der Zielgruppen-Größe

Skalierung Häufigkeit
Skalierung Häufigkeit

Was heißt das nun für unsere Konstruktion der Zielgruppe? Es ist ausgesprochen sinnvoll, sich an den Parametern der relevanten Studie und deren Skalierungen zu orientieren. So lässt sich die gewünschte Altersspanne nicht genaus abbilden. Es ist möglich die Auswertung aus Baden-Württemberg und Bayern zu begrenzen. Euphorisch werden muss man aber noch immer nicht. Die Skalierung für die Nutzung oder Anzahl der durchgeführten Aktivität sehen Sie in der Abbildung. Hier gibt es keinen Unterschied zwischen dem Essen von Schokolade und Wandern. Man könnte zur Bestimmung der Zielgruppen-Größe die Werte „Etwa einmal im Monat“ und häufiger nutzen. Wie weit die Wanderer jeweils unterwegs sind, wird uns nicht gesagt.

Hinsichtlich der Alterswerte haben wir die Möglichkeit die gewünschte Gruppe zu errechnen. Das ist dann nicht sonderlich genau. Wir nehmen einfach die Altersgruppen von 20 bis 40 und teilen durch zwei. So können wir die Zielgruppen-Größe berechnen.

Zielgruppe – ja und?

Ich kann mir gut vorstellen, dass meine Herangehensweise bei passionierten Online-Marketern Erstaunen hervorruft. Warum soll man Zielgruppen so traditionell definieren, wenn man bei Facebook, Google oder spezialisierten Dienstleistern Zielgruppen kaufen kann. Aber schauen Sie selbst:

AdWords Kaufbereite Zielgruppe Wandern
AdWords Kaufbereite Zielgruppe Wandern

 

Wirklich der Knaller ist das nicht, was Google zu bieten hat. Wenn Sie sich nun vorstellen, dass Sie nicht nur mit Google zu tun haben, sondern mit einer ganzen Reihe von Dienstleistern, dann kann es sehr schnell unübersichtlich werden, wenn man die Zielgruppe nicht ganz sorgfältig definiert hat. Ganz schwierig wird es, wenn einem Dienstleister zu Hilfe eilen, die vorgeben Zielgruppen sauber zu definieren, aber den Attributions-Prozess intransparent lassen. Im nächsten Beitrag zu Zielgruppen gebe ich Hinweise darauf, welche Wege konkret einschlagbar sind und welche Fallstricke existieren.

 

 

 

Organisation des A/B-Testing –
Rückblick auf die A/B Insights in Köln

A/B Insights

A/B Testing gehört einfach zum Kerngeschäft des Online-Marketing. Die Rolle des Testing als Teil der Digital Analytics ist in vielen Unternehmen mit ausgeprägtem Online-Geschäft fest implementiert. Es geht nicht mehr um die Frage, ob man testet oder darum, wie Tests funktionieren. Sicher – auch in diesem Zusammenhang gibt es beträchtliches Optimierungspotenzial. Hauptthema des Abends vergangene Woche war jedoch die Frage, wie es möglich ist, die relevanten A/B-Tests zu identifizieren und diese zu maximieren. Vorgetragen hierzu haben Bastian Schäfer (Senior Referent Website-Testing & Conversion-Optimierung bei der DB Vertrieb GmbH) sowie Viktoria Zenker und Hauke Floer aus der UX der Galeria Kaufhof GmbH. Es sind immer wieder Unternehmen, die direkt über das Netz absetzen, die weiter sind. Verlage und Fernsehsender sind hier weit abgeschlagen und sollten dringend aufholen!

Kreislauf A/B-Testing

Bastian Schäfer stellte ein Kreislaufkonzept zum A/B-Testing vor:

  • Ideensammlung
  • Hypothesenbildung
  • A/B-Testing
  • Umsetzung

Vor einigen Jahren und auch jetzt ist es noch immer so, dass Kreative sich ungern testen lassen. Dabei ist es doch viel angenehmer, viele Ideen zu entwickeln, und zu schauen, welche davon perfektioniert werden sollen. Deutlich sollte eben immer wieder werden, dass es nicht um Schönheitspreise geht. Es geht um »Funktionieren« sowie das Erreichen von Zielen. Ohne Tests sind die Ergebnisse meist suboptimal.

Ist das Bewusstsein für Tests geweckt, dann verkehrt sich die Problemlage: Es soll viel und ausgiebig getestet werden. Hierdurch wird der Zielerreichungsgrad höher. Eine große Herausforderung ist dabei das Aushebeln der eigenen Betriebsblindheit. Das betrifft die eigene Abteilung, aber auch andere Abteilungen, die zu integrieren sind.
Ideen sollten nun unabhängig von der Quelle gesammelt, organisiert und bewertet werden. Die wichtigste Quelle ist und bleibt dabei das Nutzerfeedback. Inzwischen scheint Jira ein Industriestandard für Kanban mit dem Netz zu sein – auf wirklich allen Veranstaltungen wurde darauf verwiesen. Gut – ich benutze das Tool auch. Es taugt zielmlich gut für die Arbeit mit dem Netz. Die Kollegen von Kaufhof verwenden es beispielsweise, um die Bewertung von Testideen zu realisieren. Finale Frage in diesem Zusammenhang: »Wie viel mehr an Umsatz ist nach dem A/B-Test zu erwarten?«

Jira erlaubt die Abbildung von mehreren Bewertungsdimensionen. Die Ermittlung des Erwartungswerts kann mit einer relativ großen Sicherheit erfolgen. Entsprechend des zu erwartenden Umsatzplusses wird das Ranking der Tests gebildet. Eigentlich ganz einfach, wenn man die Idee dazu hat und sich die Kollegen darauf einlassen. Ach – natürlich muss a priori noch geprüft werden, ob der Traffic auf den zu testenden Bereichen der Website ausreicht, um den Test mittels Conversions durchzuführen. Richtwert: 200 Stück pro Zelle.

Einig waren sich die Teilnehmer des Abends übrigens darüber, dass die Farbe eines Buttons nicht wirklich testwürdig ist, die darauf befindliche »Call to Action« sehr wohl.

A/B-Test Hypothesenbildung

Klar – Hypothesen sind notwendig. Ohne Hypothesen ist die Interpretation von Ergebnissen häufig schwierig. Wenn man diesen Schwierigkeiten aus dem Weg gehen möchte, ist eine Systematisierung erforderlich. Hilfreich dabei sind strukturierte Konzepte, wie das »Conversion Framework« von Khalid Saleh (invespcro) oder das, was Konversionskraft zu dem Thema schreibt.

A/B-Test – Analytics Maturity Model

Ich stehe auf Maturity Models – ehrlich. Die haben verschiedene Vorteile. Der wichtigste ist wohl, dass man sich selbst einordnen kann – also den eigenen Stand überprüfen. Hier hat Bastian Schäfer etwas an die Wand geworfen, das ich noch nicht kannte. Mit freundlichem Dank gebe ich es hier weiter.

A/B-Test - Analytics Maturity Model bahn.de
A/B-Test – Analytics Maturity Model bahn.de

Ansonsten noch ein großes Dankeschön an Trakken und Optimizely für die Organisation des Abends. Ich komme nächstes Jahr gerne wieder, und zwischendurch auf den Analytics Summit nach Hamburg.

SEO-Trends: Die Google Search Console

In meinem letzten Beitrag zu SEO-Trends habe ich über Content-Marketing geschrieben. Nun wird es die Google Search Console. Ein wenig verwundert hat es mich schon, dass auf allen von mir besuchten Veranstaltungen die Search Console ausführlich thematisiert wurde. Dabei arbeite ich schon recht lange damit – bereits als sie Webmaster-Tools hieß und einen geringeren Funktionsumfang hatte. Sie ist ein ausgesprochen wichtiges Werkzeug. SEO-Research-Werkzeuge beziehen darüber Daten. Wenn Sie die Search Console  noch nicht verwendet haben, sollten Sie sich dringend damit beschäftigen.

Die Grundfunktionalitäten der Google Search Console

Google Search Console
Google Search Console

Mit der Google Search Console kann man die Präsenz der eigenen Website in den Google Suchergebnissen analysieren und verwalten. Im Dashboard  der Console wird auf Crawling-Fehler verwiesen. Es gibt Informationen über den Indexierungsstatus der Sitemaps. Am wichtigsten dürfte mittlerweile die Suchanalyse sein:

Wenn Sie aus dem Bereich Web-Analytics kommen und auf dem Gebiet bereits einige Jahre arbeiten, kennen Sie das Problem: »Not Provided«. Daniel Waisberg , Analytics Advocate bei Google, wurde schon 2014 auf dem Analytics Summit in Hamburg darauf angesprochen. Es wurde gefragt, ob für die nicht übermittelten Keywords eine Lösung angedacht sei. Er verneinte. Nun ist es jedoch seit einiger Zeit möglich, die Search Console mit Google Analytics zu verbinden. Die benötigten Informationen sind zumindest zum Teil wieder vorhanden. Weiter unten gehe ich noch ein wenig genauer darauf ein.

Google hilft in der Search Console, strukturierte Daten zu übergeben. Das werde ich noch in einem eigenen Beitrag darstellen. Da Google nun auch Jobs explizit in den Suchergebnissen darstellt, hat ziemlich viel Staub aufgewirbelt. Es gibt Hinweise auf doppelte Title, Meta-Tags, zu kurze und zu lange von denselben. Sie haben diese Angaben möglicherweise auch vor geraumer Zeit in Werkzeugen wie XOVI oder OnPage entdeckt.

Auf die Suchanalyse gehe ich gleich ein. Es geht um die interne und externe Verlinkung, die internationale Ausrichtung (hreflang) sowie Nutzerfreundlichkeit auf Mobilgeräten. Es ist möglich, den Indexierungsstatus zu beobachten u.s.w. Relativ wichtig sind dann wieder die Crawling-Fehler, die Sitemaps und URL-Parameter. In den URL-Parametern sollten Sie dafür sorgen, dass Google die richtigen Seiten erwischt. Die erste Seite einer Produktliste ist – um ein Beispiel zu nennen – weitaus relevanter als die folgenden.

Die Suchanalyse in der Google Search Console

In der Search Console können Sie sehen, für welche Suchanfragen Sie in den Ergebnislisten auftauchen. Sie bekommen Impressions, die Klickrate und Positionen dafür. Das Besondere am Wert für die Positionen ist, dass es sich um den Durchschnittswert für alle Impressions im konfigurierten Zeitraum handelt. Dieser Wert ist also besser als einer, der von punktuellen Abfragen gemessen wurden.

Search Console Suchanalyse
Search Console Suchanalyse

In der Search Console direkt zu arbeiten, ist kein Vergnügen, besonders wenn es darum geht, zu prüfen wie die Performance von Landing Pages ist. Wenn man nun alle Pages einzeln filtern müsste, würde dies eine wilde Klickerei. Erheblich simpler ist es da, die Daten übersichtlich in einer Tabelle anzusehen. Das funktioniert dann mit der Search Console API. Die gibt es nun auch schon beinahe zwei Jahre, seit August 2015.

Search Analytics for Sheets
Search Analytics for Sheets

Was man damit macht? Ganz einfach. In der Regel arbeitet man in mit Landing Pages. Diese Landing Pages werden auf Keywords optimiert. Die Frage ist also, für welche Keywords eine Landing Page auf welcher Position rankt und wie viele Klicks bei welcher CTR erreicht werden können. In der Search Console filtert man für diese Fragestellung auf eine Seite. Dann wechselt man in die Suchanfragen und analysiert die Ergebnisse.

Mit der API können Sie dies für all Ihre Landing Pages in eine Tabelle packen. Ist Ihnen das zu kompliziert? Mögen Sie Google Docs? Arbeiten Sie mit Google Sheeds? Dann habe ich einen guten Tipp für Sie: Mihai Aperghis hat ein PlugIn für Google Sheeds programmiert, mit dem Sie alle Daten problemlos in Google Sheeds importieren und speichern können. Sie finden »Search Analytics for Sheets« unter https://searchanalyticsforsheets.com/ Kostenlos ist es noch dazu!

Prinzipiell braucht man die Hinweise zur Konfiguration auf der Website nicht. Das Tool ist einfach gestaltet und intuitiv bedienbar. Am wichtigsten ist das »Group By«, denn hier können Sie Spalten in die Tabelle integrieren. Ich habe das im Beispiel für Page und die Keywords gemacht (Query). Sie können auf diesem Weg also auch wochen- und monatsweise Daten in Tabellen schreiben und ganz wunderbare Zeitreihen aufstellen.

Etwas Ähnliches gibt es auch für Excel. Dafür müssen Sie dann ein wenig bezahlen. Die Analytics Edge kostet 75 US$/Jahr und kann noch etwas mehr als nur die Search Console.

Einen Tod müssen Sie allerdings sterben: Die Daten der Search Console sind nur für Keywords verfügbar, die mindestens einmal im Monat eine Impression in einer Suchergebnisliste bekommen haben. Sie bekommen also keine oder kaum Aussagen darüber, was auf den hinteren Plätzen der SERPs passiert. Vor allem, wenn man Kandidaten für die Optimierung von Treffern auf der dritten Ergebnisseite finden will, bleibt nichts anderes übrig, als in die Übersichten der Research Tools zu schauen.

Gütektiterien für Digital Analytics

In der empirischen Sozialforschung wird schon lange mit Gütekriterien gearbeitet. Das ist im Marketing genauso. Es gibt Gütekriterien wie diese: Validität, Reliabilität und Objektivität. Es soll korrekt gemessen werden, die Messung soll replizierbar sein und unabhängig von subjektiven Einflüssen. Oft werden noch weitere Kriterien genannt: Relevanz, Vollständigkeit, Aktualität sowie Sicherheit der Daten. Mit diesen Gütekriterien könnte man zweifellos auch solche für die Digital Analytics spezifizieren. Leider gibt es für die Digital Analytics eine anscheinend recht knifflige Herausforderung. Diese besteht einerseits häufig in der Unternehmensstruktur und in der jeweiligen Qualifikation der beteiligten Akteure. Digital Analytics oder Web Analytics wird noch immer zu sehr durch die IT-Abteilungen betreut und zu wenig durch das Marketing. Auch wenn die Konfiguration von Reports – beispielsweise in Google Analytics – nicht wirklich schwierig ist – steht davor noch die Datenerfassung. Einfach nur den Tag in die Website zu packen, reicht hier häufig nicht aus. So können – zumindest bei größeren Projekten – nicht alle relevanten Fragestellungen beantwortet werden. Manche Zeitgenossen stellen immer wieder Fragen nach der Repräsentativität der Daten. Warum diese Frage nicht so ganz einfach zu beantworten ist, erläutere ich noch in einem anderen Beitrag. Interpretiert man die Daten der Digital Analytics bzw. Web Analytics als Vollerhebungen für das zu analysierende Objekt, so ist die Antwort natürlich einfach: Die Frage der Repräsentativität stellt sich nur bei Stichproben und nicht bei Vollerhebungen. Aber zurück zum Thema Gütekriterien für Digital Analytics.

Das französische Analytics Unternehmen AT Internet hat nun vor einigen Wochen ein Whitepaper »Data Quality in Digital Analytics« veröffentlicht. Darin geht es um Gütekriterien – darum, wie eine hohe Datenqualität in den Digital Analytics erreicht werden kann. Genannt werden die folgenden Bereiche:

Data Quality in Digital Analytics
Data Quality in Digital Analytics (Quelle: AT Internet)
  • Accuracy (Does my data reflect reality over time? Can I trust the values being returned?)
  • Completness (Is data missing or corrupt? Do I have all the data I need to make informed decisions? Are all pages of my site tagged? Are all screens of my mobile app tagged? Is all my data being collected as expected?)
  • Cleanliness (Is my data error-free? Are my data values readable and correctly formatted?)
  • Timeliness (Is all data available when needed? Does my data allow me to react in real time?)
  • Consistency (Is my data consistent across platforms? Do I have a reliable “single point of truth”? Can everyone in my company access the same data?)

Visuell hat AT Internet dies als Kreis dargestellt. Sie sehen das in der Abbildung – ein Rundumschlag, der die Herausforderungen sehr schön beschreibt. Ich erläutere die Bereiche noch ein wenig und kommentiere diese:

Richtigkeit & Genauigkeit

Erlauben Sie mir bitte Übersetzung von »Accuracy« mit »Richtigkeit & Genauigkeit«. Wenn Sie sich das Whitepaper von AT Internet ansehen, verstehen Sie weshalb. Daten der Digital Analytics gaukeln leider immer Genauigkeit vor, selbst wenn diese nicht vorhanden ist. Von außen betrachtet ist das auch nicht weiter verwunderlich. Computer erheben Daten darüber, was auf Computern passiert. Was sollte dabei schief gehen? – Leider ziemlich viel. Ein Beispiel aus der SEO Analytics: Wenn Sie wissen möchten, auf welcher Position Ihre Website für ein Keyword auf einer Google-Ergebnisseite steht, ist es ein gewaltiger Unterschied, ob das Ergebnis durch eine Schnittstellenanfrage bei Google oder per Crawl erhoben wurde oder ob die Google Search Console abgefragt wurde. Im ersten Fall handelt es sich um eine Zeitpunktbetrachtung, im zweiten um eine Zeitraumbetrachtung. Die Richtigkeit des zweiten Wertes aus der Search Console ist mit größerer Sicherheit richtig als die Zeitpunktbetrachtungen – auch wenn diese natürlich an sich genau sind.

Vollständigkeit

Und wieder: Reports gaukeln Genauigkeit vor. Wenn eine Website beispielsweise nicht vollständig vertaggt ist, dann sind die Daten nicht vollständig. Es muss also zum Beispiel geprüft werden, ob das Tracking Script überall dort ist, wo es sein soll. Im einfachsten Fall muss es bei einer Website in alle Seiten integriert werden. Bei WordPress etwa ist das ganz einfach: Es gibt ein PlugIn, das sich darum kümmert. Wenn Ihre Website jedoch aus verschiedenen Quellen zusammengesetzt wird, kann dies knifflig werden. Auch in bei responsiven Websites tauchen hin und wieder Probleme auf: Es muss darauf geachtet werden, dass das Tagging in verschiedenen Viewports gleichmäßig funktioniert. Das betrifft vorwiegend das Event-Tagging.

Selbstverständlich müssen auch die Server zur Erfassung der Daten jederzeit voll in ausreichender Geschwindigkeit verfügbar sein etc. Insgesamt haben wir es hier mit einem ganz klassischen Gütekriterium zu tun (s.o.).

Sauberkeit

Selbst wenn Ihre Daten alle vollständig erhoben wurden, können noch gewaltige Schwierigkeiten auftreten. AT Internet nennt als Beispiel falsche Tags in E-Mail-Newslettern, die erst erkannt werden, wenn der Newsletter bereits verschickt wurde. Hier fühle ich mich schon ein wenig ertappt. Google-Analytics unterscheidet in der Auswertung der Daten bei UTM-Parametern Groß- und Kleinschreibung, ist also Case Sensitive. Schreiben Sie daher Parameter-Werte am Besten immer alles klein und verwenden Sie immer Bindestriche und keine Unterstriche in den Parametern, sonst ist das Chaos unausweichlich. Gerade bei Updates von Websites tauchen solche Fehler relativ häufig auf, z.B. weil inzwischen die Bearbeiter gewechselt haben. Sie sollten aus diesem Grund unbedingt Fachkonzepte entwickeln und sich sklavisch daran halten. Wurden die falschen Daten an den Server übertragen, ist der Aufwand zur Korrektur in der Regel erheblich. In solchen Fällen gibt es Einschränkungen hinsichtlich Validität und Reliabilität der Daten.

Rechtzeitigkeit

Mir ist schon klar, warum Rechtzeitigkeit kein Kriterium in der klassischen Marktforschung ist und lieber von Aktualität gesprochen wird. Marktforschung benötigt meist sehr viel Zeit und besonders junge Berater unterschätzen deren Aufwand. In den Digital Analytics kann das anders sein. Mitunter stellt sich auch die Frage, ob denn tatsächlich alles in Realtime ausgewertet werden muss. Ich empfinde das manchmal fehl am Platz. Die Geschwindigkeit in der Auswertung ist aus meiner Sicht nur dann notwendig, wenn durch eine schnellere Verfügbarkeit eines Wertes tatsächlich schneller reagiert werden kann. Das ist beispielsweise dann der Fall, wenn auf einer wichtigen Seite ein 404 auftritt. Kürzlich empfahl beispielsweise Michael Janssen (zedwoo) auf einen 404 in Google Analytics einen Event zu setzen. Diesen kann man sich sogar zumailen lassen. Was bei kleinen Websites tatsächlich eine hilfreiche Sache ist, muss bei größeren Projekten natürlich umfänglicher angegangen werden. Oft ist beispielsweise die Search Console schneller oder das Werkzeug, mit dem die grundsätzliche Aktivität in den Logfiles überwacht wird. Es geht hier also hauptsächlich um das Erkennen und die Beseitigung technischer Probleme. Ähnlich verhält es sich mit Kampagnen: Hier muss auch schnell reagiert werden können, wenn Probleme auftreten.

Zweifellos gibt es in diesem Bereich noch andere Kriterien. Wenn es beispielsweise bei einem Analytics Tool lange dauert, bis ein Bericht angezeigt oder gerechnet wird, dann ist es einfach nur nervig. Hier muss man prüfen.

Konsistenz

Nehmen Sie bitte an, dass Sie verschiedene Websites für unterschiedliche Produkte in Ihrem Unternehmen haben. Es könnte eine für Schokoriegel, eine für Müsli und eine für Getränke sein, die analysiert werden müssen. Natürlich soll ihr Web Analytics Tool für alle Websites die gleiche Datenqualität erzielen. Sessions und Impressions sollen gleich gezählt werden – sonst können Sie nicht vergleichen. Das ist klar. Leider ist dies in der Unternehmenswirklichkeit nicht ganz so einfach. Je nach Struktur der Unternehmen werden die Websites mitunter auf verschiedenen Plattformen betrieben, es werden verschiedene Analytics-Werkzeuge eingesetzt, Daten werden mehr oder weniger gefiltert. Und dann werden die Zahlen nebeneinander präsentiert, als ob sie mit einer geeichten Waage gewogen wurden. Aber das ist leider mitnichten so, denn erhebliche Abweichungen sind möglich. Diese treten auch schon dann auf, wenn der Tag des Tag Management Systems an unterschiedlichen Positionen in der Website sitzt. Auch in diesem Fall gibt es Einschränkungen hinsichtlich Validität und Reliabilität der Daten.

Zu Abweichungen kann es auch kommen, wenn Daten auf verschiedenen Plattformen erhoben werden (z.B. Betriebssystemen, Browsern). Man sollte auch prüfen, ob alle Empfänger, die gleiche Daten bekommen sollen, auch tatsächlich die gleichen Daten erhalten. Hier sind einige Überraschungen möglich.

Für tiefergehende Informationen empfehle ich die Lektüre des AT Internet Whitepaper.

SEO-Trends: Content-Marketing, der Hyper SEO-Trend

Ich habe dieses Jahr Kundenveranstaltungen bei OnPage & Searchmetrics besucht und war auf der SMX in München. Zudem kommen einem ja noch einige andere Infos vor die Nase. Hier also einfach mal eine mehr oder weniger kritische Zusammenfassung von SEO-Trends bzw. SEM-Trends, die für mich auffällig waren. Es werden insgesamt wahrscheinlich drei Beiträge in den nächsten Wochen. Etwas zur Search-Console und zu Schema etc. werden folgen.

Content Marketing, der Hyper SEO-Trend

Eigentlich sollte man ja immer vorsichtig sein, wenn Supertrends kolportiert werden. In diesem Fall geht es um Content-Marketing. Oh – erwischt! Das mache ich hier mit meinem Blog auch. Und um was geht es? – Darum, dass man für Social Media und SEO Inhalte braucht und diese möglichst so in die Seiten eingebunden werden sollte, dass hohe Positionen in den SERPs (Suchmaschinen-Ergebnislisten) erreicht werden. Durch die Ausprägung als Text kann Google diese Inhalte wunderbar nutzen. Eigentlich ist das ziemlich cool. Dann gibt es da aber solche Analyse-Tools wie Searchmetrics. Dort wird in Berichten gezeigt, wie die Lage ist: Texte auf der ersten Ergebnisseite sind länger als weiter hinten.

Wortzahl Searchmetrics
Wortzahl Searchmetrics (Quelle: Searchmetrics Whinepaper Rebooting Ranking-Faktoren 2017)

 

Mit 0,08 ist die Korrelation nicht sonderlich hoch. Erstaunlich ist auch, dass die Treffer auf den ersten Plätzen im Durchschnitt weniger Worte haben, als Treffer auf den Plätzen 4 bis 7. Genau: “Durchschnittlich” ist der entscheidende Ausdruck! Ist Ihnen schon aufgefallen, dass es recht oft Treffer auf den PLätzen 1 bis 3 gibt, die sehr wenig Text auf ihrer Seite haben? – Es ist eben nicht immer viel Text notwendig. Content muss nicht breit sein – die Relevanz von Inhalten und Funktionen für die Fragestellungen der Nutzer von Suchmaschinen ist entscheidend.

Wenn wir nun dieses Ergebnis bei Searchmetrics sehen, sollte es uns alarmieren. Wir sollten nicht nur auf Werkzeuge vertrauen, die uns mit mehr oder weniger großem analytischem Aufwand helfen, die richtigen Keywords in unseren Texten unterzubringen. Hier helfen OnPage und Xovi, indem die Treffer der ersten Ergebnisseite für einen Suchstring ausgewertet werden. Man sieht Worthäufigkeiten. Klar, das hilft. Vergleicht man jedoch die Worthäufigkeiten im Zeitverlauf, so könnte einem schon Angst und Bange werden. Ja – Content-Marketing ist ein Prozess und nicht ein Projekt. Die Jungs von OnPage geben deshalb den Tipp, die Worthäufigkeiten regelmäßig zu überprüfen und Texte gegebenenfalls anzupassen. Sicher – das Verfahren ist analytisch und prinzipiell etwas, das ich auch befürworte. Der Nachteil daran: Sie laufen immer nur ihren Wettbewerbern hinterher. Wenn Sie vor diesen stehen wollen, müssen Sie schneller relevante Suchen identifizieren als andere Marktteilnehmer. Das wiederum ist aufwändig: Sie müssen Themen systematisch aufarbeiten und Trends erkennen. Dazu ist wiederum eine tiefergehende Sachkenntnis erforderlich. Die Auslagerung der Wordings wird schwieriger. Zwar ist das machbar, dazu ist es allerdings erforderlich, Know-how und Strukturen aufzubauen.

Externe Effekte des SEO-Trends Content-Marketing

Nehmen wir nun einfach an, dass es uns gelingt, durch Content-Marketing Erfolge zu erzielen. Wir gewinnen dadurch Nutzer für unsere Website. Das ist toll. Doch was bedeutet das für Google? – Dort wird weniger verdient. Im Sinne von Google kann das nun wirklich nicht sein, dass durch Hinzufügen von passenden Texten eine Position auf der ersten Ergebnisseite erreichbar ist. Analysiert man noch das, was Kollegen zu dem Thema sagen und das, was die Notwendigkeit der Integration von Text in Webpages bringt, dann scheint das Ende der einfachen Textstrickerei nahe. Norman Nielsen von Zalando meinte bei der Searchmetrics-Veranstaltung, dass der Sinn von Content auch nicht 2,5 cm Text in der linken Spalte sein können (auch wenn das noch funktioniert). Genausowenig wird Text langfristig funktionieren, der vor den Nutzern versteckt wird – gleich ob das mit Tabs passiert oder ob die vielen Worte an das visuelle Ende einer Seite gepackt werden. Für Suchmaschinen besteht die Aufgabe schließlich nur darin, die Relevanz des Content für die jeweilige Fragestellung der Nutzer zu beurteilen. Sollten die Texte dazu nicht – oder nicht mehr – notwendig sein, dann kann viel Geld gespart werden. Der eine oder andere Kollege auf den Veranstaltungen verwies darauf, dass nach dem Löschen der Texte auf Testseiten schlichtweg nichts hinsichtlich der Position auf den SERPs passiert ist.

Aus meiner Sicht ist es ohnehin erstaunlich, dass sich Google auf diese Bewertung festgelegt hat. Sicher – es erfordert einiges an Aufwand, 300, 500 oder sogar 1.200 Worte für ein Thema zu texten. Aber was sollen diese Texte auf Übersichtsseiten zu Kleidern oder Joggingschuhen? Könnte Google hier nicht einfach die Texte der Zielseiten zu Rate ziehen? Wahrscheinlich wird das auch gemacht, nur fällt in der Analyse von außen die Bewertung etwas schwerer.

Tanker & Enten in der SEO

Google schraubt am Algo – ziemlich oft sogar. Manchmal wird etwas als Major-Update benannt, aber oft gibt es Spekulationen darüber, was gerade passiert ist. So war das beispielsweise beim Update im Mai 2017. Was Google macht, bewegt sich in ganz langsamen Bahnen – Google ist der Tanker im Meer von Websites, die wie lahme Enten auf echte oder vermeintliche Änderungen reagieren. Ein Beispiel: Der Page Rank basierte einmal auf den externen Links, die auf eine Seite gesetzt wurden. Anfangs war dies ein schwer zu erfüllendes Kriterium. Als es dann leicht wurde, an Links zu kommen, wurde dieser in der ursprünglichen Form für Google wertlos. Wenn es nun leicht wird, den entsprechenden Content zu generieren, dann wird Google neue Kriterien zu Rate ziehen müssen. Wir dürfen sicher sein, dass es diese schon gibt. Es wird dabei um die Verteilung von Inhalten gehen, darum wie Nutzer mit diesen interagieren und nicht zuletzt um Bilder.

Auf allen Veranstaltungen wurde mehr oder weniger deutlich die UX als der neueste SEO-Trend angesprochen, das neue Content-Marketing oder die neue SEO. Und genau das ist es – die User Experience wird wichtiger. Der Prozess der Erstellung von Websites muss integrierter stattfinden als bisher. Webdesign, Interaktionsdesign, UX und SEO müssen gemeinsam arbeiten und dürfen natürlich auch nicht die Anforderungen an die Analytics vergessen. Ganz klar – Content-Marketing wird mehr Strategie und Konzept brauchen und und weniger Masse. Dieser SEO-Trend wird aus meiner sicht derzeit übertrieben. Der Markt für Content-Marketing ist wahrscheinlich schon überhitzt. Damit wird zwangsläufig ein Rückgang erfolgen.

Der Zielgruppen-Begriff für das Online-Marketing

Lange habe ich keinen Beitrag mehr veröffentlich. OK – ich schreibe an einem größeren Projekt. Nun werde ich versuchen, regelmäßig Texte zu bloggen. Anfangen möchte ich mit dem Zielgruppen-Begriff. Dieser ist aus meiner Sicht zentral für das Online-Marketing und damit auch eine Basis für jegliches datenorientierte Arbeiten. Aus diesem Grund sollte der Begriff an sich näher untersucht werden.

Definitionen Zielgruppe aus dem Lehrbuch

Grundsätzlich ist es so, dass man seinen Aussagen – einem Text – nicht losgelöst von der Umwelt existiert. Einordnung ist notwendig. Als ich in den Index des Buchs von Jochen Becker (Marketingkonzeption 1998) schaute, entdeckte ich weder den Zielgruppen-Begriff noch den der Target Group. Ich war enttäuscht. In Manfred Bruhns Kommunikationspolitik (1997) war ich erfolgreicher. Dort ist auf Seite 3 eine Definition:

Zielgruppen der Kommunikation sind mittels des Einsatzes des kommunikationspolitischen Instrumentariums anzusprechende Adressaten (Rezipienten) der Unternehmenskommunikation.

Definitionen dieser Ausprägung sagen auch etwas über den Ersteller aus. Da ist der Begriff „Kommunikation“ zu lesen. Genauer „Zielgruppen der Kommunikation“. Wenn ein Marketing-Mann das so definiert, dann sollte es also auch noch Zielgruppen der Produktpolitik, Preispolitik und Distributionspolitik geben. Das sollte so sein, weil das Adressaten mittels des kommunikationspolitischen Instrumentariums angesprochen werden. Abgesehen davon, dass das Konstrukt der Zielgruppe natürlich – und völlig richtig – in allen genannten Bereichen des Marketings eine Rolle spielen sollte, demonstriert die Definition eine Einstellung, die im Online-Marketing nicht vorherrschen sollte. Adressaten werden „angesprochen“. Die Adressaten werden auch noch als „Rezipienten“ bezeichnet. Salopp gesagt, möchte man anscheinend nur Botschaften loswerden – vielleicht auch überzeugen – mit Kunden reden wohl nicht.

Wenn ich mich recht erinnere, war das in den 80er und 90er Jahren tatsächlich die herrschende Einstellung. Mangels Rückkanal und in voller Breite messbarer öffentlicher Konsumenten-Kommunikation verwundert es im Nachhinein nicht mehr so stark. Das Internet, der verbreiterte Rückkanal und die erweiterten Möglichkeiten der öffentlichen oder halböffentlichen Kommunikation haben die Marketing-Umwelt diesbezüglich gravierend verändert. Online-Marketer sind sich des Rückkanals sowie Social Media & Co. sehr wohl bewusst. Die Definition sollte erweitert werden. Ich muss gestehen, dass ich hinsichtlich der Definition von Becker unsicher war. Das Buch in meinem Regal ist schließlich eine Auflage von 1997. Deshalb habe ich eine jüngere Kollegin gebeten in ihrem Bücherschrank nachzusehen. Christian Homburg (2012, S. 171) formuliert die Definition in seinem Lehrbuch ähnlich salopp, wie ich hier weitgehend formuliere:

Angestrebte Zielgruppe: Um den späteren Markterfolg des Produktkonzepts vorzubereiten, sollte festgelegt werden, wer als zukünftiger Käufer eines Produkts in Frage kommt.

Diese Definition findet sich in einem Kapitel zum Innovationsmanagement. Im Kapitel zum Instrumentalbereich „Kommunikationspolitik“ wird beschrieben, wie die Charakterisierung einer Zielgruppe operationalisiert wird. Homburg (2012, S. 216) nennt die üblichen Dimensionen:

  • demographische Kriterien
  • sozioökonomische Kriterien
  • allgemeine Persönlichkeitsmerkmale
  • Nutzenkriterien
  • kaufverhaltensbezogene Kriterien

Homburg formuliert hier etwas vorsichtiger und schreibt „bei wem soll etwas erreicht werden?“ Genau das ist richtig. Es soll etwas erreicht werden. Was erreicht werden soll, ist nicht zwingend ein Kauf. Vielleicht ist es lediglich die öffentliche Aussage über ein Produkt, Bekanntheit, Einstellungen etc.

Manfred Kirchgeorg ist bei der Definition der Zielgruppe im Gabler Wirtschaftslexikon viel formaler. Er schreibt explizit von „Adressaten“ und „Ansprache“. Vielleicht ist es der Kommunikationswissenschaftler in mir, der diese einseitigen Definitionen in der Tradition der Lasswell-Formel „Who says what in which channel to whom with what effect?“(1948) für unvollständig hält. In diesem Satz werden die verschiedenen Ansatzpunkte zur Analyse genannt. Diese werden auch noch immer forscherisch bearbeitet. Das große Dilemma des Satzes ist allerdings, dass es ein Satz ist und dieser mit „with what effect“ endet. Genau dieses Ende, der „Effekt“ kann zwar auch bedeuten, dass in einen Dialog einzutreten ist – aber eben nur implizit. Diese Tatsache wurde gerade im Marketing lange nur unzureichend berücksichtigt.

Im Online-Marketing ist die Lage etwas anders. Online ist Kommunikation gegeben und auffällig. Sicher – es ist nicht nur Kommunikation – auch wenn die Kommunikation notwendige Bedingung ist. Es gibt auch viele Aspekte der Distributions- sowie der Preispolitik. Vielleicht ist die größte Veränderung hinsichtlich der Zielgruppendefinition in hinsichtlich der Produktpolitik vorhanden.

Zielgruppen wurden und werden immer noch definiert, um abzuschätzen, welche Potenziale ein Produkt oder Unternehmen hat. Das wurde in der Definition von Homburg deutlich. Es muss antizipiert werden, wie hoch das Käuferpotenzial für dieselben ist und mit welchem Aufwand diese erreicht werden können. Hierbei hat das Internet zu merklichen Veränderungen geführt: Kleine Zielgruppen sind mitunter höchst effizient ansprechbar und die Produkte können über die mittlerweile entwickelten Logistiksysteme in Rekordzeit zu Konsumenten gebracht werden.

Definition Zielgruppe für das Online-Marketing

Die Definition der Zielgruppe sollte also auch für das Online-Marketing das gesamte Marketing-Instrumentarium betreffen. Natürlich sollte der Rückkanal berücksichtigt werden.

Zielgruppen im Online-Marketing sind Menschen oder Maschinen mit denen mittels Internet kommuniziert werden soll, um Marketing-Ziele umzusetzen und final gewünschte Handlungen zu erreichen.

Diese Definition ist prinzipiell dicht an die Definitionen in der Literatur angelehnt. Allerdings würde ich grundsätzlich im Plural formulieren, da ich nicht davon ausgehe, die gewünschte Handlung – wohl meist ein Kauf – direkt nur durch Kommunikation mit ebendiesem Personenkreis zu erreichen. Einen solchen Personenkreis kann man beispielsweise wie folgt beschreiben: Männer und Frauen zwischen 25 und 35 Jahren, die sich in Baden-Württemberg und Bayern aufhalten und mindestens einmal im Monat mehr als zehn Kilometer wandern.

Zielgruppen-Auswahl bei LinkedIn
Zielgruppen-Auswahl bei LinkedIn

Nur indem auf Facebook, Google oder an einer anderen Stelle die „Zielgruppe“ angeklickt und damit ausgewählt und Werbung gebucht wird, kann weder ein Kleidungsstück noch ein Rucksack oder ein Ticket für den Nahverkehr verkauft werden.  Nur weil das bei LinkedIn übersichtlicher ist (Abbildung) auch nicht. Die Kommunikation mit weiteren Personen oder Organisationen ist notwendig. Wenn es um Bekleidung geht, muss diese beispielsweise auch in den stationären Handel und in der Online-Handel gelangen. Häufig sind es tatsächlich eine ganze Reihe von Zielgruppen, die bestimmt und mit denen kommuniziert werden muss. In der Online-Welt sind dies teilweise auch Maschinen. Von Käufern spreche ich auch ausgesprochen ungern. Das Ziel von Marketing-Maßnahmen ist eben nicht immer ein Kauf. Gerade im Online-Marketing ist das Ziel sehr häufig auch Kommunikation oder eine andere Art von Handlung. Diese etwas allgemeinere Formulierung halte ich für günstiger. Selbst final muss es kein Kauf sein – auch nicht online. Denken Sie beispielsweise an das Marketing von Öffentlichen Einrichtungen oder den Bereich Personalmarketing. Wenn aus der Personalabteilung heraus Ingenieure erreicht werden müssen, dann ist das Ziel meist die Unterschrift eines Arbeitsvertrags.