Analytics Summit Recap

Zusammenfassung aller Vorträge von der letzten Konferenz

english Beginner News and Updates

Oded Perry Google

In seiner inspirierenden Keynote gab Oded Perry von Google einen Einblick, wie die Zukunft der digitalen Analyse aussieht und wie nah Marketing Experten schon heute dieser Zukunft sind. Dazu zeigte er wie Google’s Self-Driving Cars ihre Umgebung analysieren und jede Millisekunde Tausende von Entscheidungen getroffen werden. So sieht Oded auch die Zukunft der digitalen Analyse. Denn “The challenge is not data anymore. It’s what to do with all that data.” Das Arbeiten mit Daten will Google mit Hilfe der Google Analytics 360 Suite vereinfachen und es vor allem ermöglichen, diese abteilungsübergreifend zu teilen. In einer beeindruckenden Live Demo der Suite zeigte Ilona van den Bildt dann, wie es nun möglich ist Google Analytics Segmente mit dem Audience 360 Tool zu teilen, daraufhin deren perfekten Ansprache-Kanal mittels Attribution 360 zu finden und abschließend die Resultate in Data Studio mit allen Stakeholdern verständlich zu teilen.

english Beginner Google Analytics

Marc Roulet mobile.de

Marc Roulet nahm die Besucher des Summits mit auf eine Reise durch die Arbeit mit Google Analytics – vom Basiswissen bis zu den Advanced Insights. Marc Roulet zitierte zu diesem Thema Miles Davis „Don’t play what’s there, play what’s not there“. Als ersten Basisschritt sollte man sich zum einen die Daten in Google Analytics ansehen: Die Bounce Rate und die Entwicklung des Traffics sind dabei die ersten Anlaufpunkte einer Analyse. Wichtig hierbei ist zu prüfen, ob die Daten das erwartete Verhalten für das individuelle Business widerspiegeln. Zum anderen hebt Marc Roulet hervor, dass einige Einstellungen in Google Analytics die Datenqualität positiv beeinflussen können. Hierzu zählen unter anderem Zieldefinitionen, interne Verweisausschlusslisten, Bot-Filter und Content Grouping. Darüber hinaus gibt es Möglichkeiten, das Google Analytics Setup mit weiteren Konfigurationen anzupassen, um das Maximum an Informationen zu einem Business zu erhalten. Das sind dann Anpassungen bezüglich benutzerdefinierten Channel Groupings, Custom Tables, Custom Segments und einer durchdachten Event-Struktur. „Have fun with the data“ sagte Marc Roulet und meinte damit die Nutzung von benutzerdefinierten Funnels, Segmenten für Personas und benutzerdefinierten Dimensionen. Das nächste Level der Datennutzung ist sodann, Reports zu automatisieren und die API für weitere Analysetools wie R oder Tableau zu nutzen. Abschließend hob er insbesondere hervor, dass das Teilen des Wissens enorm wichtig ist. Denn das schafft wiederum Flexibilität im Unternehmen.

german Advanced BigQuery

Michael Böhme Zalando

Michael Böhme zeigte in seinem Vortrag die Arbeit von Zalando mit BigQuery auf. Hierbei ging er zunächst auf die Basics von BigQuery ein und erläuterte in diesem Zuge, dass über BigQuery die Rohdaten von Google Analytics jeden Tag bereitgestellt werden. Zudem zeigte Michael Böhme einige Use Cases aus der Praxis. So ermittelt Zalando mittels BigQuery beispielsweise den „Time to Value“ von Nutzern. Als ein Beispiel für die Analyse nannte Michael Böhme das Erreichen einer Produktdetailseite. Eine valide Datenbasis ist für die Analysen eine Grundvoraussetzung. Deshalb beschäftigt sich Zalando auch damit sehr intensiv. So verglich Zalando zum Beispiel die Google Analytics Transaktionen in BigQuery mit den gestreamten Daten in BigQuery und den Backend Bestellungen im Data Warehouse. Die Vision für 2017 sei es nun, das Produkt Management in den Vordergrund zu rücken und den „Merchandiser’s dream“, das heißt den erwarteten Uplift von Brand Platzierungen zu kalkulieren.

german Intermediate Ecommerce

Florian Stein Dress for Less

Michael Böhme zeigte in seinem Vortrag die Arbeit von Zalando mit BigQuery auf. Hierbei ging er zunächst auf die Basics von BigQuery ein und erläuterte in diesem Zuge, dass über BigQuery die Rohdaten von Google Analytics jeden Tag bereitgestellt werden. Zudem zeigte Michael Böhme einige Use Cases aus der Praxis. So ermittelt Zalando mittels BigQuery beispielsweise den „Time to Value“ von Nutzern. Als ein Beispiel für die Analyse nannte Michael Böhme das Erreichen einer Produktdetailseite. Eine valide Datenbasis ist für die Analysen eine Grundvoraussetzung. Deshalb beschäftigt sich Zalando auch damit sehr intensiv. So verglich Zalando zum Beispiel die Google Analytics Transaktionen in BigQuery mit den gestreamten Daten in BigQuery und den Backend Bestellungen im Data Warehouse. Die Vision für 2017 sei es nun, das Produkt Management in den Vordergrund zu rücken und den „Merchandiser’s dream“, das heißt den erwarteten Uplift von Brand Platzierungen zu kalkulieren.

german Advanced Attribution

Alexander Bellin AboutYou

Alexander Bellin spannte in seiner Präsentation einen schönen Bogen zwischen den Basis Themen der Attribution und der Operationalisierung innerhalb der Firma About You. Ein wichtiger Bestandteil der Basis Themen einer Attribution ist nicht nur die Analyse nach Marketingkanälen, da dieser Ansatz zu strategisch ist. Viel wichtiger ist eine granular definierte Attribution von Marketingkanälen.
Vom Start bis zur Operationalisierung waren drei wichtige Fragen entscheidend:

  • Wie wollen wir mit Attribution umgehen?
  • Wo liegen die Daten?
  • Haben die Daten bereits das richtige Format?

Besonders die Fragestellung des richtigen Datenformats hatte zu einem großen Shopaufwand geführt. Daten mussten zunächst technisch gerade gezogen, Redirects nachgebessert, Datenimport aufgesetzt werden u. v. m. damit auch Google Analytics als Datawarehouse mit allen Informationen richtig genutzt werden konnte.
Mit Hilfe von Google Analytics 360 und dem darin enthaltenen Attributionsmodell konnten bereits wichtige Informationen gewonnen werden. Beispielsweise konnte der inkrementelle Wert von Gutscheinportalen besser ermittelt werden, da sich diese sehr stark unterscheiden und somit auch unterschiedlich auf das Attributionsmodell Einfluss nehmen können. Ein weiterer Gewinn war die Erkenntnis, dass attribuierte Werte aus einem Attributionsmodell wieder zurück in Google Analytics eingespielt werden müssten, da diese Maßnahmen die Kosten-Umsatz-Relation senkt.
Durch diese und weitere Erkenntnisse wurde das Thema Attribution 2.0 ins Leben gerufen. Zur Messung und Bewertung aller relevanten Marketingkampagnen, wurden die Themen Offline-Kampagnen, App-Kontakte, Realtime-Ping bei TV-Kampagnen, Customer Lifetime Value, Retouren auch auf Basis von Kampagnendaten in einem neu erstellten Datawarehouse eingespielt, um ein, auf About You abgestimmtes, regelbasiertes Attributionsmodell zu erstellen. Zusammenfassend konnte für About You ein individuelles Attributionsmodell erstellt werden, dass jetzt noch weiter durch den Einsatz der User-ID optimiert werden soll.

german Beginner Legal

Dr. Frank Eickmeier Unverzagt von Have

Alexander Bellin spannte in seiner Präsentation einen schönen Bogen zwischen den Basis Themen der Attribution und der Operationalisierung innerhalb der Firma About You. Ein wichtiger Bestandteil der Basis Themen einer Attribution ist nicht nur die Analyse nach Marketingkanälen, da dieser Ansatz zu strategisch ist. Viel wichtiger ist eine granular definierte Attribution von Marketingkanälen.
Vom Start bis zur Operationalisierung waren drei wichtige Fragen entscheidend:

  • Wie wollen wir mit Attribution umgehen?
  • Wo liegen die Daten?
  • Haben die Daten bereits das richtige Format?

Besonders die Fragestellung des richtigen Datenformats hatte zu einem großen Shopaufwand geführt. Daten mussten zunächst technisch gerade gezogen, Redirects nachgebessert, Datenimport aufgesetzt werden u. v. m. damit auch Google Analytics als Datawarehouse mit allen Informationen richtig genutzt werden konnte.
Mit Hilfe von Google Analytics 360 und dem darin enthaltenen Attributionsmodell konnten bereits wichtige Informationen gewonnen werden. Beispielsweise konnte der inkrementelle Wert von Gutscheinportalen besser ermittelt werden, da sich diese sehr stark unterscheiden und somit auch unterschiedlich auf das Attributionsmodell Einfluss nehmen können. Ein weiterer Gewinn war die Erkenntnis, dass attribuierte Werte aus einem Attributionsmodell wieder zurück in Google Analytics eingespielt werden müssten, da diese Maßnahmen die Kosten-Umsatz-Relation senkt.
Durch diese und weitere Erkenntnisse wurde das Thema Attribution 2.0 ins Leben gerufen. Zur Messung und Bewertung aller relevanten Marketingkampagnen, wurden die Themen Offline-Kampagnen, App-Kontakte, Realtime-Ping bei TV-Kampagnen, Customer Lifetime Value, Retouren auch auf Basis von Kampagnendaten in einem neu erstellten Datawarehouse eingespielt, um ein, auf About You abgestimmtes, regelbasiertes Attributionsmodell zu erstellen. Zusammenfassend konnte für About You ein individuelles Attributionsmodell erstellt werden, dass jetzt noch weiter durch den Einsatz der User-ID optimiert werden soll.

german Intermediate Attribution

Dr. Pascal Volz Air Berlin

Dr. Pascal Volz, Vice President E-Commerce & Online Sales bei Air Berlin beschreibt die Grenzen von Google Analytics mit Blick auf die Attributionsmodellierung und bietet gleichzeitig eine praktikable alternative Berechnungsmethode.
Zunächst beschreibt Dr. Volz die Relevanz der Attribution sowie die Möglichkeiten, die Google Analytics 360 bietet. Das datengetriebene Attributionsmodell ermöglicht die Analyse der Wirkung einzelner Kanäle – insbesondere mit Blick auf die durchschnittliche Gewichtung der Kanäle und deren Position in der Customer Journey. Neben einigen Vorteilen erläutert Dr. Volz jene Nachteile, die dazu geführt haben, dass er eine alternative Berechnungsmethode gewählt hat. Als nachteilig stellt sich heraus, dass lediglich die letzten vier Touchpoints vor einer Conversion in die Attributionsmodellierung eingehen. Darüber hinaus können weder saisonale Einflüsse, noch die Effekte von offline Marketingaktivitäten berücksichtigt werden.
Einen alternativen Lösungsweg bietet das Prinzip der multiplen Regressionsanalyse, welche Dr. Volz kurz beschreibt. Außerdem geht er auf die Mediakanäle und anderen Einflussgrößen (Saison und Klima) ein, die in der Modellierung berücksichtigt wurden. Als Ergebnis beschreibt Dr. Volz ein sehr gute Modell. Im Detail erkennt man, welche Wirkung von den signifikant einflussreichen Kanälen auf die Anzahl der Flugbuchungen ausgeht und wie sich diese Wirkung im betrachteten Zeitraum verändert hat. Außerdem konnten Informationen über die Nachwirkzeit einzelner Kanäle und über die ungefähre Position in der Customer Journey gewonnen werden. Die generierten Ergebnisse nutzte Dr. Pascal Volz für die folgende Budgetplanung.
Abschließend nennt Dr. Volz die für ihn wertvollen Erkenntnisse aus der Attributionsmodellierung und betont die Probleme, die in der Praxis auftauchen können.

german Advanced BigQuery

Ole Nass Immowelt

Dr. Pascal Volz, Vice President E-Commerce & Online Sales bei Air Berlin beschreibt die Grenzen von Google Analytics mit Blick auf die Attributionsmodellierung und bietet gleichzeitig eine praktikable alternative Berechnungsmethode.
Zunächst beschreibt Dr. Volz die Relevanz der Attribution sowie die Möglichkeiten, die Google Analytics 360 bietet. Das datengetriebene Attributionsmodell ermöglicht die Analyse der Wirkung einzelner Kanäle – insbesondere mit Blick auf die durchschnittliche Gewichtung der Kanäle und deren Position in der Customer Journey. Neben einigen Vorteilen erläutert Dr. Volz jene Nachteile, die dazu geführt haben, dass er eine alternative Berechnungsmethode gewählt hat. Als nachteilig stellt sich heraus, dass lediglich die letzten vier Touchpoints vor einer Conversion in die Attributionsmodellierung eingehen. Darüber hinaus können weder saisonale Einflüsse, noch die Effekte von offline Marketingaktivitäten berücksichtigt werden.
Einen alternativen Lösungsweg bietet das Prinzip der multiplen Regressionsanalyse, welche Dr. Volz kurz beschreibt. Außerdem geht er auf die Mediakanäle und anderen Einflussgrößen (Saison und Klima) ein, die in der Modellierung berücksichtigt wurden. Als Ergebnis beschreibt Dr. Volz ein sehr gute Modell. Im Detail erkennt man, welche Wirkung von den signifikant einflussreichen Kanälen auf die Anzahl der Flugbuchungen ausgeht und wie sich diese Wirkung im betrachteten Zeitraum verändert hat. Außerdem konnten Informationen über die Nachwirkzeit einzelner Kanäle und über die ungefähre Position in der Customer Journey gewonnen werden. Die generierten Ergebnisse nutzte Dr. Pascal Volz für die folgende Budgetplanung.
Abschließend nennt Dr. Volz die für ihn wertvollen Erkenntnisse aus der Attributionsmodellierung und betont die Probleme, die in der Praxis auftauchen können.

Die Analytics Challenge fand in diesem Jahr bereits zum zweiten Mal statt. Zu gewinnen gab es den Analytics Award sowie eine Reise nach London. Die vier Finalisten Michael, Sonja, Andi und Paulo haben sich in den Vorrunden in Köln, Hamburg, München und Berlin bereits gegenüber der harten regionalen Konkurrenz behaupten können. Im Slot nach der Mittagspause präsentierte die Crème de la Crème ihre Challenge Präsentationen nun vor großem Publikum.
Michael Janssen erklärte in seinem unterhaltsamen Vortrag, wie man idealerweise mit sog. Conversion Dieben umgehen sollte. Als zweite Vortragende folgte Sonja Schiller. Sie beschrieb, wie sie durch geschickte Fragestellungen die Macht der Analytics Community nutzte, um eine ideale Lösung für ihr Kundenprojekt zu finden. Andi Petzoldt zeigte im Detail, wie er voll automatisiert die Datenbasis von Google Analytics korrigiert – so dass er schließlich eine stark verbesserte Datenqualität vorweisen kann. Paulo Reiss Fernandes stellte dem Publikum vor, wie man die Google Analytics Daten am besten mit den eigenen Daten kombiniert. Hiermit baut er eine gute Datenbasis, um Fragen zur Customer Journey besser beantworten zu können.

german Intermediate Google Analytics

Oliver Kiderle & Oliver Borm
Google

Nach den großen Themen der letzten Jahre, wie Attribution und geräteübergreifendes Tracking mit Hilfe der User ID, stößt man doch immer mehr auf ein weiteres Kundenbewertungsmerkmal, den sog. Lifetime Value. Menschen sollen nicht nur als Klickpfade von Transaktion zu Transaktion betrachtet werden, sondern viel wichtiger sei es, sich über den Gesamtwert des Besuchers Gedanken zu machen. So war die Kernaussage der Präsentation von Oliver Kiderle & Oliver Borm, die beide bei Google arbeiten.
Das Prinzip der Möglichkeiten die Google Analytics dafür bereitstellt wurde als AIDA-Prinzip definiert und erläutert. Die Analyse des Lifetime Values kann helfen das Marketing intelligenter auszusteuern. Dies bedeutet, dass jeder Kunde aufgrund seines Kaufverhaltens unterschiedlich behandelt und angesprochen werden muss. Eine Faustregel besagt, dass 20 Prozent der Kunden 80 Prozent Ihres Umsatzes ausmachen. Doch wenn das stimmt, müsste jedes Unternehmen diese 20% der Kunden genau kennen und zielgerichtet ansprechen. Dies bedeutet, dass auch Gebote im Performancemarketing anders verteilt und ausgesteuert werden müssten. Bei der Berechnung des Lifetime Values unterscheidet Oliver Kiderle auch zwischen Geschäftsmodellen. Beispielsweise äußert sich eine Lifetime anders und komplexer, wenn das Geschäftsmodell nicht wie in der Versicherungsbranche vertragsgebunden sei. Bei Fashion-Retailern ist die Kundenbindung flexibel und hinzukommt das der Warenkorbwert bei jedem Besuch anders ausfallen kann. Dies macht die Berechnung des Lifetime Values deutlich komplexer. Alle diese Parameter die ein Geschäftsmodell beeinflussen, müssen bei der Berechnung der Lifetime berücksichtigt werden. Abschließend wurden jedoch nicht nur die Restriktionen und unterschiedlichen Messverfahren dargestellt, sondern auch ein fertiges Rechenmodell vorgestellt, dass von Unternehmen auch gleich eingesetzt werden kann.

english Intermediate Management

Dr. Markus Dirr reBuy

Dr. Markus Dirr ist CMO bei reBuy.de und verantwortet die Bereiche Performance, CRM und Marke. In seinem Vortrag stellt er sein Audit-Tool vor, welches anhand eines Kriterienkataloges „Blind Spots“ identifiziert und damit Wachstumspotentiale im Online Marketing aufdeckt.
Oftmals eignet sich der Einsatz des Tools um Distanz vom Tagesgeschäft zu gewinnen. Es geht dabei nicht nur darum, die eigenen Stärken zu dokumentieren, sondern viel mehr darum, „die richtigen Fragen“ zu stellen, um daraus Handlungsempfehlungen abzuleiten und Budgets neu zu verteilen. Das Tool auditiert dabei insgesamt drei Kernbereiche: „Traffic Acquisition“, „Conversion“ und „Retention“. Außerdem eignet sich das Tool zum Benchmarking. So stellte Dr. Markus Dirr beim Einsatz seines Tools in unterschiedlichen Unternehmen fest, dass ein Score über 60 mit hoher Marketing Effizienz und Erfolg korreliert. Wohingegen Scores unter 40 auf enorme Probleme hinweisen und man „über die Daseinsberechtigung” nachdenken sollte. Dr. Dirr stellt das Tool auf Anfrage zur Verfügung.

german Beginner App

Frank Hammerschmidt Mobility Media

Dr. Markus Dirr ist CMO bei reBuy.de und verantwortet die Bereiche Performance, CRM und Marke. In seinem Vortrag stellt er sein Audit-Tool vor, welches anhand eines Kriterienkataloges „Blind Spots“ identifiziert und damit Wachstumspotentiale im Online Marketing aufdeckt.
Oftmals eignet sich der Einsatz des Tools um Distanz vom Tagesgeschäft zu gewinnen. Es geht dabei nicht nur darum, die eigenen Stärken zu dokumentieren, sondern viel mehr darum, „die richtigen Fragen“ zu stellen, um daraus Handlungsempfehlungen abzuleiten und Budgets neu zu verteilen. Das Tool auditiert dabei insgesamt drei Kernbereiche: „Traffic Acquisition“, „Conversion“ und „Retention“. Außerdem eignet sich das Tool zum Benchmarking. So stellte Dr. Markus Dirr beim Einsatz seines Tools in unterschiedlichen Unternehmen fest, dass ein Score über 60 mit hoher Marketing Effizienz und Erfolg korreliert. Wohingegen Scores unter 40 auf enorme Probleme hinweisen und man „über die Daseinsberechtigung” nachdenken sollte. Dr. Dirr stellt das Tool auf Anfrage zur Verfügung.

german Intermediate SEO

Tobias Kräft TA Trust Agents Internet GmbH

Der Vortrag von Tobias Kräft führte mit einem Problem ein, welches im Kern die Verschlüsselung der Keywordsuche in Google Analytics thematisiert. Als Folge der Verschlüsselung war es ab Mitte 2011 nicht mehr möglich aus Analytics die Keywords der organischen Suche auszuwerten.
Tobias Kräft erläuterte drei Möglichkeiten, um sich der Problematik anzunähern: (1) Neue Workarounds in Google Analytics, (2) Nutzung anderer Tools und (3) New Approaches

  1. Eine Möglichkeit neuer Workarounds sind laut Tobias Kräft z. B. die Betrachtung der URL Landingpage. Hieraus lassen sich entsprechend, sofern die URLs sprechend ist, die gesuchten Keywords ableiten. Ein Beispiel hierfür wäre das Landen auf einer Produktseite eines bestimmten Handymodells. Bei diesem Lösungsansatz wird jedoch nicht beachtet, dass eine Eingabe des Namens von Firma und Produkt immernoch als Brand Traffic gewertet wird, dass die Daten ohnehin schon in GA vorhanden sind und dass es sich überdies nur um eine Idee des tatsächlich gesuchten Keywords handelt.
  2. Die Lösung über die Nutzung anderer Analyse-Tools führt zu Problemen, da die Suchmaschine von Google Marktführer ist und somit sehr viele Suchanfragen verloren gingen. Überdies werden mittlerweile viele der anderen Suchmaschinen ebenfalls die Suchanfragen verschlüsseln.
  3. Der dritte Lösungsansatz sieht die bewusste Erstellung von Content und Context vor, auf den die User über bestimmte Keywords gelangen sollen. Das Problem hierbei besteht allerdings darin, dass das Interesse der User nicht direkt anhand von Keywords gemessen werden kann.

Die letztendlich vorgestellte (beste) Lösung sieht eine Kombination der Daten aus Google Analytics Search Console, mit den Keyword Daten aus dem Google AdWords Tool vor. Die jeweiligen Daten werden über einen API Export gewonnen und in BigQuery kombiniert. Über die Formel – Total (Conversions per Landingpage / Total Click per Landingpage) x Total Clicks per Keyword – lassen sich dann die Conversions per Keyword ermitteln und somit auch jene Keywords, welche zu den Conversions geführt haben.
In einem letzten Schritt lassen sich die Daten über Google Data Studio sehr gut visualisieren. Mit Hilfe eines Filters können die entsprechenden Keywords betrachtet werden.

german Intermediate Custom Dimension

Till Schramm MADSACK Market Solutions

Der Vortrag von Tobias Kräft führte mit einem Problem ein, welches im Kern die Verschlüsselung der Keywordsuche in Google Analytics thematisiert. Als Folge der Verschlüsselung war es ab Mitte 2011 nicht mehr möglich aus Analytics die Keywords der organischen Suche auszuwerten.
Tobias Kräft erläuterte drei Möglichkeiten, um sich der Problematik anzunähern: (1) Neue Workarounds in Google Analytics, (2) Nutzung anderer Tools und (3) New Approaches

  1. Eine Möglichkeit neuer Workarounds sind laut Tobias Kräft z. B. die Betrachtung der URL Landingpage. Hieraus lassen sich entsprechend, sofern die URLs sprechend ist, die gesuchten Keywords ableiten. Ein Beispiel hierfür wäre das Landen auf einer Produktseite eines bestimmten Handymodells. Bei diesem Lösungsansatz wird jedoch nicht beachtet, dass eine Eingabe des Namens von Firma und Produkt immernoch als Brand Traffic gewertet wird, dass die Daten ohnehin schon in GA vorhanden sind und dass es sich überdies nur um eine Idee des tatsächlich gesuchten Keywords handelt.
  2. Die Lösung über die Nutzung anderer Analyse-Tools führt zu Problemen, da die Suchmaschine von Google Marktführer ist und somit sehr viele Suchanfragen verloren gingen. Überdies werden mittlerweile viele der anderen Suchmaschinen ebenfalls die Suchanfragen verschlüsseln.
  3. Der dritte Lösungsansatz sieht die bewusste Erstellung von Content und Context vor, auf den die User über bestimmte Keywords gelangen sollen. Das Problem hierbei besteht allerdings darin, dass das Interesse der User nicht direkt anhand von Keywords gemessen werden kann.

Die letztendlich vorgestellte (beste) Lösung sieht eine Kombination der Daten aus Google Analytics Search Console, mit den Keyword Daten aus dem Google AdWords Tool vor. Die jeweiligen Daten werden über einen API Export gewonnen und in BigQuery kombiniert. Über die Formel – Total (Conversions per Landingpage / Total Click per Landingpage) x Total Clicks per Keyword – lassen sich dann die Conversions per Keyword ermitteln und somit auch jene Keywords, welche zu den Conversions geführt haben.
In einem letzten Schritt lassen sich die Daten über Google Data Studio sehr gut visualisieren. Mit Hilfe eines Filters können die entsprechenden Keywords betrachtet werden.

german Intermediate CRM

Irina Hey OnPage.org GmbH

Irina Hey (OnPage.org) begann ihren Vortrag mit der Beschreibung anfänglicher Probleme. Zu Beginn der Geschäftstätigkeit von OnPage.org war das Reporting sehr aufwendig. Aus Zeitmangel wurden viele Entscheidungen aus dem Bauch heraus getroffen, da vor allem auch die Nutzergruppen nicht genau bekannt waren. Außerdem gab es zwei GA Properties, in die auf der einen Seite Performancedaten und auf der anderen Seite Nutzerdaten einliefen. Beide Datentöpfe waren jedoch nicht miteinander verbunden.
Die Lösung dieser Probleme sah eine Verknüpfung aller GA Daten vor und insbesondere das Einbinden von CRM Daten. So wurden Custom Dimensions angelegt, die Daten aus dem CSV Datenimport, gewonnene Daten über das Measurement Protocol oder über den einfachen Pageview, enthielten.
Für die Nutzung der CRM Daten über Custom Dimensions hat Irina Hey vier Steps definiert:

  1. Unter dem „Admin“ Reiter in GA, im Bereich „Custom Definitions“ sollten die entsprechenden benutzerdefinierten Dimensionen und Metriken angelegt werden. (Vorsicht: Nur 20 CD möglich, CDs können nicht wieder gelöscht werden, eine Umbenennung der CD Bezeichnung kann die Daten ändern). Im Idealfall sollte immer eine Test Property angelegt werden.
  2. Für das Sammeln der Daten wurden der statische dataLayer, sowie die dynamischen data.Layer.push Funktion genutzt, sodass die CRM Daten entsprechend in GA einlaufen konnten.
  3. Nach der Implementierung erstellte OnPage.org entsprechende Custom Reports, die Custom Dimensions wurden für das Remarketing genutzt, und Nutzerdaten kombiniert und entsprechend segmentiert.
  4. In einem vierten Step wurden die Custom Dimensions nun auf die verschiedensten Reports angewendet. So wurden beispielsweise Fragen beantwortet, wie, „Was wird in einem Formular genau ausgewählt?“, „Wie verhielten sich bestimmte Nutzergruppen?“, „Wie zufrieden waren Free- im Vergleich zu Paid Usern?“ usw.

Abschließend zeigte Irina Hey Möglichkeiten für weitere Custom Dimensions auf. So bieten sich zum Beispiel „Skill Level der Nutzer“ an, um die Zielgruppe zu ermitteln, die sich am meisten für ein bestimmtes Produkt der Software interessiert.

english Intermediate App

Guilherme Coelho Freeletics

Irina Hey (OnPage.org) begann ihren Vortrag mit der Beschreibung anfänglicher Probleme. Zu Beginn der Geschäftstätigkeit von OnPage.org war das Reporting sehr aufwendig. Aus Zeitmangel wurden viele Entscheidungen aus dem Bauch heraus getroffen, da vor allem auch die Nutzergruppen nicht genau bekannt waren. Außerdem gab es zwei GA Properties, in die auf der einen Seite Performancedaten und auf der anderen Seite Nutzerdaten einliefen. Beide Datentöpfe waren jedoch nicht miteinander verbunden.
Die Lösung dieser Probleme sah eine Verknüpfung aller GA Daten vor und insbesondere das Einbinden von CRM Daten. So wurden Custom Dimensions angelegt, die Daten aus dem CSV Datenimport, gewonnene Daten über das Measurement Protocol oder über den einfachen Pageview, enthielten.
Für die Nutzung der CRM Daten über Custom Dimensions hat Irina Hey vier Steps definiert:

  1. Unter dem „Admin“ Reiter in GA, im Bereich „Custom Definitions“ sollten die entsprechenden benutzerdefinierten Dimensionen und Metriken angelegt werden. (Vorsicht: Nur 20 CD möglich, CDs können nicht wieder gelöscht werden, eine Umbenennung der CD Bezeichnung kann die Daten ändern). Im Idealfall sollte immer eine Test Property angelegt werden.
  2. Für das Sammeln der Daten wurden der statische dataLayer, sowie die dynamischen data.Layer.push Funktion genutzt, sodass die CRM Daten entsprechend in GA einlaufen konnten.
  3. Nach der Implementierung erstellte OnPage.org entsprechende Custom Reports, die Custom Dimensions wurden für das Remarketing genutzt, und Nutzerdaten kombiniert und entsprechend segmentiert.
  4. In einem vierten Step wurden die Custom Dimensions nun auf die verschiedensten Reports angewendet. So wurden beispielsweise Fragen beantwortet, wie, „Was wird in einem Formular genau ausgewählt?“, „Wie verhielten sich bestimmte Nutzergruppen?“, „Wie zufrieden waren Free- im Vergleich zu Paid Usern?“ usw.

Abschließend zeigte Irina Hey Möglichkeiten für weitere Custom Dimensions auf. So bieten sich zum Beispiel „Skill Level der Nutzer“ an, um die Zielgruppe zu ermitteln, die sich am meisten für ein bestimmtes Produkt der Software interessiert.

Der Gewinner der Digital Analytics Challenge 2016 wurde dieses Jahr per App-Abstimmung gewählt. Mit großem Spannungsbogen gab Timo Aden den Gewinner Michael Janssen bekannt. Er konnte mit seiner eindrucksvollen Geschichte über die Conversion Diebe die Herzen des Publikums erobern. Unter einem nicht enden wollenden goldenen Konfetti-Regen und jeder Menge Applaus wurde der Digital Analytics Award überreicht. Das Finale der Analytics Challenge bot den idealen Übergang für die Schluss- und Dankesworte von Timo Aden, mit welchen die Summit-Teilnehmer zum Get Together bei einem Flying Buffet und Livemusik entlassen wurden.

„ Der Analytics Summit steht für Top-Speaker
und offenen Austausch unter Experten. ”

- Martin Berky - Sony Music -

„ Tolles Event - Super Organisation gepaart mit interessanten Rednern. ”

- Leo Schirmer - Project A Ventures -

„ Der Analytics Summit ist ein Pflichttermin für jeden,
der sich mit Web Analyse auseinandersetzt. ”

- Simon Ritter - Home 24 -

„ Das Konzept des Analytics Summits, in Verbindung mit
Analytics Insights Seminaren, Analytics Hack Challenge
und Analytics Award ist weltweit einzigartig! ”

- Timo Aden - Trakken -