Von Darian Heede
08. Juni 2021

Wie gelingt Datenmanagement für Werbekampagnen?

Wie gelingt Datenmanagement für Werbekampagnen?

This article has been translated. You can find the original in English here.

Daten werden oft mit Gold oder Öl verglichen, aber sie sind eher dem Wasser auf unserem Planeten ähnlich. Wasser ist zwar im Überfluss vorhanden, aber fast nie so, wie man es sich wünschen würde. Es ist meist sehr salzig oder trüb, oft stark verschmutzt und alles in allem nicht zum Trinken geeignet. In diesem Sinne hat der Besitz von Daten an sich nicht unbedingt einen Wert. Um echten Wert aus Daten zu generieren, sind eine ganze Menge Verarbeitungsschritte erforderlich. Dies gilt insbesondere für das Marketing, wo Datenquellen reichlich vorhanden und atomistisch sind.

"Die Möglichkeit, datengesteuerte Entscheidungen zu treffen, d.h. aus Daten handlungsrelevante Erkenntnisse zu gewinnen, ist ein wesentlicher Treiber für das Wachstum im digitalen Marketing."

Darian Heede
Senior Developer Data Technologies, MMT

Bei der Entwicklung neuer Kampagnenstrategien, für Reportingzwecke oder um zu verstehen, in welche Richtung sich ein Markt bewegt, nahezu jeder Bereich im digitalen Marketing wird zu einem bestimmten Zeitpunkt mit Daten in Berührung kommen. Die Möglichkeit, datengesteuerte Entscheidungen zu treffen, d.h. aus Daten handlungsrelevante Erkenntnisse zu gewinnen, ist ein wesentlicher Treiber für das Wachstum im digitalen Marketing. Daher ist die Fähigkeit, zum effizienten Datenmanagement von entscheidender Bedeutung.

Lassen Sie uns in einige Kernprinzipien eintauchen, wie Sie Ihre Daten für Ihre Werbekampagnen verwalten können:

Festlegen von Zielen und Vorgaben im Datenmanagement

Bevor mit Daten gearbeitet wird, müssen wir die Erwartungen bezüglich der Erkenntnisse, die wir generieren wollen, spezifizieren. Dies hilft, die benötigten Daten sowie die Transformationen, die mit den Daten durchgeführt werden müssen, zu definieren. Die Ziele können allgemeiner Natur sein, wie z.B. die Senkung der internen Kosten für Reporting-Aufgaben, oder eher präzise, wie z.B. herauszufinden, ob eine Zielgruppe eine bestimmte Vorliebe für Social Media-Formate hat.

Ein guter Ansatz ist es, einen bestimmten Entscheidungsprozess zu betrachten und zu analysieren, wann und warum Entscheidungen getroffen werden, ohne dass sie auf Daten basieren und ob Daten helfen könnten, diese Entscheidungen fundierter zu treffen. Alle Stakeholder, die für den Entscheidungsfindungsprozess relevant sind, müssen einbezogen werden. Dies schließt insbesondere alle Beteiligten ein, die die Daten verarbeiten und analysieren werden. Dies ermöglicht einen ganzheitlichen Ansatz bei der Festlegung der Ziele.

Da es sich bei der Werbung um ein dynamisches Umfeld handelt, ist es unerlässlich, die gesetzten Ziele regelmäßig zu überprüfen und bei Bedarf zu anzupassen.

Definition der Datenanforderungen

Basierend auf den festgelegten Zielen ist der nächste Schritt die Definition der Datenanforderungen: die Haves, Wants und Needs. Es ist möglich, dass einige Datenanforderungen bereits erfüllt werden können und nur aufgrund von Silos in der Unternehmensstruktur nicht zugänglich sind. Dies ist die beste Gelegenheit, diese Silos aufzubrechen, Datenquellen mit allen Beteiligten zu teilen und alle einzubeziehen - zum Beispiel IT, Vertrieb, Marketing und Key Accounts.

Bei der Definition der Anforderungen an eine Datenquelle müssen die folgenden Fragen beantwortet werden:

  • Sind die Daten intern oder werden sie von Dritten bereitgestellt?
  • Wie kann auf die Daten zugegriffen werden (z.B. über API, direkte Datenbankanbindung, über Flat-File-Exporte...)?
  • Welche Dimensionen und Metriken werden benötigt, um die vorgegebenen Ziele zu erfüllen?
    • Was sind die relevanten KPIs und können diese mit den gegebenen Daten berechnet werden?
  • Werden Zeitreihen benötigt?
    • Welche Häufigkeit wird benötigt?
    • Welche historischen Daten werden benötigt?
  • Welche Aggregationsstufen sind erforderlich?
    • Wie sollen die Daten transformiert werden?
  • Wird die Datenquelle mit einer anderen verknüpft und wenn ja, wie kann dies erreicht werden?
  • Gibt es irgendwelche datenspezifischen Einschränkungen, die dem Erreichen der definierten Ziele im Wege stehen?

Wie die letzte Frage andeutet, ist es sinnvoll, die definierten Ziele auf der Grundlage der Antworten auf diese Fragen zu wiederholen. Es ist immer möglich, dass externe Faktoren gut gemeinte Ziele durchkreuzen, wenn zum Beispiel eine notwendige Kennzahl in den Daten Dritter einfach nicht vorhanden ist.

Verwaltung des Data Warehouse

Datenhaltung ist teuer. Sie kann ohne Zielsetzung im Unternehmen schnell zu einer finanziellen Belastung werden, wenn sie nicht mit einer allgemeinen Strategie verknüpft ist.

Die detaillierte Umsetzung eines Data Warehouses hängt von der gegebenen Infrastruktur und der eingesetzten Technologie ab. Dennoch gibt es einige allgemeine Richtlinien:

  • Daten nur zu speichern, um sie zu haben, ohne sie zu gebrauchen oder ein bestimmtes zukünftiges Ziel zu haben, ist nicht effizient und muss gegen die Kosten abgewogen werden
  • Die Daten und die Beziehungen der Datenbankobjekte müssen transparent und konsistent sein
  • Die Datenqualität, Korrektheit und Sicherheit muss gewährleistet sein
  • Die Daten müssen für alle relevanten Stakeholder zugänglich und verständlich sein

Sicherstellung der Datenqualität

Bei komplexen Datentransformationen kann viel schief gehen, besonders wenn es um Aktualisierungen, Zusammenführungen oder Aggregationen geht. Oftmals bleiben Datenprobleme eine Zeit lang verborgen, bis ein Datenkonsument Unregelmäßigkeiten bemerkt, die er sich nicht erklären kann. Die Suche nach der Quelle solcher Probleme kann sehr mühsam und zeitaufwendig sein. Daher ist es ratsam, proaktiv zu handeln. Die Sicherstellung der Datenqualität ist vielschichtig und kein einmaliges Projekt, sondern ein kontinuierlicher Prozess, der regelmäßig verbessert werden muss.

Testing

Die wichtigste Maßnahme, die umgesetzt werden muss, ist das rigorose Testen. Dies klingt offensichtlich, kann aber schwer effizient umgesetzt werden.

Es kann hilfreich sein, das Testen von Datenquellen in zwei Teile zu unterteilen:

Allgemeine Tests:

Tests, die auf jede Datenquelle angewendet werden können und auf die Eindeutigkeit eines Feldes, Testen, ob Felder nicht null sind, Testen der Struktur einer Tabelle testen...

Datenquellenspezifische Tests: 

Testen, ob eine Zeitreihe Daten für das aktuelle Quartal enthält, Prüfen, ob IDs vorhanden sind, die als gemeinsame IDs für nachfolgende Joins verwendet werden.


Das Testen kann durch den Einsatz der richtigen Tools für diese Aufgabe erheblich vereinfacht werden. Zum Beispiel sind die Schema- und Datentestfunktionen in DBT einen Blick wert. Auch die zeitlichen Aspekte des Testens können entscheidend sein: automatisches Testen auf regelmäßiger Basis sowie bei Änderungen an den Datenquellen oder Transformationen. Testen ist der wichtigste Faktor, um das Vertrauen in die Daten zu erhöhen.

Standards und Konventionen

Eine prägnante und standardisierte Namenskonvention kann die strapazierten Nerven eines Datenbankmanagers schonen. Sie spart Zeit bei der Suche nach Objekten und macht das Datenmodell klarer, übersichtlicher und verständlicher.

Außerdem ist es hilfreich, einen standardisierten Workflow für alle ETL-Prozesse zu haben und diesen regelmäßig zu überprüfen. Dies hilft bei der Suche nach der Quelle eines Problems. Wenn der Workflow deterministisch ist, ist die Identifizierung von Fehlern viel einfacher.

Dokumentation und Versionskontrolle

Das Dokumentieren wird oft als lästig empfunden. Nämlich dann, wenn es darum geht, ein langes und detailliertes Dokument zu schreiben, das wahrscheinlich niemand jemals lesen wird. Das muss aber nicht der Fall sein. Dokumentation kann ein nützlicher Nebeneffekt eines gut implementierten Workflows sein. Der Schlüssel dazu ist die Versionskontrolle.

Die Verwendung moderner Versionskontrollsoftware wird, wenn sie richtig eingesetzt wird, die Dokumentation als Teil des Datenverwaltungsprozesses implementieren. Wenn beispielsweise Änderungen an einer Datenbank vorgenommen werden, führt dies zu einem merge request, die von jemand anderem als der Person, die den merge request erstellt hat, überprüft und genehmigt werden muss. Damit der Prüfer versteht, was der merge request beinhaltet, wird der Ersteller eine kurze Erklärung zu den implementierten Änderungen schreiben. Dies hat zwei Hauptvorteile:

  1. Jeder merge request ist für sich genommen eine Dokumentation und zeichnet in Kombination mit allen zuvor eingereichten merge requests ein klares Bild der kompletten Entwicklung eines Datenmodells.
  2. Das erzwungene Vier-Augen-Prinzip, das eine Überprüfung und Genehmigung für merge requests verlangt, hilft dabei, Probleme zu identifizieren, bevor sie in die Produktion eingeführt werden. Außerdem haben alle Beteiligten einen gemeinsamen Wissensstand, was entscheidend ist, wenn etwas schief läuft.

Daten wirksam einsetzen

An dieser Stelle kommen die umsetzbaren Erkenntnisse ins Spiel und alle vorherigen Abschnitte kommen zum Tragen. Ein sauberes und übersichtliches Datenmodell ermöglicht eine einfachere Darstellung des Geschehens und zuverlässigere Analyseergebnisse. Es ist nicht die Aufgabe von Datenanalysten und Visualisierungsexperten, zu qualifizieren und auszuwählen, sonst wäre ihre Kreativität schnell aufgebraucht oder sie müssten sich um die Datenqualität sorgen.

Beim Datenmanagement geht es um Effektivität und die Optimierung von Prozessen bis zu einem Punkt, an dem man das meiste für sein Geld bekommt. Einen deterministischen und übersichtlichen Workflow zu haben, neue Technologien zu nutzen, nicht stehen zu bleiben und die neuesten Tools und Ideen zu integrieren, wird die Effizienz steigern und es Unternehmen ermöglichen, sich auf ihre wichtigsten Geschäftsziele zu konzentrieren und ihre Datenkapazitäten voll auszuschöpfen.

Fazit

Wie beim Wasser besteht auch das Verwalten von Daten aus einer Reihe von Elementen, die ihre effiziente Nutzung ermöglichen:

  • klare Zieldefinition, wie und in welcher Form Daten genutzt werden sollen
  • kollaborativer Ansatz beim Datenzugang, um die beste Qualität der Beschaffung zu gewährleisten
  • Verantwortung über Datenauswahl und -qualität, um die notwendige Struktur und den Fluss aufzubauen
  • kreative Arbeit rund um Analyse und Visualisierung, um sie bestmöglich zu nutzen, ohne langfristig Energie zu verschwenden

Erhalten Sie viermal im Jahr die für Sie relevantesten Artikel per E-Mail.

Zum Newsletter anmelden


© Copyright | Mercury Media Technology GmbH & Co. KG