La granularité des données se réfère au niveau de détail, à la «finesse» des informations collectées et analysées. Toutes les dimensions des données sont potentiellement considérées :
Au même titre que la capacité de mise en œuvre ou que l’accélération des processus, le gain en granularité est l’un des catalyseurs de la révolution actuelle des solutions d’aide à la décision marketing. Données inaccessibles, méthodologies non adaptées, puissances de calcul insuffisantes interdisaient, il y a quelques années encore, toute avancée en la matière. Le résultat standard était réduit à des éléments trop agrégés et trop peu précis pour piloter efficacement les actions médias ou leur digitalisation. Comment peut-on encore envisager d’élaborer des stratégies voire des tactiques de communication sur une simple comparaison des ROIs « télévision » et « canaux digitaux » tous formats et plateformes regroupés à l’échelle d’un pays sur une cible très large?
Quelle que soit la technique employée - MMM, tests d’incrémentalité, expérimentations et autres utilisés seuls ou conjointement - la robustesse et l’actionnabilité des résultats reposent sur la capacité du système à traduire le « monde réel », à retranscrire le rôle de chaque type d’actions marketing auprès des consommateurs, leur contribution à la performance des marques…
Des modèles plus pertinents, plus précis. Même si cela peut apparaître paradoxal, ajouter de la granularité simplifie souvent la construction des modèles et leur précision. Plus de granularité dans les données évite de « noyer dans des valeurs moyennes » les effets, souvent peu homogènes, des actions marketing. Par exemple, évaluer l’efficacité d’une campagne en affichage digital urbain très localisée à partir des performances business « France entière » de la marque (cumulant zones affichées et non affichées) conduit immanquablement à en sous-estimer la contribution. Il en va de même pour l’efficacité des actions menées sur différentes plateformes de vidéo en ligne, trop souvent agrégées dans un total « VOL » qui en gomme les différences.
Différentes études ont montré de très sensibles gains de qualité et de stabilité des modèles apportés par une plus grande granularité. Citons notamment celles menées par Nielsen* : une analyse de 19 MMM sur des catégories produits des secteurs grande consommation et e-commerce au Japon pour laquelle les modèles ont été simultanément réalisés sur des données ventes et média à l’échelle du pays et au niveau de régions (46 préfectures). La précision des MMM y varie très significativement en fonction de la granularité des données sur lesquels ils sont construits. Quand la démarche MMM sur données nationales permettait d’identifier une contribution à des ventes incrémentales pour 16% des leviers / canaux média, cette proportion atteint 66% lorsqu’est introduite la dimension régionale.
De même, en prenant en compte les différentiels d’efficacité des actions marketing entre les différents segments clientèles de distributeurs et acteurs du commerce en ligne, fifty-five constate de sensibles gains de précision dans nos modèles. C’est la base d’une approche de modélisation agent-based* qui permet de simuler les effets des campagnes sur différents groupes de consommateurs.
Plus généralement, avoir une vision trop agrégée ne permet pas de prendre en compte des effets de mix au sein d’un média. Par exemple, sur le search, une variation du ratio entre le montant dépensé sur la marque et le montant total dépensé en search va avoir un impact fort sur les performances. Si la dimension marque et hors marque n’est pas prise en compte et que ce ratio varie significativement dans le temps, les résultats de modélisation ne refléteront en rien la réalité des consommateurs et seront peu précis, voire erronés.
Des résultats à une échelle opérationnelle. Plutôt que de rester au niveau de grands agrégats, les analystes marketing peuvent à présent comprendre comment chaque composant, chaque élément du mix marketing contribue à la performance de la marque. Qui peut aujourd’hui se contenter d’une mesure où sont cumulées toutes les campagnes et toutes les plateformes « Social media », où ne peuvent être isolés les formats vidéo… ? Comment ne pas intégrer une dimension « Enseignes » pour une analyse de l’efficacité des réseaux « Retail media » quand les actions menées y sont significativement différentes ?
En outre, cette profondeur d’analyse offre une meilleure compréhension des interactions entre les canaux marketing, mettant en lumière les synergies potentielles et les effets de levier qui peuvent être exploités pour améliorer les résultats globaux. Pour reprendre l’exemple de la campagne d’affichage digital urbain, mesurer les gains du fait de l’interaction avec une campagne TV ou une action promotionnelle dans les zones affichées apporte un éclairage directement opérationnel.
Les insights obtenus ouvrent de toute évidence à une allocation des moyens marketing plus proche des besoins opérationnels, et ce sur toutes les dimensions pertinentes (leviers marketing, zones géographiques, segments consommateurs…) quand les résultats des MMM n’offraient précédemment pas ce gros plan indispensable pour rendre les résultats activables. Ainsi, adopter la granularité dans le MMM n'est pas seulement un choix technique ou méthodologique, c'est un impératif métier.
Une projection dans le futur plus robuste et réactive. Mieux appréhender le rôle de chaque canal marketing à un niveau plus fin, refléter plus fidèlement la réalité des marchés, c’est aussi fiabiliser la prévision et la simulation des impacts de campagnes envisagées dans une démarche de scenario-planning.
L’amélioration opérationnelle porte également sur l’agilité dans la décision marketing et la capacité d’adaptation rapide aux évolutions des dynamiques du marché. En effet, en surveillant les données granulaires, les analystes marketing peuvent identifier rapidement les changements dans le comportement des consommateurs, les tendances émergentes, les défis concurrentiels ou l’évolution de la réaction des cibles à un élément média ou créatif, les performances d’une stratégie média ou d’une tactique de prise de parole.
Si l’apport de la granularité aux démarches de mesure et optimisation de l’efficacité marketing apparaît indéniable, son intégration dans les systèmes d’aide à la décision reste un projet à gérer en tant que tel.
Le premier défi est bien entendu de déterminer le niveau de granularité optimal au sein de la plateforme de données. Un écueil majeur peut être celui de la recherche d’une trop grande granularité. Un niveau de granularité plus important peut engendrer un surcoût. il convient également d’être vigilant à :
Point n’est question ici de sacrifier les fondamentaux de la curation et la collecte de l’information… aucune technique de data science ne pourra compenser une moindre pertinence des données de base !
De même, le choix des approches de modélisation et des algorithmes de traitement s’avère crucial. Il est souvent nécessaire de trouver un compromis entre la granularité des données recueillies et la complexité et performance des modèles nécessaires. Ainsi sera déterminé un niveau de détail raisonnable pour la calibration des modèles, leur exploitation, leur validation. Quoi qu’il en soit, il est à noter que les données à un niveau de détail plus fin peuvent être conservées dans la plateforme data et être objet d’études ad hoc au moyen de procédures data science spécifiques. Ainsi, dans le cas d’un acteur de la distribution, les données sont modélisées par rayon de produits pour les analyses récurrentes ; un détail plus fin (par marque au sein du rayon, par exemple) est la base d’études ad hoc lorsqu’une problématique plus poussée doit être analysée (ex. la synergie entre une communication de l’enseigne et une promotion fabricant).
L’expérience de fifty-five montre que le succès repose dans la plupart des cas sur une mise en œuvre progressive, étape par étape. Les « baby steps », qui sont pour nous à la base de tout développement de système d’aide à la décision « Efficacité Marketing »* sont encore plus incontournables dans un objectif de gains en granularité. Chaque étape donne lieu à une revue critique et une priorisation des besoins en termes d’enrichissement des plateformes de données et des algorithmes à même d’extraire et d’exploiter la connaissance quant à l’efficacité des actions marketing.
Pour un annonceur du secteur « grande consommation » aux Etats-Unis, après qu’il eut mis en œuvre une solution MMM à l’échelle du pays, la première étape a consisté en un test des gains potentiels d’une modélisation à l’échelle de zones géographiques plus fines, pour lesquelles les données de vente hebdomadaires étaient disponibles.
Après quelques semaines, l’analyse sur un échantillon de ces zones a permis :
En parallèle, la marque a pu confronter ces gains à ses expérimentations contrôlées sur des zones géographiques (GeoTests / GeoExperiments) et ses études de quasi-experiment reposant sur les données observées dans l’historique.
La deuxième étape du processus, menée en 6 semaines, a consisté en l’adaptation de la plateforme data et des modèles pour la généralisation de cette avancée dans deux dimensions : géographique et media.
Une troisième étape a permis l’enrichissement du système par prise en compte :
En conclusion, la granularité des données est cruciale pour la modélisation du mix marketing et, plus généralement, pour les outils de mesure et optimisation de l’efficacité marketing. Elle permet une meilleure précision, une plus grande opérationnalité, une robustesse des prévisions et une réactivité accrue face aux évolutions du marché. Cependant, l'atteinte d'une granularité optimale nécessite une gestion de données adaptée et un choix judicieux d'algorithmes de modélisation.
Article co-rédigé par Mathieu Lepoutre et Arnaud Parent
Discover all the latest news, articles, webinar replays and fifty-five events in our monthly newsletter, Tea O'Clock.