La mesure, grande oubliée du cookieless

Tout le monde n’est pas logé à la même enseigne lorsque l’après cookies tiers est au menu. Il y a d’abord le sujet de l’activation publicitaire, dont on a parlé jusqu’à l’indigestion ces derniers mois, via des produits comme Floc, Fledge ou Unified ID 2.0. Et puis, il y a le sujet de la mesure, qu’il s’agisse de celle de la performance d’une impression publicitaire ou du parcours de conversion d’un utilisateur. Un sujet sur lequel le marché s’est étonnement mis à la diète. Il suffit pour s’en convaincre de jeter un œil aux ordres du jour des réunions hebdomadaires consacrées par le W3C à la Privacy Sandbox. “On a dédié une ou aux deux réunions au sujet de la mesure au début et depuis plus rien. Il n’y en a que pour le look alike et le retargeting”, déplore le patron de Weborama, Alain Levy. Le GitHub associé aux deux principales fonctionnalités de mesure de la Privacy Sandbox, CTR Measurement et Agregated reporting API, atteste aussi de ce manque d’intérêt. “Il n’a pas été mis à jour depuis septembre”, remarque Alain Levy.

Ce n’est pas une surprise à en croire Hugues Templier, head of data Europe continentale et MENA chez Teads. “Nos clients sont beaucoup plus nombreux à faire du ciblage et de l’activation que de la mesure avancée. Et ils se sentent d’autant moins concernés que la mesure dite standard, liée au média, n’est pas disruptée.” Certes, les données dites “ad centric” (nombre d’impressions et de clics, taux de visibilité et de complétion et même brand safety) vont survivre à la disparition des cookies tiers, ce qui devrait donner aux acheteurs une bonne visibilité sur l’efficacité de leurs campagnes branding. Mais ils ne pourront plus maîtriser la pression publicitaire (frequency capping) pour s’assurer de ne pas trop solliciter un même internaute. Ce sera encore plus compliqué pour ceux qui initient des campagnes dites à la performance.

Ce qui n’est pas mesuré n’existe pas

Exit la mesure dite “post view” qui consiste à définir une fenêtre de plusieurs jours durant laquelle on estime que si l’internaute exposé à la publicité a réalisé une action de conversion (visite sur site, mise en panier…) alors la publicité a bien eu un effet. C’était pratique pour déterminer l’impact des bannières display qui n’ont pas généré de clic (c’est le cas de 99% d’entre elles). Mais c’est impossible à mettre en place sans le cookie tiers pour faire le lien entre une conversion et une exposition publicitaire. Le “post clic” n’en ressortira, lui non plus, pas indemne. “On sera capable de dire que tel site a généré tant de clics mais c’est tout”, prévient Edouard Letort, directeur général adjoint de Gravity. Et c’est peu quand on sait qu’aujourd’hui les annonceurs sont capables de rattacher un clic à un profil d’utilisateur et à un parcours entre plusieurs sites pour aiguiller leur stratégie d’investissement en conséquence.

“Une grande partie de l’optimisation des campagnes est fondée sur l’historique de navigation des utilisateurs”

Ce désintérêt est problématique car, comme le rappelle Alain Levy, “sur le Web, ce qui n’est pas mesuré n’existe pas”. Et que, sans cookies tiers, c’est tout l’open Web qui risque de se retrouver dans le noir. Le danger, c’est que les annonceurs se tournent vers les environnements où la lumière reste allumée : les walled gardens. Pas idéal alors que ces derniers concentrent déjà l’essentiel des investissements. D’autant que la mesure de la performance publicitaire a d’autres vertus que de donner à l’acheteur, en fin de campagne, une bonne photographie de ses investissements. Elle permet également de nourrir les algorithmes de ses outils d’achats qui optimisent, au jour le jour, la diffusion de ladite campagne. “Une grande partie de l’optimisation des campagnes est fondée sur l’historique de navigation des utilisateurs”, rappelle Hugues Templier.

Le marché n’est pas avancé

Le dérèglement de la plupart des campagnes in-app, dont les performances ont pâti du remplacement des outils de mesure classique par l’outil d’attribution d’Apple, le SKAdNetwork, qui est bien moins exhaustif et réactif, le démontre. Sans données de conversion pour les nourrir correctement (feedback loop), les outils d’achat marchent à l’envers. La mise en place d’une mesure performante est donc autant un sujet d’attribution que d’activation, contrairement à ce que pourraient penser les acheteurs mentionnés plus haut par Hugues Templier. “Le cookie tiers avait permis de mettre en place un système ouvert et équitable pour tout le monde, en octroyant aux acheteurs une vision homogène de l’efficacité de leurs campagnes”, rappelle Emmanuelle Soin, CEO d’Omnicom Media Group France. Lui trouver une alternative relève donc de la nécessité absolue pour l’Open Web… comme pour les acheteurs.

Le problème, c’est que le marché n’est guère avancé. Quelques pistes ont bien été évoquées… mais leurs lacunes sont telles qu’on pourrait les balayer d’un revers de la main. Il y a d’abord l’identifiant partagé qui, lorsqu’il est déterministe et cross-site, ferait un substitut presque parfait au cookie tiers. A ceci près qu’il ne devrait pas permettre d’obtenir le même reach. Difficile d’imaginer des initiatives qui, comme Unified ID 2.0 revendiquent quelques dizaines, voire centaines de millions d’ID dans le monde, peser suffisamment pour tout traquer. Les analystes s’accordent à dire qu’on aura du mal à dépasser un jour les 20% du trafic Web logué. La méthode ne peut donc se suffire à elle-même. Médiamétrie, dont la contre-mesure DAR permet aux acheteurs de vérifier leur taux de couverture sur cible, en a conscience. L’institut, qui veut s’appuyer sur un Nielsen ID comme substitut aux cookies tiers, prévoit déjà de compléter ce dernier avec des panels et des enquêtes.

Sans cookies tiers, on ne pourra plus dire qui a été exposé

Panels et enquêtes post-test sont justement des pratiques mises en avant quand il s’agit d’évoquer le sujet de la mesure 3d party cookieless. “Le panel est un outil qui est déjà très répandu pour mesurer l’évolution d’items de marque comme la notoriété et la considération”, rappelle Emmanuelle Soin. On interroge, après la campagne, un échantillon exposé et un autre qui ne l’a pas été. Le problème, c’est que, sans cookies tiers, on ne pourra plus dire avec certitude qui a été exposé et qui ne l’a pas été. Il faudra se reposer sur les dires des sondés et espérer que, parmi ceux qui disent ne pas avoir été exposés, certains n’ont pas la mémoire défaillante. Le déclaratif est ainsi fait qu’il est sujet aux biais et aux inexactitudes. Il ne permet pas, non plus, d’agir en temps réel. Les panels se font plutôt de manière mensuelle.

C’est vrai aussi pour l’économétrie, qui permet aux agences de concevoir des modèles qui établissent la contribution de chacune de leurs actions marketing en s’appuyant sur l’historique des données dont ils disposent. “Ça peut être le fait de mettre en perspective les campagnes publicitaires de ces trois dernières années avec l’évolution des parts de marché de la marque, de la météo, des décisions politiques…”, illustre Emmanuelle Soin. Un modèle qui a l’avantage d’aller au-delà de la simple efficacité publicitaire mais qui est coûteux (au moins 50 000 euros), beaucoup moins granulaire que la mesure cookie based et très lourd à mettre en place. “On le fait deux fois par an avec l’annonceur en moyenne”, reconnait Emmanuelle Soin. Un temps (trop) long qui le rend incompatible avec tout ce qui touche à l’optimisation des campagnes publicitaires.

“Les données de Privacy Sandbox sont agrégées et envoyées selon son bon vouloir. Cela ne se fera clairement pas en temps réel”

Pour trouver des solutions crédibles, c’est sans doute du côté des navigateurs, seuls acteurs à avoir une vision cross-sites, qu’il faudra regarder. Qu’il s’agisse de Privacy Sandbox sur Chrome ou de Private Clic Measurement sur Safari, les navigateurs sont à pied d’œuvre pour proposer au marché des outils de mesure qui tiennent la route. Le problème, c’est que leurs exigences en matière de la protection de la vie privée des utilisateurs sont telles que ces outils s’accompagnent, eux aussi, de nombreuses limites. “Non seulement les données sont agrégées, mais en plus elles sont envoyées selon le bon vouloir de ces API et cela ne se fera clairement pas en temps réel”, déplore Alain Levy. Les deux outils instaurent ainsi un délai d’au moins 24 heures entre la réalisation d’un événement de conversion et la remontée de l’information aux acheteurs, pour éviter tout risque de matching. “On s’attend à devoir attendre au moins 48 heures, confirme Hugues Templier. Il va donc falloir trouver le moyen d’être performant durant ce laps de temps.”

Les algorithmes de bidding des DSP vont donc devoir trouver des parades. Et notamment s’appuyer sur toutes les informations encore disponibles via la bid stream (le site, l’emplacement, le device, la version du navigateur…). “On ne traque plus des éléments de conversions associés à des utilisateurs mais à des contextes”, explique Edouard Letort. C’est, par exemple, observer qu’une connexion effectuée avec un iPhone équipé d’IOS 14.5 en Wifi sur un site A génère un nombre de clics supérieur à la moyenne. Gravity, qui passe par le DSP de Xandr, pour opérer ses achats médias, s’essaie à cette nouvelle méthode d’optimisation. “Les acheteurs les plus matures déploient des algorithmes de machine learning qui peuvent travailler sur 68 paramètres dont la majorité n’est pas liée à des données personnelles”, illustre Paul-Antoine Strullu,  directeur général France et Europe du Sud de Xandr.

Cela implique d’être bien outillé en ressources data science pour faire fonctionner ces systèmes en production mais c’est faisable. Xandr propose, pour les autres, une API dite Programmable Splits, qui permet, elle, d’automatiser des campagnes sur des paramètres contextuels. “Il y a une vraie opportunité pour une couche d’intelligence qui sort un peu des logiques d’optimisation user centric que le retargeting et l’audience planning ont démocratisées”, estime Paul-Antoine Strullu. Dominique Latourelle, product innovation manager chez iProspect, n’est pas forcément convaincu. “Le juge de paix, ça reste le business généré par les annonceurs. Ces derniers ne peuvent se contenter d’optimisation selon des contextes propices au clic.”

Homogénéiser les données hétérogènes

L’expert incite à regarder du côté de l’applicatif pour voir ce qui attend le Web. “On se dirige vers une mesure hyper hétérogène et un parcours de conversions très compliqué à dédupliquer.” Sur l’in-app, on a ainsi une mesure granulaire, user-based et temps réel pour les audiences Android et celles d’IOS qui ont consenti au tracking. Et de l’autre, des données agrégées remontées avec un peu de décalage par le SKAdNetwork, pour toutes celles qui ont refusé l’utilisation de leur IDFA. Il en sera de même pour le Web, avec d’un côté les audiences des walled gardens et des environnements logués. Et de l’autre, le reste du Web, qui n’aura pas d’autre option que de confier son sort entre les mains de Privacy Sandbox (sous réserve que ce dernier devienne compatible avec la règlementation européenne, ce qui n’est pas le cas pour le moment). Entre les deux, des spécialistes de la mesure, chargés d’homogénéiser comme ils le peuvent ces données hétérogènes. “Il n’y aura sans doute pas de solution miracle mais plusieurs outils que l’on devra réconcilier”, tranche Hugues Templier. Ce sera lourd à mettre en place… et coûteux. “Les annonceurs et les éditeurs vont devoir faire des choix dans la dizaine de technologies qu’ils vont devoir implanter pour pouvoir tout traquer”, prévient Nicolas Corrochano y Anton, GM France de Programmads.

“On va devoir composer avec moins de données déterministes et plus d’extrapolation”

“On va devoir composer avec moins de données déterministes et plus d’extrapolation”, ajoute Emmanuelle Soin. La plupart des agences investissent en data science en prévision de cette échéance, pour préparer une époque où il leur faudra retravailler des batchs de données avec des modèles spécifiques. Il va peut-être aussi leur falloir accepter de ne plus tout savoir… et se dire que certaines campagnes, dont les volumes de conversion baissent, ne sont pas forcément moins efficaces, mais plus difficiles à traquer. “Il faut être réaliste et se dire qu’on a connu un âge d’or qui est sur le point de se terminer”, prévient Alain Levy. Et de rappeler que les acheteurs ne sont déjà plus capables de réconcilier l’univers open Web avec celui de Youtube, depuis que Google y a interdit les pixels tiers. “On est déjà dans un gruyère dont on essaie tant bien que mal de combler les trous mais c’est en vain car ces derniers ne vont faire que s’agrandir.”

Cet article est également publié dans Adtech News, supplément papier du magazine CB News, dédié à l’adtech et au martech. Dans l’édition de juin, un dossier sur le chantier de la mesure cookieless, une interview de L’Oréal France , une analyse des curated marketplaces, un focus sur la start-up Adalong et le baromètre du programmatique

The post La mesure, grande oubliée du cookieless first appeared on ProcuRSS.eu.

Menu