#3 Disparition des cookies… un cataclysme en perspective? Troisième partie : Quelles solutions pouvons-nous envisager ?
Face à tous ces changements, il est évident que le bon sens va titiller notre sagesse afin de trouver une ou plusieurs réponses à cette question : « comment puis-je me préparer à la disparition des cookies tiers ? »
Vous me permettrez, une fois encore, un petit « spoiler alert » : personne, aujourd’hui, n’a la réponse exacte à cette question. Simplement parce que plusieurs solutions sont déjà évoquées mais qu’aucune n’est encore sortie du lot. Certains diront parce que Google n’a pas encore complètement tranché…
Nous allons donc parcourir ensemble les solutions (que j’appellerai génériques) qui se sont présentées à nous lors de nos échanges et recherches d’informations. Je vous propose ici d’observer deux catégories de solutions ou, si l’on veut être plus précis finalement, de pistes : celles dites technologiques et celles dites stratégiques ou de méthodologie.
La technique à la rescousse!
Débutons par la partie technologique. D’emblée, je souligne l’objectif ici d’aborder dans les grandes lignes le fonctionnement de ces technologies. Les puristes techniques m’excuseront mais le but de cette partie n’est pas d’être techniquement exhaustif mais de comprendre l’approche et ce qu’elle permet ou pas. Commençons donc avec peut-être l’une des pistes les plus pérennes actuellement : le « server to server ». L’idée de base est simple : « comment continuer à faire ce qu’on faisait avec les cookies tiers mais sans les cookies tiers ». Plus précisément, l’idée est de trouver un moyen de faire communiquer les serveurs entre eux. Si vous avez bien lu les exemples de la partie 1, vous savez qu’un cookie sert en fait de relais entre le site d’un annonceur A et celui d’un partenaire media B, par exemple. Notamment, pour récupérer l’audience de A et l’utiliser dans B. J’avais précisé que le cookie permettait de connecter deux écosystèmes entre eux. Ici l’idée est strictement la même mais sans cookie, on va devoir procéder autrement. On va donc lier le serveur de l’annonceur A avec le serveur du partenaire média B, ce qui revient à lier les écosystèmes. Rapide détour côté technique : le principe est d’utiliser une API (pour Application Protocol Transfert) qui, pour l’expliquer simplement, permet de faire en sorte que deux machines (ici, nos serveurs) puissent se parler et se comprendre. Comprenez par-là, s’échanger des données. Je retrouve donc des informations comme l’OTS, le capping ou la conversion. Retournons nous quelques instants pour voir ce que cela donne niveau expérience utilisateur. En fait, dans l’absolu, ça ne change pas grand-chose pour ce dernier si ce n’est qu’on a va toujours, bien entendu, lui demander son consentement pour que la connexion soit valide (comme pour les cookie policy banners des sites actuellement).
La grande désillusion technique?
Donc on a déjà trouvé une solution me direz-vous ? Pourquoi tant de panique et autant d’articles sur le sujet ? Evidemment, vous l’avez senti tout n’est pas parfait. Une telle connexion relie deux entités mais ne suit pas le surfeur de façon plus ou moins dynamique durant son utilisation du web comme le cookie tiers le permet. C’est-à-dire que le lien créé en server to server est fermé. Le chemin que je dessine entre mon annonceur A et le partenaire média B est donc connu d’eux seuls et exploitable par eux seuls. D’accord mais où est le problème pour autant ? Ce faisant, nous créons des environnements clos, ce qu’on appelle des « walled garden ». Imaginons que l’annonceur A procède de la sorte avec deux partenaires médias différents, B et C. La connexion avec B n’est pas croisée avec C et donc on peut oublier des notions comme la duplication. Concrètement, un surfeur qui, d’aventure, visite un support du partenaire A et un autre mais du partenaire B active un lien avec les deux au travers du server to server réalisé avec chacun. Alors que notre surfeur décide de réaliser une action spécifique sur le site de l’annonceur correspondant à une conversion, cette précieuse information est remontée indépendamment vers chacun des partenaires qui enregistreront chacun une conversion. Vous aurez donc deux conversions pour une seule effective.
Potentiellement, plusieurs acteurs du monde de la publicité digitale mettront certainement en avant les avantages de travailler avec eux plutôt qu’un autre, ou autrement dit de profiter de leur écosystème plus large que celui des autres. Bien entendu, rien ne nous empêchera de travailler avec plusieurs partenaires avec cette approche mais il faudra tenir compte de ces biais. La question est d’autant plus importante pour un pays comme le nôtre, la Belgique, où les budgets ne sont pas aussi importants qu’en France, Allemagne, UK, … que pour se permettre de morceler encore et encore ce dernier pour cumuler des tests.
Google dans tout ça, il prépare quoi?
Profitons de ce point pour parler de Google. Etant un acteur important dans ces changements (cfr partie 1), Google a mis en place une structure technologique ouverte, un cadre pour que chacun puisse rechercher et développer des solutions. C’est la fameuse « privacy sandbox ». Sur cette base, Google a proposé différentes méthodes de ciblage et de mesure des annonces publicitaires. De là est né par exemple le fameux FLoC dont on entend beaucoup parler dernièrement.
Le FLoC a pour but de catégoriser les utilisateurs online selon des groupes basés sur des comportements de navigation similaires. Un "identifiant de cohorte" est alors partagé au travers du navigateur avec les sites Web afin de cibler les utilisateurs avec des messages publicitaires en phase avec leurs groupes ou plutôt leurs cohortes. En « noyant » l’utilisateur dans la cohorte, dans la foule, ceci permet de maintenir privée l'historique de navigation. De ce fait, le profilage individualisé n’est plus possible. Les données collectées via le navigateur ne sont jamais partagées et reste localement sur l’appareil. A priori, une belle démarche donc qui n’a plus besoin des cookies tiers et qui, en plus, respecte la vie privée… mais qui n’a pas encore convaincue tout le monde. On pourrait clairement se dire que la boucle est bouclée pour Google. De fait, après avoir étouffé la concurrence dans le domaine des navigateurs web, avec Chrome (dont la part d’audience est indéniablement la plus haute, voir partie 1), Google va s’accaparer le marché de la publicité en ligne (enfin…encore plus) en bloquant toute autre possibilité de tracer les gens que via son propre navigateur et surtout d’exploiter tout ça… dans l’offre Google. D’une certaine façon, on retrouve les travers du server to server… D’autant que la dernière annonce en date de Google pose la dernière pierre de « walled garden » en bloquant dans Chrome les solutions alternatives… comme celle que nous allons voir après.
Des initiatives collectives?
Passons maintenant à une autre solution qui fait parler d’elle également. Il s’agit de l’identifiant unique ou unique ID. Le concept du unique ID est une façon de créer de la collaboration au sein d’un réseau entre différents partenaires. Le but est de créer une sorte de plateforme de consentement et de partager ce consentement entre les partenaires impliqués et seulement entre eux, bien entendu. C’est une manière de créer un réseau de consentement positif pour développer un écosystème publicitaire durable et sans cookie… mais basé sur un identifiant, par exemple une adresse e-mail. Comme vous l’avez déjà sans doute compris, c’est aussi une forme de « walled garden » mais avec un point de vue plus large. Ce « walled garden » offre plus facilement des possibilités d’évolution (plus qu’une API avec un partenaire). Cette approche devrait être une excellente option à envisager pour nos éditeurs locaux. De quoi leur permettre d’augmenter leur poids avec un argumentaire local fort et indéniable. Ce n’est pas la récente annonce du lancement de « Ads and Data » (alliance de Mediahuis, Telenet/SBS, Pebble Media et Proximus Skynet) qui me donnera tort sur ce point. Il est évident que face aux géants du digital (GAFAM), l’union fait plus que jamais la force.
La technique c’est bien, mais avant tout comment s’organiser?
A présent, quittons la dimension technologique pour analyser ce que l’on peut mettre en place comme stratégie face à la disparition des cookies tiers. Constat important, la question de la collecte de données ne disparaitra pas avec les cookies tiers. J’entends pas là qu’un annonceurs pourra toujours au travers de ses propres plateformes collecter de la données. Cependant, la situation a déjà changé depuis un petit temps grâce au GDRP et la récolte de données offre déjà son lot de challenges. En effet, de ce que nous pouvons observer les fameuses « cookie consent policy banner » ont occasionné des pertes de tracking (= de collecte d’audience) conséquentes. Ceci a évidemment un impact sur les tâches désormais classiques d’analyse de trafic web. Interprétations erronées, vue partielle, surévaluation d’étape, perte de data pour les automatisations,… Autant de points qui créent une vue incomplète. Néanmoins, plutôt que de se lamenter et de regretter la situation passée, ne serait-il pas plus opportun de se positionner sur comment réagir et s’adapter à ce nouvel environnement ? C’est là qu’intervient une prise de position sur sa stratégie de collecte. Collecter pour le plaisir de collecter n’est plus une option, il faut dynamiser cette démarche la nourrir de façon constructive afin de répondre à des objectifs clairs de gestion d’audiences avec comme nouveau cadre le respect et la compréhension des utilisateurs. Collecter intelligemment est aussi un garant de qualité pour la mise en place efficace d’outils de « predictive marketing ». Il faut en d’autres mots mettre toutes les chances de son côté en gérant et en développant sa first data. Car oui, cette donnée là (la fameuse donnée interne), elle, ne disparaitra pas bien au contraire. Ce dernier point m’amène à parler de la deuxième méthode qui est liée à celle-ci : la stratégie de contenu.
Le retour de la vengeance des stratégies de contenu?
Cette stratégie n’est pas nouvelle, loin de là, déjà en janvier 1996, Bill Gates annonçait « Content is king » via une publication sur le site de Microsoft. Il évoquait, en résumé, que le contenu serait une des principales sources de revenu sur Internet dans le futur. Ce ne sont pas les youtubers et autres influenceurs multi plateformes qui lui donneront tort. Aujourd’hui, 25 ans plus tard, cette citation garde tout son sens et toute sa portée mais on ne peut pas vraiment dire que de nombreux annonceurs la mettent en place de façon poussée en Belgique. En effet, nombre d’entre eux ont, depuis très longtemps, abandonné l’utilisation de leur contenu auprès des agrégateurs externes (Google, Facebook,…) laissant échapper la possibilité de développer leur propre 1st party data via cette méthode. Vu ce qui se profile à l’horizon 2022, il est plus que temps de se reconnecter à son propre écosystème en reprenant la main sur la création et la diffusion de son contenu. Pour peu qu’on se lance dans l’aventure, la notion de trafic en tant qu’objectif va sans doute prendre un nouvel essor afin de nourrir les environnements propres. Evidemment, le trafic n’est pas une fin en soi car je peux amener le meilleur volume de visiteurs du monde sur un site, si l’expérience est complètement creuse derrière, tout ceci n’aura juste servi à rien. Le développement de ce trafic doit aller de pair avec le développement de contenus et de services à valeur ajoutée. Plus que ça, comme évoqué plus haut, c’est une stratégie de contenu complète qu’il faut envisager sur le long terme. Effectivement, ne pensez pas copier-coller votre dernier communiqué de presse et vous extasier de vous lancer dans le « content », la désillusion serait grande et rapide. Il faudra aussi prendre de la distance avec les autres pratiques publicitaires en oubliant la maladie du « tout, tout de suite ». C’est un travail de longue haleine qui demande de la préparation, du temps et de la rigueur. Les récompenses à la clé sont cependant inestimables : une connaissance accrue de son propre secteur, une maitrise technique de son audience, une opportunité de dialogue et d’échange avec son public, un levier de conversion puissant, … Il est donc temps d’aller plus loin que le simple (et un peu inutile) « site vitrine » afin de déployer une vraie présence crédible. Bien entendu, je ne suis pas en train de dire qu’il faut brûler les autres solutions via Google ou Facebook par exemple. Le point est de trouver un nouvel équilibre et de considérer son propre environnement comme un élément central de cette stratégie. Il est essentiel de trouver une harmonie entre le push et le pull afin de se construire une vue complète et une source continue d’enseignements.
Le mot de la fin…ou du nouveau commencement?
Pour conclure ces trois articles, je voudrais encore une fois insister sur un point important : aujourd’hui, personne n’a LA solution parfaite pour surmonter la disparition des cookies tiers. Les annonces se bousculent et les certitudes que l’on pensait acquises se voient balayées aussi vite qu’un communiqué posté par Google. Oui, l’impact de ce géant est considérable car ses décisions ont un poids indéniable de part sa position dominante sur le marché publicitaire et sur celui des navigateurs. Là où certains montrent la bonne volonté du G des GAFAM d’autres y voient une forme de manipulation sous le couvert du chevalier blanc du web afin d’assoir encore plus sa position dominante…
Je le mentionnais déjà dans la conclusion de la partie 2, ce changement de paradigme va surtout venir tester nos capacités d’adaptation et il serait dommage de se retrouver dans une situation où la lucidité a été mise en congé forcé par un manque de discernement.
Quoiqu’il en soit, même s’il n’existe pas encore un solution miracle faisant l’unanimité, une qui, elle, demeure pérenne est de capitaliser sur sa 1st party data et l’échange que vous pourrez créer avec votre public mais ça vous l’aviez déjà… commencé, non ?