[Tribune Journal du Net] Faire de la web analyse en 2022 : s’adapter ou reculer
Article publié le 09 février 2022 dans le Journal du Net.
L’année passée a vu émerger un ensemble d’évolutions dans l’usage des données webanalytics par les organisations, de la collecte à l’activation en passant par l’analyse et le pilotage de la performance.
La démocratisation croissante du paradigme organisationnel qu’est le Product Management incite un certain nombre d’acteurs à repenser leurs stratégies “Produit” grâce au développement de compétences, de solutions et des processus orientés data, qui étaient jusqu’alors l’apanage d’équipes dédiées et distinctes. L’usage plus généralisé des données a d’ailleurs mis l’accent sur la nécessité de maintenir dans le temps leur qualité et l’intégrité de leur collecte.
En parallèle, les exigences réglementaires concernant la gestion des données personnelles et les restrictions induites par les nouvelles versions des navigateurs et OS Mobile amènent à repenser les méthodes de collecte vers des modèles hybrides (notamment “server-side”).
2022 sera très certainement l’année où les organisations qui sauront adapter leurs pratiques creuseront l’écart avec celles qui n’évolueront pas.
Les équipes Produit de plus en plus structurées autour de data owners
Pour construire leur Vision Produit et répondre aux attentes de leurs utilisateurs et clients, mais aussi analyser l’impact et l’incrémental apportés par leurs développements, les équipes Produit ont besoin d’utiliser la data de manière experte et actionnable. Il est donc essentiel de voir la thématique du CRO (Conversion Rate Optimization) directement intégrée au sein de ces équipes avec les profils et compétences que cela implique (CRO Manager, “data stewards”, “data analysts”) en complément d’équipes transverses, au même titre que des ressources UX, développeurs ou architectes.
En réponse à ces besoins de connaissance client, d’analyse des parcours et de consommation des features de plus en plus granulaires, les éditeurs de solutions adaptent les modèles de données de leurs outils vers une vision plus orientée Product ou Customer Analytics. Ils permettent ainsi une meilleure représentation et visualisation du comportement des utilisateurs et un gain de temps dans la collecte et l’agrégation des données.
Le respect des données personnelles au centre des stratégies de collecte et d’activation
En parallèle, les considérations issues des nouvelles réglementations en lien avec la privacy sont devenues incontournables dans toute stratégie data, qui ne doit jamais autant qu’aujourd’hui être “privacy by design”.
Notamment, obtenir le consentement des internautes est désormais obligatoire (sauf cas d’exemption particuliers) pour collecter les données comportementales sur les sites et applications mobiles. Entreprises et éditeurs de solution ont dû adapter leurs pratiques pour limiter les impacts, notamment sur le pilotage de la performance. Le taux de consentement devient donc un indicateur suivi de près, car il détermine la quantité et la qualité (en termes de granularité et de précision) des données collectées. C’est également un taux à maximiser : un objectif important des équipes CRO cette année est d’en améliorer les modes de recueil.
De nouvelles approches technologiques en réponse aux enjeux “Privacy”
En réponse, les solutions de collecte s’adaptent : certains éditeurs proposent des fonctionnalités de collecte “exemptées de consentement” afin de collecter les indicateurs clés de manière exhaustive, ou bien de modéliser les données de comportement manquantes en se basant sur les utilisateurs ayant consenti au partage de données. Autre tendance majeure, la possibilité de passer d’un mode de collecte “client-side” à un modèle “server-side” et ainsi pouvoir outrepasser les blocages prévus par certains navigateurs. Outre la prolongation de la durée de stockage, le “server side” permet également de mieux gouverner sa donnée en s’assurant de l’efficacité de l’expérience, de la sécurisation et du contrôle de ce qui est partagé.
Automatiser, fiabiliser et assurer une qualité dans la remontée de données
Dernière tendance forte, le souci des acteurs les plus matures de ne plus laisser au hasard la maîtrise de la qualité des données collectées. En effet, dans un contexte de raréfaction de la donnée, fiabiliser la collecte devient une condition sine qua non pour garantir la pérennité des activités data les plus stratégiques : suivi de la performance des parcours, reciblage des internautes, mesure des campagnes marketing, segmentation client, cas d’usage data avancés etc.
Face à ce besoin, nous voyons l’émergence de nouveaux acteurs tels que Seenaptic, Data On Duty, ObservePoint, ou encore Agnostik (récemment acquis par Didomi). Face à des sites et des applications en constante évolution, ces plateformes permettent de rationaliser la collecte des données, de s’assurer de leur conformité face aux exigences réglementaires et de leur fiabilité. De quoi grandement faciliter la vie des gestionnaires de TMS et des équipes en charge de la gouvernance des données.
Article co-signé par Julien Ribourt et Pierre-Eric Beneteau, partners Converteo