Retour sur le 39ème Petit-Déjeuner du Commerce 4.0 de la Chaire ESCP BearingPoint Retailing 4.0

La donnée constitue aujourd’hui la nouvelle monnaie de l’économie digitale. En retail, la faire fructifier en l’exploitant représente le véritable enjeu pour ses acteurs. Ainsi, il s’agit que l’ensemble des métiers d’une entreprise, ainsi que ses points de vente, soit piloté par la donnée et prenne des décisions rapides en conséquence.
Mais plusieurs questions se posent. Comment les points de vente peuvent-ils capter de la donnée aussi bien que le e-commerce pour connaître les habitudes des consommateurs, améliorer le parcours client et obtenir un taux de conversion plus élevé ? Comment éduquer tous les acteurs en interne à la culture de la donnée et assurer un pilotage Data Driven aligné avec la stratégie de l’entreprise ? Quelles données actionner pour aligner les intérêts du personnel en magasin avec ceux de l’entreprise ?…

Afin d’échanger sur les cas d’usage actuels mis en oeuvre pour exploiter la donnée et optimiser la performance des entreprises du commerce et de la distribution, le Professeur Olivier Badot, directeur de la Chaire Retailing 4.0 et Elisabeth Denner, présidente de la Chaire et associée chez BearingPoint, ont invité : 
- le Professeur Christophe Benavent, Université Dauphine,
- Stéphane Jeannin, Responsable des études au sein de la DSI d’Optic 2000
- Julie Lartigue, BearingPoint,
- Xavier Battaglini, BearingPoint,
- Mickaël Mas, CEO Symaps.io.

En guise d’introduction, le Professeur Benavent, dont les travaux portent sur les conséquences des technologies de l’information sur les stratégies et le marketing des entreprises et sur la consommation digitale, met en avant l’une des œuvres d’art de Giorgia O’Keeffe. Ce paysage symbolise la corrélation entre data et algorithmes, et la place du commerce dans le digital. Pour le Professeur Benavent, l’enjeu pour le retail est de savoir comment s’insérer dans ce paysage digital qui est déjà imposé.

Une collecte de données très imprégnée par le digital et l’informatique

I.    L’amplification du digital dans le monde d’aujourd’hui 

La covid-19 a plongé le monde dans le travail à distance, et a accentué la communication via le numérique et les réseaux sociaux. L’enseignement est également concerné par cette transformation digitale : comme nous avons pu l’observer au cours de ces deux dernières années, nombreuses sont les Universités ou Grandes Ecoles qui proposent l’enseignement à distance pour suivre une licence, un master ou un diplôme universitaire. Le Professeur Benavent rappelle que les enseignants ont adopté les plateformes en ligne comme Teams, Google meet, ou encore Zoom.
Ainsi, le monde de l’éducation est contaminé par cette tendance digitale, et les professeurs comme les étudiants utilisent les plateformes qui offrent des cours et des enseignements comme le réseau social LinkedIn. C’est à travers ces plateformes que se crée un nouveau paysage pour trouver des contenus de formations.
Cet exemple nous permet de comprendre les liens existant entre les différentes plateformes en ligne : Meet est un composant de la G-Suite de Google, qui est une collection d'applications de productivité basées sur le cloud. G-Suite est destinée aux entreprises et les services proposés sont accessibles par un abonnement. 


II.    Les différentes problématiques quant à l’accès aux données pour le secteur du commerce et de la distribution

Selon le Professeur Benavent, le commerce et la distribution sont confrontés à cinq problématiques : 
1.    L’accès aux données, qui passe par les applications. Ces données sont ensuite utilisées par un certain nombre de grandes plateformes.
2.    L’interopérabilité, c’est-à-dire le développement d’une technologie permettant de faire communiquer deux systèmes différents. En guise d’exemple, Excel a été développé par Microsoft, mais les utilisateurs peuvent ouvrir ce même fichier avec la technologie Google. 
3.    La modélisation. En effet, le data scientist raisonne sur une tâche précise : tel qu’un problème de classification ou la détection des mauvais commentaires des consommateurs. Pour réaliser ce travail, il faut des données, mais également des modèles (comme Python ou R).
Cependant, nous pouvons noter l’absence de théorie dans cette pratique. Du fait de sa complexité, l’utilisation de ces modèles comme leur application aux données ou encore le développement d’une tâche et son industrialisation par la suite s’avère très coûteuse. Cela conduit les entreprises à transmettre ces informations à des plateformes en ligne comme Google ou Facebook afin d’en obtenir une analyse de données.
Mais, ce système est confronté à des faiblesses car le fond n’est pas forcément le plus pertinent. Par exemple, la grande majorité des commentaires contiennent des fautes d’orthographe. Par conséquent les données ne sont pas traitées de façon optimale. 

4.    L’organisation logistique, avec notamment les bullwhip effects, c'est-à-dire le fait que de petites variations en aval se traduisent par de grandes variations en amont. Une entreprise capable de prédire très précisément les ventes dans le plus fin détail, pourra gérer sans difficulté toutes ses chaînes d’approvisionnement et ainsi limiter les ruptures.
Cela questionne la priorité de l’entreprise : s’intéresse-t-elle plutôt à l’aspect logistique ou à l’aspect commercial ? Collecter et analyser les feedback des consommateurs lui permet d’anticiper ce qu’elle va vendre, pour commander des matières premières en quantité adéquate par la suite, et ainsi, optimiser ses flux. À cette échelle, les données participent à la construction des représentations de chacune des parties prenantes d’un marché.

5.    Le problème de la gouvernance des données (protection de la vie privée). Il se pose des questions autour de la production et de la réglementation du traitement de la donnée, de l’exigence ou non des consommateurs à protéger leurs informations per-sonnelles, ainsi que du rôle des activistes, et des politiques de partage de données. L’enjeu réside dans le rapprochement de certaines informations, comme par exemple la consommation d’un client et sa position géographique.

L’exploitation de la donnée : un système complexe

L’exploitation de la donnée peut s’avérer compliquée mais elle constitue un condition ma-jeure au maintien de la performance des entreprises. 

I.    L’adoption d’une nouvelle culture d’entreprise

Tout d’abord, pour Julie Lartigue, consultante chez BearingPoint, l’adoption d’une nouvelle culture d’entreprise s’avère nécessaire car ces données doivent être mises en commun (collectées, partagées, et stockées) et être accessibles aux différents collaborateurs grâce à une base unique, afin qu’elles soient plus signifiantes. 
Ainsi, la construction d’une stratégie, et la gouvernance des data claire et partagée, notam-ment en la valorisant, permet à l’entreprise de concevoir ce qu’elle cherche à montrer, et de relever de nouveaux défis pour rester compétitive. 

II.    L’agrégation des différentes sources de données

La performance d’une stratégie Data Driven est intrinsèquement liée à l’assimilation de dif-férentes sources et différents types de données : les informations détenues par l’entreprise, celles qui peuvent être captées dans l’environnement, et celles obtenues grâce à des sys-tèmes de recueil des données externes.
En évaluant le potentiel des sources externes et nouvelles, comme les data non structurées des médias sociaux,  cela permet à l’entreprise de cibler l’information essentielle mais également maximiser sa business value, et de comprendre davantage ses propres données internes. 

III.    Les algorithmes au service du Data Driven Retail

La proposition de valeur de l’entreprise Symaps.io illustre comment exploiter les données collectées. Cette start-up travaille sur des outils algorithmiques, de géolocalisation notam-ment, afin de mieux connaître une zone géographique dans laquelle une entreprise sou-haite développer de nouveaux points de vente.
A partir du nombre de personnes qui passent dans une rue (en véhicule, à pied ou autre), la start-up fait du scoring de lieu. Elle estime ainsi l’attractivité d’une zone de chalandise et permet d’identifier un chiffre d’affaires prévisionnel.
Symaps.io interroge plusieurs bases de données disponibles en open source. Elle a dévelo-pé un algorithme pour ordonner et trier les informations les plus pertinentes, c’est-à-dire celles qui influent le plus sur l’activité du point de vente. Ce peut être par exemple la satisfaction client, mesurée grâce aux avis Google My Business, ou encore le taux de clients abandonnistes, ceux qui quittent le processus d’achat avant la fin.  L’algorithme prédit également les carences potentielles, c’est-à-dire les problèmes auxquels une entreprise pourrait avoir à faire face.
Ainsi, à partir de ces différentes études, il est possible de mesurer l’effort à fournir par la suite pour corriger certaines déficiences, et de prioriser les leviers majeurs d’une croissance de chiffre d’affaires. 
Généralement, les conseils données par Symaps.io sont utiles à l’entreprise cliente pour arbitrer trois types de choix stratégiques de développement  : 
(i)    la ventilation des ventes entre la livraison ou le « sur place »,
(ii)    le type d'expansion : par continuité territoriale, et par l’affinité du lieu, 
(iii)     le type d'investissement (direct ou indirect). Investir en direct coûte plus cher et le retour sur investissement se fait sur un ou deux ans. L'investissement indirect déporte le risque de l’investissement direct sur des personnes déjà présentes sur place. Cela implique d'envoyer des commerciaux pour démarcher et vendre les produits aux commerçants. Le retour sur investissement est plus rapide.

Etude de cas Optic 2000 : l’utilisation des données pour analyser les performances des points de vente

L’enseigne Optic 2000 a pour modèle économique le stockage et la distribution des lentilles, des verres et des montures à des prix négociés partout en France. Elle s’interrogeait sur les données à identifier et valoriser pour mieux comprendre comment développer et animer son réseau de vente grâce à la data science.
Cependant, cela soulevait plusieurs sous-questions. L’entreprise passe-t-elle à côté de leviers qu’elle n’exploite pas ? Comment mesurer l’impact des campagnes marketing ? La position des montures sur les présentoirs en magasins a-t-elle un impact sur le comportement d’achat ? Quels sont les leviers majeurs pour augmenter les ventes et les marges ?

I.    Une problématique sous-tendue par les spécificités d’un marché

Les comportements d’achat dans le domaine optique diffèrent de ceux des autres marchés. En effet, en France, l’achat d’optique est pris en charge par la Caisse Primaire d’Assurance Maladie et les mutuelles. Cela offre une clientèle et un chiffre d’affaires potentiels plus conséquents que sur d’autres marchés. Ainsi, avec des acheteurs en grand nombre, l’enjeu est de séduire les consommateurs et d’anticiper leurs besoins pour proposer des produits qui conviennent à tout le monde. 
De plus, certaines données comme celles de la santé ne peuvent pas être utilisées à des fins commerciales car elles font l'objet d'une protection particulière par le Règlement Général sur la Protection des Données (RGDP) et sont couvertes par le secret médical. Cela signifie que les informations doivent rester confidentielles et ne peuvent être utilisées qu’à condi-tion qu’elles soient anonymisées.
Une entreprise comme l’enseigne Optic 2000 ne peut donc pas cibler une personne malade pour la rapporter à ses objectifs commerciaux. Ainsi, chaque donnée doit être obtenue avec le consentement du client, ce qui incite l’entreprise à effectuer un tri dans sa politique de confidentialité. En cas de violations de ces sources, l’enseigne pourrait être sanctionnée par une amende, mais surtout cela risquerait d’impacter sa réputation et de générer une perte de confiance de la part de ses clients. 

II.     La mise en place d’une démarche rigoureuse

Les équipes de BearingPoint et Optic 2000 ont dessiné plusieurs étapes :
(i) Dans un premier temps, elles ont connecté plusieurs bases de données entre elles afin de mettre en place un système de données utilisable sur le long terme et d’analyser les leviers de la performance des points de vente. Cependant, ce travail a intégré une étape d’élimination des biais.
(ii) Dans un second temps, il fut important de caractériser la notion de performance de point de vente et ses leviers, comme la localisation géographique en se basant sur l’étude de certains magasins.
(iii) Des recommandations pratiques ont pu être émises auprès des magasins qui fonction-naient le moins bien.

III.    Un démarche prenant en compte la gouvernance de la data et la culture d’entreprise 

Tout d’abord, il a fallu tenir compte des particularités du marché pour adapter la gouver-nance des données : une règle et une norme ont été définies afin que les données fassent sens dans le respect du RGDP.
Par ailleurs, il a également fallu faire évoluer la culture d’entreprise. Auparavant, chez Optic 2000, il n’y avait pas d’analyse des données en profondeur, le marché étant suffisamment porteur. Pour rester compétitive, l’entreprise a intégré la notion de connaissance de la consommation des clients, c’est-à-dire l’observation du comportement des consommateurs pour une compréhension approfondie de leur attitude et de leurs moteurs. Ainsi, en suivant l'évolution des besoins et des désirs des acheteurs, et en comprenant leur perception, l’entreprise  a pu identifier de nouvelles opportunités. 
Les employés ont dû prendre conscience de l’importance d’intégrer et de partager les données sur des supports communs pour leur donner du sens et de la pertinence par rapport à l’activité de l’entreprise. Afin de générer un esprit de collaboration, il a par exemple été décidé de regrouper les profils techniques, parfois très différents.
Au total, en intégrant les data dans sa nouvelle stratégie, cela a permis à l’enseigne Optic 2000 de réduire davantage les coûts, et d’optimiser les budgets marketing.

IV.    La stratégie adoptée pour exploiter efficacement la donnée

Pour utiliser efficacement la donnée disponible, l’équipe Bearingpoint s’est concentrée sur un certain nombre de KPI, à savoir : le chiffre d’affaires, le résultat d’exploitation, la croissance du chiffre d’affaires, ainsi que la part de marché. À partir de ces chiffres, il a été pos-sible de connaître  les sources de données qui influeraient le plus, à priori, sur la performance.
La collecte de données a regroupé plusieurs systèmes de production : comme celles de l’encaissement, la comptabilité, le marketing, ainsi que d’autres données internes, propres à l’entreprise, ou les données disponibles publiquement et donc en externe, comme les caractéristiques socio-démographiques de la zone de chalandise.  Ensuite, la capitalisation qui consiste à la monétisation des données, l’extraction dont l’objectif est la collecte des infor-mations, ou encore les flux qui est la gestion des data, permettent de résoudre les différentes problématiques. 
Puis il a été décidé de : 
1.    Bâtir des prédicteurs grâce à la data science,
2.    Regarder la performance réelle de chaque point de vente, sur ces différents prédicteurs,
3.    Mettre en place une deuxième série de prédicteurs qui prédisent l’écart entre le potentiel du marché et la réalisation (un indicateur du résidu entre la valeur anticipée et la valeur réelle).

V.    La segmentation des points de vente

L’équipe BearingPoint a défini quatre indicateurs regroupant l’ensemble des magasins :
(i) une zone à faible concurrence,
(ii) des zones plutôt du centre ville,
(iii) des zones touristiques avec des populations âgées, et enfin des hyper-centres.
Elle a ainsi dessiné des cluster géographiquement similaires afin de rendre les magasins comparables entre eux,  des top performers aux low performers.
Ainsi, en comparant le chiffre d’affaires, le résultat d’exploitation et la part de marché de chaque low performer à la médiane de son cluster, une croissance potentielle pouvait être identifiée, ainsi que ses leviers spécifiques. Grâce à cette technique, un gain potentiel de 15% de chiffre d’affaires a été identifié sur 630 magasins.


Conclusion 

L’analyse des données a pour objectif d’aider les décideurs dans leur stratégie d’entreprise. En les collectant et en les interprétant, cela aide le gestionnaire à prendre des décisions qui vont permettre à l’entreprise de mieux performer;
Cette analyse passe par plusieurs étapes : améliorer les capacités de la visualisation des données pour l’ensemble des employés de l’entreprise, développer une culture d’entreprise autour des data en utilisant des outils simples qui permettront une prise de décision plus efficace et plus rapide.
Enfin, il existe plusieurs types d'analyse :
(i) L’analytique descriptive étudie les évènements du passé pour en extraire des informa-tions utiles en vue d’une analyse complémentaire.
(ii) L’approche prédictive applique des modèles statistiques à des données passées pour prédire l'avenir.
(iii) L’étude prescriptive se base sur des analyses robustes pour informer les employés sur la meilleure façon d'accomplir une tâche spécifique dans leur travail, comme par exemple, le meilleur prix à appliquer pour un produit.
Ainsi, il est important de comprendre les corrélations entre les variables issues de anciennes données, qu’elles soient positives ou négatives, avant de prendre des décisions pour l'avenir.

Campus