Parlons de l’adoption côté opérationnel. Quel est, selon toi, le malentendu le plus fréquent vis-à-vis de l’analytics ?
Le malentendu principal, c’est que beaucoup d’opérationnels perçoivent l’analytics comme un sujet technique, alors qu’il s’agit avant tout d’un sujet business.
Ils le considèrent comme quelque chose d’externe à leur métier, porté par des experts, et non comme un levier direct pour améliorer leurs décisions. Pourtant, l’analytics n’est pas une fin en soi : c’est un outil au service de la performance opérationnelle.
Derrière ce malentendu, est-ce qu’il y a aussi une forme de peur ?
Oui, clairement. Le premier frein, c’est la peur de la remise en cause.
La data peut contredire des intuitions ou des convictions construites au fil des années d’expérience. Cela peut être inconfortable, car cela remet en question des certitudes et une forme de contrôle sur la décision.
Il existe aussi une interrogation plus personnelle : quelles seront les conséquences des résultats ? Comment seront-ils perçus ? Quel impact cela peut-il avoir sur mon rôle ou ma légitimité ? Ces questions se posent à tous les niveaux de l’organisation, du comité de direction jusqu’aux équipes opérationnelles.
J’ai par exemple vu des category managers, dans le retail, refuser certains résultats analytiques parce qu’ils entraient en contradiction avec leur connaissance terrain, pourtant très solide. Ce n’est pas un rejet de la data, mais une tension naturelle entre expérience et preuve.
C’est pourquoi la culture d’entreprise doit valoriser l’apprentissage, y compris lorsqu’il implique de remettre en question certaines hypothèses.
Quels autres freins observes-tu côté opérationnel ?
Il y a d’abord un frein très pragmatique : le manque de temps. Beaucoup d’opérationnels ont le sentiment qu’ils doivent agir vite, et que l’analytics ralentit la prise de décision.
Il existe aussi une perception selon laquelle l’analytics regarde le passé, plutôt que d’aider à anticiper l’avenir. Les décisions s’enchaînent rapidement, sans toujours prendre le temps d’évaluer les résultats des décisions précédentes.
Le véritable enjeu est donc de concilier rigueur analytique et efficacité opérationnelle. Cela suppose de mettre en place les bons processus, de se concentrer sur les sujets prioritaires et de s’équiper d’outils adaptés.
Tu évoquais également le risque de laisser l’analytics uniquement entre les mains d’experts. Pourquoi est-ce un problème ?
L’analytics est le plus efficace lorsqu’il est porté par des profils hybrides, capables de comprendre à la fois les méthodes analytiques et les enjeux business.
Lorsqu’il reste entre les mains de profils purement techniques, il peut devenir un exercice théorique, déconnecté des décisions réelles. On produit des analyses, mais sans répondre à une question opérationnelle claire.
Tout commence par un brief de qualité. Il est essentiel de clarifier, dès le départ : quelle décision souhaite-t-on éclairer ? Quelle hypothèse veut-on tester ?
Ce dialogue peut être exigeant, car il suppose que le décideur formalise sa réflexion. Or, il arrive que certains préfèrent rester en retrait et dire : « Analyse les données et dis-moi ce que tu trouves. » En réalité, c’est au contraire ce cadrage initial qui garantit la pertinence de l’analyse.
Comment éviter l’effet tunnel côté analyste et favoriser l’adoption côté opérationnel ?
J’applique ce que j’appelle la logique du diamant. Je considère que la qualité du travail d’analyse se mesure aussi au nombre d’hypothèses que l’on invalide.
On commence par formuler des hypothèses, puis on les teste progressivement. L’objectif n’est pas de produire une analyse parfaite dès le départ, mais d’avancer par itérations.
Surtout, il est essentiel d’interagir régulièrement avec les équipes métier. Partager les premiers résultats, ajuster les analyses, affiner les questions. Cela permet de co-construire la réflexion.
Ce processus crée de l’engagement. L’opérationnel se reconnaît dans l’analyse, car il y a contribué. Cela suscite également de la curiosité et renforce l’appropriation des résultats.
Tu recommandes aussi de partir de décisions réelles pour démontrer la valeur de l’analytics. Pourquoi est-ce efficace ?
C’est une approche très concrète pour démontrer l’impact de l’analytics.
On peut soit accompagner une décision en cours, et montrer comment l’analyse améliore sa qualité, soit revenir sur une décision récente et analyser ce qui aurait pu être fait différemment.
Par exemple, dans le retail, la rénovation d’un concept magasin est une décision fréquente. En revisitant ce type de décision avec une approche analytique, on peut identifier des leviers d’amélioration.
Cela permet de sortir d’un débat théorique et de démontrer, par la preuve, la valeur de la démarche. L’objectif n’est pas d’opposer intuition et data, mais de les réconcilier pour améliorer la qualité des décisions.
Si tu devais expliquer le test and learn à un opérationnel très pressé, que lui dirais-tu ?
Je lui dirais simplement ceci : une organisation progresse en fonction de sa capacité à apprendre rapidement.
Le test and learn permet de confronter une intuition à la réalité, d’expérimenter rapidement et de mesurer l’impact réel d’une décision.
L’objectif est triple : investir dans les initiatives les plus pertinentes, prendre des décisions éclairées et installer une culture d’apprentissage durable.
En d’autres termes, il ne s’agit pas seulement de tester, mais de transformer chaque apprentissage en levier de performance.


