À quel moment avez-vous réalisé que le vrai sujet n’était pas la technologie, mais l’humain ?
Cette prise de conscience est venue progressivement, à force d’échanger avec des experts IA et des décideurs très focalisés sur la performance technique : recruter les meilleurs data scientists, développer les meilleurs algorithmes, obtenir les meilleurs scores.
Le problème, dans ces discussions, est qu’elles sont souvent déconnectées de la réalité opérationnelle et business. On reste centré sur la technologie elle-même, alors que l’objectif n’est pas la performance en tant que telle, mais la création de valeur.
Un modèle, même excellent, n’a aucune valeur s’il ne répond pas à un besoin concret. Sa véritable valeur réside dans son adoption. S’il est utilisé, c’est qu’il permet de gagner du temps, d’améliorer l’efficacité ou de créer un impact mesurable. Encore faut-il être en capacité de mesurer cet impact, qu’il soit interne ou externe à l’entreprise.
Vous posez une question simple pour mesurer cette adoption. Laquelle ?
Il y a une question que j’aime particulièrement poser aux utilisateurs :
« Si demain ce produit disparaît, est-ce que cela vous poserait un problème ? »
Cette question permet d’évaluer immédiatement le niveau d’adoption et, indirectement, la valeur créée. Ce qui est intéressant, ce n’est pas seulement la réponse, mais la spontanéité avec laquelle elle est donnée. Elle reflète l’utilité réelle du produit dans le quotidien des utilisateurs.
Ce type de retour est extrêmement précieux pour évaluer la pertinence d’un produit data ou IA.
Pourquoi l’adoption reste-t-elle souvent un sujet secondaire dans les stratégies data et IA ?
Cela tient en grande partie au profil des décideurs. On peut distinguer deux approches.
La première est portée par des décideurs très attentifs aux tendances du marché. Ils souhaitent intégrer de l’IA parce qu’ils en perçoivent le potentiel et observent ce que font leurs concurrents. Leur motivation est réelle, mais la question de l’adoption n’est pas toujours prioritaire dans leur réflexion initiale.
La seconde approche est plus orientée vers la création de valeur. Ces décideurs cherchent à comprendre précisément ce que l’IA peut apporter en retour d’un investissement donné. Or, mesurer l’impact business d’un modèle peut s’avérer complexe.
Par exemple, lorsque je travaillais chez Mobilize Financial Services, nous avions développé un modèle capable d’identifier, pour chaque client, le meilleur moment, le meilleur canal et la meilleure offre à proposer. Ce modèle fournissait des probabilités et des recommandations aux équipes commerciales.
Mesurer directement l’impact du modèle sur la souscription d’un crédit était difficile, car de nombreux facteurs entraient en jeu : le travail des équipes commerciales, les campagnes marketing, la qualité du produit ou encore le contexte client.
En revanche, il était beaucoup plus simple de mesurer son adoption : qui l’utilisait, à quelle fréquence et dans quel contexte. Cette mesure constitue un indicateur clé, car elle permet de déterminer si le modèle crée réellement de la valeur.
À l’inverse, un modèle non utilisé peut révéler un problème d’intégration, de pertinence ou d’utilisabilité. L’adoption devient ainsi un KPI essentiel pour évaluer la réussite d’une initiative data ou IA.
Vous considérez que l’adoption est avant tout un sujet organisationnel. Comment l’avez-vous concrètement adressé ?
La proximité avec les métiers est fondamentale. J’ai mis en place, chez Mobilize Financial Services et chez la GPM, un rituel simple : permettre aux data scientists de passer régulièrement du temps avec les équipes métiers.
Concrètement, au début d’un projet, les data scientists consacraient une journée par semaine à travailler aux côtés des utilisateurs. Cette immersion leur permettait de comprendre les besoins réels, les contraintes opérationnelles et les opportunités de création de valeur.
En un mois, leur compréhension du métier progressait considérablement. Cela améliorait non seulement la qualité des solutions développées, mais aussi leur adoption.
Cette approche facilite également l’implication des métiers dans les projets data et renforce leur appropriation des outils.
Aujourd’hui, les outils numériques facilitent l’onboarding, mais ils ne remplacent pas les interactions humaines. Rien ne remplace l’échange direct avec un utilisateur pour comprendre ses usages et ses besoins réels.
Vous insistez sur la notion de « produit data » plutôt que de « projet data ». Pourquoi cette distinction est-elle importante ?
La distinction est essentielle, car elle reflète deux logiques différentes.
Un projet data a un début, une fin, un périmètre défini et un livrable précis. Par exemple, la création d’un dashboard répond généralement à une logique de projet : les objectifs sont connus à l’avance et la livraison intervient à une date donnée.
Un produit data, en revanche, s’inscrit dans une logique évolutive. Il commence avec une vision, mais son développement repose sur des itérations successives, nourries par les retours utilisateurs. Il n’a pas nécessairement de date de fin, car il évolue en permanence.
Cette approche permet d’améliorer progressivement la qualité du produit, d’augmenter son adoption et d’en maximiser la valeur.
Quel conseil donneriez-vous à un COMEX pour évaluer la valeur réelle d’une initiative IA ?
Il est essentiel de combiner deux types d’indicateurs.
D’une part, un KPI métier ou business, qui permet de mesurer l’impact direct sur la performance de l’entreprise.
D’autre part, un KPI d’adoption, qui permet d’évaluer si la solution est réellement utilisée.
Ce second indicateur est particulièrement important lorsque l’impact business est difficile à mesurer directement. Ensemble, ces deux dimensions permettent de déterminer si une initiative data ou IA crée réellement de la valeur et si elle mérite d’être poursuivie ou amplifiée.


