Skip to content
Revenir au blog

Interview de Rupert Schiessl, Verteego : “optimisation des stocks, des assortiments, des promotions et des prix, c’est là que se trouve la plus grosse source de valeur pour le retail”

 

Rupert Schiessl est le CEO & cofondateur de Verteego, solution spécialisée dans la prise de décision assistée par l’intelligence artificielle à destination des distributeurs et des marques de grande consommation. 

 

 

Quels sont les domaines dans lesquels l’IA est déjà implémentée avec succès par les marques et enseignes ?

 

Lorsqu’on parle d’IA et retail actuellement, on pense à des sujets “shiny”, comme l’IA générative, le suivi des comportements en points de vente, le tracking des ruptures de stock, ou encore aux magasins autonomes et aux chariots connectés. Ce sont des sujets intéressants, mais ce ne sont pas ceux qui génèrent le plus de valeur aujourd’hui dans le retail. 

 

Gartner, avec son “Artificial Intelligence Use-Case Prism”, propose un classement des technologies selon deux axes : la faisabilité et la valeur business. Tout en haut de la pyramide, on trouve l’optimisation des stocks, des assortiments, des promotions et des prix… Car c’est là que se trouve la plus grosse source de valeur pour le retail en ce moment. Qui plus est, il est possible de déployer les cas d’usage rapidement, parce que la data existe, elle est basique et facilement accessible : il s’agit des données points de vente, clients, produits. 

Sur ces enjeux d’optimisation, on peut déverrouiller rapidement des gisements de valeur, même si cela n’exclut évidemment pas la nécessité d’innover sur d’autres sujets.

 

 

Avant de déployer ou utiliser l’IA pour optimiser la prise de décision, quelles sont les limites à prendre en compte ?

 

Il faut déjà comprendre comment fonctionnent les modèles d’aide à la décision : ils essayent de reproduire nos processus de réflexion. En tant qu’humain, nous essayons d’abord d’avoir de se faire un avis sur le contexte actuel et passé, avant de projeter dessus un futur, avec différents scénarios. Une fois que nous avons les différentes options en tête, nous essayons de choisir la meilleure, en maximisant le bénéfice ou l’utilité, tout en prenant en compte les différentes contraintes. 

Avec la “decision intelligence”, on utilise des algorithmes qui améliorent - et potentiellement automatisent - les décisions, en reproduisant ce processus. Il s’agit donc d’entrainer un modèle de Machine Learning sur un contexte, puis de projeter le modèle dans le futur, avec différents scénarios, en faisant varier les paramètres -  par exemple en intégrant l’arrivée d’un concurrent, un changement de prix, une réduction de l’assortiment, une évolution de la mécanique promotionnelle, etc. La dernière étape, c’est de choisir les scénarios possibles, en prenant en compte les différentes contraintes - telles que les fournisseurs, la logistique, la législation, la stratégie de l’entreprise - et les objectifs - le plus souvent l’optimisation des marges, du CA, des volumes ou de l’empreinte carbone.

Différentes limites peuvent apparaitre à travers ces différentes étapes. En matière d’IA et de machine learning, il y a toujours des biais à prendre en compte, qui tiennent à la qualité de la donnée ou à leur nature même. Par exemple, dans la promotion, on a bien plus d’historiques sur des opérations à -10% ou -20% qu’à -50%, car elles sont plus fréquentes. Si on ne retraite pas ces données, l’algorithme va en conclure que le -50% fonctionne moins bien. Des biais comme celui-ci, il y en a plein. 

Une autre limite tient à la difficulté de modéliser certaines contraintes. Souvent, elles sont connues des équipes métier, mais elles n’ont pas été intégrées au modèle, et l’algorithme peut se trouver à faire des suggestions sous-optimales. Mais cette limite peut être levée progressivement, en donnant la main à l’utilisateur.

 

 

Quel est l’impact de l’arrivée des modèles de type GPT ou LLM sur ce type d’outils d’aide à la décision ?


Ce sont avant tout des opportunités pour améliorer l’expérience utilisateur de ces outils. Ce qui manque à l’IA, c’est la capacité à interagir avec nous de manière humaine. Jusqu’à présent l’explicabilité des décisions se traduisait par un détail des variables sélectionnées par l’algorithme, alors qu’en tant qu’humain, nous aurions plutôt besoin d’une argumentation… Il faut donc développer des machines capables de justifier leurs recommandations et de les présenter de manière intelligible par un humain. Les LLM sont des outils parfaits pour cela : ils permettent par exemple de justifier tel choix en matière de stock ou de prix de façon facilement compréhensible.

En parallèle, de nouveaux types de GPT se développent pour faciliter le traitement des données. Ils peuvent notamment étudier des jeux de données afin de produire des analyses qui se rapprochent de celles qu’un data scientist pourrait faire. Ces outils vont être de plus en plus utilisés, notamment pour identifier des incohérences dans les jeux de données. En matière de données, d’ailleurs, des tâches chronophages et répétitives dans le scrapping, le nettoyage ou le tri peuvent également être automatisées grâce aux LLM. 

 

Quels sont les points d’attention pour les entreprises en matière d’IA générative ?

 

Les sujets sont nombreux ! Mais l’un des plus importants va être celui des droits de propriété, aussi bien pour les données utilisées d’entrée, utilisées dans les phases d’entrainement et pour interroger les modèles, que celles en sortie, générées par les modèles. Il y a encore de grandes entreprises qui fournissent à ChatGPT des informations confidentielles ou sensibles… Cela ne va pas durer ! L’enjeu est désormais d’internaliser les modèles, pour avoir des outils performants, propriétaires et privés. Par exemple, chez Verteego, jamais nous ne pourrions utiliser GPT-4 pour l’explicabilité des décisions de notre outil : impossible de fournir à OpenAI les données de nos clients, il faut donc que nous trouvions un moyen le faire sur nos propres serveurs.

 

Au-delà de l’IA générative, quelles sont les tendances et évolutions de l’IA que vous regardez de près pour les prochaines années ?

 

Les jeux vidéo nous apportent des pistes intéressantes : avec le “réinforcement learning”, on a appris aux IA à comprendre les jeux, jusqu’à atteindre le niveau de joueurs humains, même dans des univers très complexes. Ces modèles vont totalement changer le fonctionnement des logiciels. D’ici quelque temps, l’IA va apprendre à paramétrer et utiliser des outils. 

Par exemple, à l’heure actuelle, on configure manuellement des dashboards ou des ERP. Demain, tout cela pourra être réalisé de manière autonome par des IA qui connaissent le fonctionnement de chaque outil. Dans un environnement bien cadré, avec des objectifs précis, ces systèmes basés sur le “reinforcement learning” peuvent dépasser l’humain pour de nombreuses tâches, ce qui va forcément changer la donne dans beaucoup de domaines.


 Propos recueillis par Benoit Zante pour Bonial. 

Benoit Zante
Benoit Zante