Comment l’IA générative peut améliorer l’analyse des données textuelles dans le retail ?

L’analyse des données est au cœur de la digitalisation du retail. Or, le développement des LLM (Large Language Models) et de l’IA générative ouvre de nouvelles perspectives pour l’exploitation des données textuelles.

Depuis quelques années, les retailers ont pris conscience de l’intérêt stratégique des données qu’eux-mêmes et leurs clients génèrent. Ils comprennent qu’ils peuvent transformer ces données en informations utiles et actionnables pour optimiser leurs process et mieux servir les clients. 

Néanmoins, en pratique, la nécessité d’analyser les données en profondeur se heurtait encore à des obstacles opérationnels difficiles à surmonter. 

Le développement de nouveaux modèles facilite l’interprétation des données textuelles et la rend aussi bien plus accessible.

Pourquoi l’analyse des données textuelles est un enjeu clé pour les retailers ?

Dans la plupart des verticales du retail, la concurrence est exacerbée. Aux acteurs traditionnels se sont ajoutés des pure players du web qui élargissent le périmètre concurrentiel. La concurrence se décline désormais sur plusieurs fronts (en ligne, en magasin) à mesure que les stratégies deviennent omnicanales.

Pour rester compétitif, il faut donc :

  • Rester en phase avec les besoins et les attentes des consommateurs
  • Comprendre les évolutions de son marché
  • Optimiser ses prises de décisions et ses process

L’analyse des données internes et externes est une réponse à ces enjeux. Elle facilite la prise de décision stratégique. Elle aide aussi les retailers à mieux se situer par rapport à leur environnement (clients, concurrents, …).

En particulier, les données textuelles fournissent des éléments de connaissance client et/ou de benchmark. Les acteurs qui s’approprient le sujet s’offrent ainsi un avantage concurrentiel.

Voici quelques exemples d’usages qui illustrent l’importance de l’analyse des données textuelles :

  • Compréhension des besoins et des préférences des clients : Les données textuelles (avis clients, avis produits, …) fournissent des informations sur les expériences et le ressenti des clients vis-à-vis de leurs produits et services. L’analyse de ces données aident les retailers à mieux comprendre ce qui motive leurs clients, ce qu’ils apprécient et ce qu’ils critiquent, et ajuster leur offre et leur stratégie en conséquence.
  • Détection des tendances émergentes : les retailers peuvent analyser les conversations en ligne, les commentaires sur les réseaux sociaux et les avis clients pour détecter rapidement les changements de comportement des consommateurs et s’adapter aux nouvelles tendances.
  • Gestion de l’e-réputation : L’analyse des avis clients et des commentaires social media permet aux retailers de suivre leur réputation en ligne et de mettre en place des actions pour l’optimiser.
  • Matching produits : Vous pouvez aussi analyser les données textuelles pour identifier, dans des assortiments, des produits identiques ou similaires à partir de leurs intitulés.

Les principaux freins à l’analyse des données textuelles

L’intérêt de l’analyse des données textuelles est évident. Mais plusieurs obstacles rendaient difficile ce travail.

En premier lieu, l’analyse sémantique est surtout intéressante pour analyser des jeux de données assez conséquents. Si un retailer décide par exemple d’analyser des avis produits, il va le faire sur l’ensemble des avis dont il dispose et, potentiellement, au moins sur une sélection de produits stratégiques. Il faudra donc analyser de larges jeux de données. Or, jusqu’à l’émergence des LLM, analyser de vastes jeux de données s’avérait à la fois fastidieux et beaucoup plus coûteux.

Le deuxième obstacle réside dans la capacité d’appréciation du contexte et de la sémantique des mots. Si vous utilisez un modèle basique pour résumer des avis, vous pouvez isoler des mots-clés. Mais, à moins d’aller retrouver les avis et de vérifier le contexte, vous ne savez pas si ces mots sont utilisés positivement ou négativement. La démarche perd donc de son intérêt. A noter qu’il est possible sans les LLM, des modèles tels que BERT et dans une moindre mesure Doc2Vec, sont en capacité de « comprendre » le contexte d’un corpus.

Le troisième obstacle est directement lié aux limites des modèles. Les modèles traditionnels ne savaient pas bien gérer les fautes d’orthographe. Or, beaucoup d’avis présentent des fautes ou une syntaxe proche de l’oralité, ce qui complexifie encore plus l’appréciation du contexte ou encore une analyse de l’occurrence des mots présents dans les avis. Là encore c’est tout à fait faisable sans LLM, soit via un prétraitement (distance de levenshtein) ou par l’emploi de modèles type Word2Vecs qui contiennent souvent des erreurs apprises dans leurs corpus d’entraînement ou encore des modèles tel que BERT qui tokenize les mots et donc sont moins sujet à ce souci.

Enfin la gestion des langues constituait un autre obstacle. Si une grande partie des avis ne sont pas rédigés en Français, comment les interpréter ? La plupart des modèles pré-entrainés sont monolingues (ou efficaces uniquement en anglais). Pour pallier ce problème, il est possible d’utiliser un modèle de détection de la langue pour récupérer uniquement les avis rédigés en Français. Mais comment, dans ce cas, réaliser une analyse sur des avis multilingues ?

La plupart de ces problématiques agrègent des complexités techniques importantes. Il aurait donc été très complexe et chronophage (voire impossible, dans certains cas) de réaliser des résumés d’avis clients avec du machine learning, en assurant un temps de réponse correct et des résultats cohérents et clairs.

donnees-textuelles-ia-generative

Pourquoi les LLM changent la donne en matière d’interprétation des données textuelles ?

Les LLM, de type ChatGPT sont des « game-changers » en matière de NLP (Natural Language Processing). Ils facilitent l’accès à l’interprétation des données textuelles et en optimisent largement les performances.

En effet, les LLM lèvent presque tous les freins que nous avons listés précédemment.

Un LLM de type chatGPT est entraîné sur une masse de données énorme. Cet entraînement le rend capable de “comprendre” le contexte dans lequel les mots sont employés, les nuances, un sarcasme basique, … Or, toutes ces « subtilités » restaient difficilement surmontables pour les modèles de machine learning traditionnels, ou alors nécessitent une intervention humaine et donc, des coûts prohibitifs.

Désormais, la détection des langues n’est plus un obstacle pour les nouveaux modèles (en fonction des “données d’entraînement” traitées). Il est possible de les entraîner avec des jeux de données multilingues. Il n’est donc plus nécessaire de filtrer les avis par langue avant analyse. Les solutions basées sur des LLM comprennent aussi très bien les mots avec des fautes d’orthographe et sont capables de les réconcilier selon le contexte.

Outre le dépassement de ces obstacles traditionnels, les LLM présentent d’autres bénéfices.

Il est possible de « configurer » une IA conversationnelle en lui donnant un prompt afin qu’elle effectue des tâches précises, par exemple : résumer des avis clients. Le prompt permet de donner au modèle des instructions très précises sur vos attentes : langue, format de réponse, … Vous pouvez aussi imaginer de lui demander une autre tâche que celle-ci. Les cas d’usage sont donc presque infinis.

contraintes-llm-ia-generative

Quelles contraintes à l’utilisation des LLM dans l’exploitation des données sémantiques ?

Les LLM présentent de nombreux atouts pour aider les retailers à tirer profit des données textuelles. 

Mais leur utilisation en ce sens s’accompagne aussi de quelques contraintes, comme :

  • Le poids des modèles : il peut varier entre 5 et 120 GB en fonction de la complexité du modèle et de son architecture et du besoin de RAM soit de VRAM (les modèles devant être chargés dedans). En soit, 120GB ce n’est plus une taille prohibitive pour des disques durs.
  • Le temps de calcul : avec du matériel « conventionnel », le temps de calcul explose en utilisant des modèles aussi lourds

D’un point de vue technique, il existe des parades pour dépasser ces contraintes :

  • Au niveau logiciel, il est possible de « compresser » le modèle sans baisser sensiblement ses performances. Il est aussi possible d’utiliser des librairies (compilées en C++ dans notre cas) optimisées spécialement pour les calculs matriciels.
  • Au niveau matériel, des processeurs graphiques (GPU) de haute gamme spécialement conçus pour réaliser un grand nombre de tâches en parallèle permettent d’accélérer considérablement les temps de réponse.

Libérée des principaux freins à son utilisation, l’analyse des données textuelles devrait devenir partie intégrante de la panoplie des solutions analytiques des retailers. 

En effet, ses bénéfices sont clairs. 

Elle aide les acteurs du secteur à mieux comprendre le ressenti et les besoins des clients, à comparer les avis des clients sur différents produits. Par conséquent, vous pouvez l’utiliser pour obtenir des informations actionnables pour optimiser votre assortiment, vos prix, …

L’avènement des LLM et de l’IA générative simplifie et amplifie cette analyse. Elle devient désormais à la fois plus accessible et plus pertinente avec les nouveaux modèles. A l’instar de l’intégration croissante de la data et de l’IA dans les processus décisionnels, les LLM offrent de nouvelles clés de compréhension et d’action aux retailers.

Gestion des stocks

  • Optimisation des stocks : L’IA analyse les données historiques et en temps réel pour déterminer les niveaux de stock idéaux. Cela permet de minimiser les coûts liés aux excès de stock tout en évitant les ruptures de stock.
  • Prévision de la demande : En utilisant des algorithmes avancés, l’IA peut prévoir les tendances de consommation et ajuster les niveaux de stock en conséquence. Cela est particulièrement utile pour les produits saisonniers ou les articles à forte demande.
  • Réapprovisionnement automatisé : L’IA peut déclencher automatiquement des commandes de réapprovisionnement lorsque les stocks atteignent un certain seuil, assurant ainsi une disponibilité continue des produits.

Analyses prédictives

  • Anticipation des tendances : Grâce à l’analyse de grandes quantités de données provenant de diverses sources (ventes passées, comportements des clients, tendances du marché), l’IA peut identifier les tendances émergentes et aider les détaillants à prendre des décisions informées.
  • Personnalisation de l’offre : En comprenant mieux les préférences des clients, les détaillants peuvent adapter leur offre et leurs promotions de manière plus ciblée, augmentant ainsi les ventes et la satisfaction client.
  • Optimisation des prix : Les algorithmes d’IA peuvent analyser les données de marché et ajuster les prix en temps réel pour maximiser les marges tout en restant compétitifs.

Un grand merci à Siegfried Delannoy et Lucas Duleu, tous deux data scientists, pour leur précieux temps et leur contribution essentielle à nos échanges, qui ont permis d’enrichir la rédaction de cet article.

Recevez nos Newsletters métiers :

Articles récents :

Actualités métiers

Plongez au cœur de l’ actualité du Pricing et de la Supply Chain !

Découvrez nos actualités liées au Pricing et à la Supply Chain