Les années 2010 ont vu l’essor des algorithmes de machine learning appliqués aux systèmes de recommandation. Ces algorithmes, apparus dès la fin des années 50, ont bénéficié des avancées technologiques et de la puissance de calcul. Ils utilisent des données massives pour identifier des patterns complexes dans les comportements d’achat et les préférences des utilisateurs. Ces avancées ont permis de passer d’approches basiques à des systèmes capables de proposer des recommandations plus personnalisées et dynamiques.
L’apport des réseaux de neurone pour la finesse d’analyse
Les réseaux de neurones, par exemple, ont révolutionné la personnalisation. Ils ont permis aux moteurs de comprendre des préférences complexes et abstraites. Grâce au deep learning, ces systèmes capturent des corrélations non linéaires/ Ils détectent des interactions plus subtiles entre les attributs produit et les comportements utilisateur. Les réseaux de neurones peuvent également intégrer divers types de données. Y compris les données de navigation, les avis des utilisateurs, et les interactions sociales. Cela leur permet de créer des modèles de recommandation holistiques et précis. Mais leur complexité leur interdit en pratique de travailler en temps réel.
La factorisation matricielle pour répondre à la sparsité de de données
Les modèles de factorisation matricielle, quant à eux, ont permis d’améliorer la précision des recommandations en décomposant les matrices utilisateur-produit en facteurs latents. Ces facteurs représentent les dimensions sous-jacentes des préférences des utilisateurs et des caractéristiques des produits. Ces modèles projettent utilisateurs et produits dans un espace latent pour anticiper les préférences, même sur des produits jamais évalués. Ils se fondent pour cela sur des similarités latentes. Cette technique a été utilisée pour traiter le problème de la sparsité des données (la situation où une grande partie des données disponibles est constituée de valeurs manquantes, de zéros ou de valeurs non informatives), commun dans les systèmes de recommandation.
Le clustering, pour un peu plus de pertinence
Les algorithmes de clustering ont également joué un rôle crucial dans l’amélioration des systèmes de recommandation. Ils regroupent les utilisateurs en clusters basés sur des similarités comportementales. Les systèmes peuvent alors fournir des recommandations plus ciblées et pertinentes pour chaque segment de clientèle. Par exemple, un cluster de clients qui achètent fréquemment des articles de sport recevra des recommandations différentes de celles d’un cluster intéressé par des produits de luxe. Cette segmentation améliore la personnalisation, l’engagement et la satisfaction. Elle agit à un niveau un peu plus granulaire.
Amazon et Netflix ont été parmi les pionniers de l’application du machine learning aux systèmes de recommandation. Amazon analyse des millions de transactions via le machine learning. Résultat : des recommandations produits d’une précision remarquable. Netflix, quant à lui, utilise des algorithmes pour analyser les habitudes de visionnage et les préférences des utilisateurs. Et offre ainsi des suggestions de films et de séries personnalisées qui maintiennent un haut niveau d’engagement.
Le machine learning face au cold start
Le machine learning a permis de limiter légèrement les effets du cold start problem grâce essentiellement à deux techniques: l’apprentissage par transfert et la factorisation matricielle:
- dans l’apprentissage par transfert, les modèles sont pré-entraînés sur des ensembles de données larges et diversifiés provenant de domaines similaires. Par exemple, un modèle de recommandation de films peut être pré-entraîné sur une vaste base de données de préférences de visionnage. Les préférences apprises dans un domaine source sont transférées vers la nouvelle tâche. Par exemple, les préférences de genre peuvent être réutilisées sur une autre plateforme. Cela pose bien évidemment d’importants problèmes de pertinence essentiellement dûes:
- A la divergence de domaines. Lorsque les domaines diffèrent trop, les connaissances transférées perdent en pertinence.
-
- A la suradaptation. Risque que le modèle soit trop ajusté aux données du (des) domaine(s) source.
- Biais hérités. Les biais présents dans les données du domaine source peuvent être transférés au domaine cible, ce qui pourrait affecter la pertinence et l’équité des recommandations.
- dans la factorisation matricielle, plusieurs techniques peuvent être utilisées:
- Utilisation de métadonnées. Enrichissement avec des métadonnées sur les utilisateurs et les items. Par exemple, les informations démographiques des utilisateurs (âge, sexe, localisation) et les attributs des items (genre d’un film, catégorie d’un produit) peuvent être intégrées dans le modèle.
- Factorisation conjointe (Hybrid Methods). Combinaisons avec des méthodes de filtrage de contenu ou de filtrage collaboratif pour créer des modèles hybrides.
- Incorporation de Bias Terms. Les modèles de factorisation matricielle peuvent inclure des termes de biais pour capturer les effets globaux tels que la popularité des items et les tendances générales des utilisateurs.
Des inconvénients disqualifiants
Les inconvénients de la factorisation matricielle sont nombreux et viennent pénaliser la pertinence des recommandations:
- Difficulté à comprendre la nouveauté (qu’il s’agisse de nouveaux utilisateurs ou de nouveaux produits) du fait qu’elle repose sur les interactions passées entre utilisateurs et items.
- Sparse Data: dans les systèmes très peu renseignés, le faible nombre d’interactions par rapport au total possible produit des matrices incomplètes. Cela mène à des recommandations de faible qualité.
- Coût computationnel : la factorisation matricielle, en particulier sur des ensembles de données volumineux, nécessite des calculs intensifs pour décomposer les matrices. Ce processus est coûteux en temps et en ressources, surtout sur de très grandes bases. Conclusion: la technique n’est que très faiblement utilisée par les prestataires.
- Scalabilité : à mesure que le nombre d’utilisateurs et d’items augmente, la taille des matrices à factoriser augmente également, ce qui peut rendre les algorithmes de factorisation moins scalables. Lors d’un A/B test de NetUp sur un site leader en France face à un système américain de machine learning qui avait mal tourné lors d’un 1° “round” – +392% de surperformance pour NetUp – le prestataire américain avait demandé à actualiser son modèle pour refaire un A/B test. Résultat: 2 semaines de computation. Et à l’arrivée un résultat encore meilleur pour NetUp: +395% de surperformance.
- Ajustement des hyperparamètres : la performance des modèles de factorisation matricielle dépend fortement du choix des hyperparamètres, tels que le nombre de facteurs latents. Trouver les bonnes valeurs pour ces hyperparamètres peut être compliqué et nécessite souvent des essais et erreurs. Dont le site marchand paie le prix, bien entendu.
- Et bien d’autres obstacles viennent pénaliser la pertinence d’une factorisation matricielle: convergence lente, local minima, abstraction des facteurs latents, overfiiting,, manque de données implicites…
Conclusion
L’application des algorithmes de machine learning a conduit à des systèmes de recommandation plus sophistiqués et précis. Ces systèmes peuvent également évoluer de manière autonome, s’améliorant continuellement à mesure qu’ils reçoivent de nouvelles données et qu’une actualisation est lancée. Cette capacité à apprendre et à s’adapter est essentielle dans un environnement e-commerce dynamique où les attentes des clients évoluent constamment. Encore faut-il que les modèles soient actualisés…
Au final, l’impact des algorithmes de machine learning sur les systèmes de recommandation a été profond et transformateur. En exploitant la puissance des données massives et des techniques avancées de machine learning, les entreprises peuvent offrir des expériences de recommandation qui non seulement répondent mieux aux besoins actuels des utilisateurs mais essaient d’anticiper leurs futures préférences. Ils sont d’ailleurs plus adaptés, par nature, à cette seconde fonction qu’à la première. Cette évolution marque une étape clé dans l’histoire de la recommandation produit. Elle ouvre la voie à des innovations plus poussées en personnalisation et engagement.
Mais, n’étant pas initialement conçus pour prendre des décisions – et faire une recommandation c’est prendre une décision -, ils comportent de lourdes limites. A voir dans le prochain article de notre blog, mardi prochain.
Apprenez en plus sur NetUp et sa technologie d’IA Inductive
- les solutions
- la technologie
- les fonctionnalités Recommandation produit
- les fonctionnalités E-merchandising
Découvrez quelques cas clients NetUp
Comment Morrisons a augmenté de 55% son taux de clic sur ses bannières de recommandation
Découvrez comment Top Office a augementé son CA/ visite de 67%
Comprendre comment Don’t Call Me Jennyfer au augmenté de 19% son revenu par visite
Et pour aller plus loin, téléchargez notre E-commerce Trends#2
Les 6 grandes ruptures technologiques du e-merchandising
🔍 Pourquoi les approches traditionnelles montrent leurs limites
⚙️ Comment les moteurs de tri deviennent dynamiques, intelligents et réactifs
📊 Les 6 grandes tendances technologiques à connaître absolument
Avec ce guide, vous aurez toutes les clés pour :
✅ Anticiper les évolutions technologiques
✅ Faire évoluer votre e-merchandising au rythme des attentes clients
✅ Transformer vos listes produits en leviers puissants de conversion
Et n’hésitez pas si vous avez d’autres questions: contact NetUp
FAQ
Pourquoi utiliser le machine learning pour la recommandation produit ?
Parce qu’il permet d’extraire automatiquement des patterns complexes dans les comportements utilisateurs, améliorant la pertinence des suggestions.
Quelle est la différence entre ML et IA inductive en personnalisation ?
Le ML apprend sur la base de grands volumes passés. L’IA inductive, comme celle de NetUp, agit en temps réel à partir de situations présentes, sans apprentissage préalable.
Quels sont les inconvénients du machine learning dans les moteurs de recommandation ?
Il souffre de lenteurs, de dépendance aux données historiques, de coûts de recalcul élevés et d’une incapacité à décider en temps réel.
Le machine learning résout-il le cold start problem ?
Partiellement, via des techniques comme le transfert learning ou l’ajout de métadonnées, mais cela induit des biais ou une pertinence affaiblie.
Pourquoi certains prestataires abandonnent la factorisation matricielle ?
À cause de son manque de scalabilité, du coût élevé de calcul, et de son incapacité à gérer efficacement des contextes neufs ou peu renseignés.
