MARGO

Actualité

Salon Big Data : les neurosciences au service de la connaissance client

Retour d'expérience Data Marketing et BtoC

Par Joshua Mifsud Consultant DataScientist chez Margo

27/03/2018

Les Margos étaient présents sur le salon Big Data organisé les 12 et 13 mars derniers à Paris. Découvrez notre retour sur la conférence « Facial Coding : détecter les émotions pour tester de manière objective l’appétence des clients pour un produit. » avec les interventions de Laurent Bliaut – Directeur Général Adjoint Marketing et R&D pour le Groupe TF1 et d’Anne-Marie Gaultier – présidente Datakalab.

Datakalab est une entreprise de la « brainTech » spécialisée dans le conseil en marketing. Son objectif est d’analyser les émotions d’un consommateur en réaction  à une publicité ou à un programme télévisuel dans le but de fournir des KPIs et d’améliorer la communication autour d’un produit. Le projet est basé sur un croisement des théories de neurosciences, de la computer vision et du Deep Learning.

Aujourd’hui, les data transactionnelles ou digitales ne permettent pas de comprendre clairement les motivations et les actions des clients et individus. Pour Laurent Bliaut et Anne-Marie Gaultier, 90 % des actions et des décisions d’achat sont conduites par les émotions. De plus, dans le milieu audiovisuel, l’émotion est en général fortement corrélée avec l’engagement du consommateur.

Une autre approche consiste à cartographier les émotions d’un consommateur sur un lieu, par exemple dans un magasin, où il est possible de tester différents agencements et leurs impacts sur l’émotion du consommateur. De même, Datakalab a évalué le bien-être des clients d’un hôtel en fonction des différents endroits où ils se situaient au sein du complexe.

Afin de classifier l’émotion d’une personne, 3 outils sont utilisés chez Datakalab :

  • Un bracelet connecté permettant de mesurer le rythme cardiaque, la micro-sudation ou encore la température, pour récupérer les caractéristiques d’une émotion.
  • Le Voice stress Test : pour caractériser l’humeur d’une personne en étudiant les nuances de sa voix
  • Le facial coding, basé sur la détection des micro-expressions du visage (commissures des lèvres, sourcils qui montent/descendent, narines resserrées), il en existe 42 au total ! Autant de caractéristiques qui peuvent être envoyées en entrée d’un réseau de neurones profonds.

facial Coding Datakalab

Les études démontrent qu’il y a une réelle différence entre l’émotion que l’on distingue automatiquement et celle que déclare l’individu, d’où la nécessité d’effectuer des sondages de façon automatique (à l’inverse des sondages déclaratifs) pour avoir une approche plus fine des performances d’une publicité ou d’un programme.

Cette classification des émotions utilise des réseaux de neurones récurrents (LSTM), bien que les intervenants aient été plutôt évasifs face à cette question. De même,aucun résultat n’a été donné sur les performances des algorithmes de classification.

Perspectives d’utilisation dans le secteur du retail :

L’exploitation des données liées aux sentiments et émotions d’un consommateur en est encore à ses balbutiements. Pour autant, le marché grimpe en flèche avec un chiffre d’affaires qui devrait doubler d’ici deux ans pour les éditeurs de logiciels de classification d’émotions.

Les perspectives sont nombreuses dans le secteur du retail. Pour les marketers, c’est un outil qui permettrait de tester un nouveau packaging (que ce soit dans l’alimentaire, la mode ou le luxe) afin de prévoir son impact émotionnel sur le consommateur. Sur un point de vente, il serait possible d’améliorer l’expérience client en détectant rapidement la confusion chez un consommateur qui fronce les sourcils. Une alerte pourrait être envoyée automatiquement à un employé qui viendrait alors à son aide.  Les plateformes de ventes en ligne pourrait également utiliser cet outil pour revoir le design d’un site et l’expérience utilisateur (UX).

C’est un procédé qui est bien moins onéreux qu’un sondage classique et qui se révèle plus efficace, en dévoilant des traits inconscients de l’humain.


Par Joshua Mifsud Consultant DataScientist chez Margo
Big Data
Data
DataScience
Deep Learning
Actualité

La Data Science appliquée au monde du retail : les 10 use-cases incontournables

La Data Science impacte de plus en plus les business model dans toutes les industries, et notamment dans la vente de détail. Selon IBM, 62% des détaillants déclarent que l'utilisation de techniques relatives au Big Data leur donne un sérieux avantage compétitif. Savoir ce que veut votre client et à quel moment est aujourd’hui à portée de main grâce à la data science. Pour cela il suffit d’avoir les bons outils et les bons processus en place pour les utiliser. Nous présentons dans cet article 10 applications essentielles de la data science au domaine du retail.

18/05/2018 Découvrir 
Actualité

Introduction aux Chatbots avec Dialogflow

DialogFlow est un très bon outil pour apprendre à créer des Chatbots qui pourront ensuite être intégrés dans vos propres sites web ou applications. Dans cet article, je commencerai par introduire quelques notions sur Dialogflow et les Chatbots, puis je vous expliquerai comment créer simplement un Chatbot sur cette plateforme.

07/05/2018 Découvrir 
Actualité

Introduction aux systèmes réactifs

Les systèmes réactifs sont un style d’architecture permettant à de multiples applications individuelles de se fondre en une seule unité, en réagissant à leur environnement, tout en restant conscientes les unes des autres. La première formalisation de ce terme a vu le jour avec la création du « Reactive Manifesto » en 2013 par Jonas Boner qui, en rassemblant certains des esprits les plus brillants dans l’industrie des systèmes distribués, souhaitait clarifier la confusion autour de la réactivité (qui est devenu un « buzz-word ») et construire une base solide pour un style de développement viable.

04/05/2018 Découvrir 
Actualité

Mise en place d'une plateforme centralisée de gestion des logs avec la suite Elastic

Les cas d’usage de la suite elastic sont nombreux. Nous citons à titre d’exemple la correction d’un dysfonctionnement applicatif par la récupération des erreurs explicites (exception, message d’erreur ..etc) et le suivi de la charge d’une application (mémoire consommée, CPU ..etc), ce qui permet d’avoir une vision globale de la production. De même au niveau métier, il est possible d’exploiter la suite pour valider une chaîne de workflow par l’extraction des données spécifiques et leurs analyses.

04/05/2018 Découvrir 
Actualité

Introduction à TensorFlow sur le datalab de Google Cloud Platform

TensorFlow est une librairie logicielle, open source depuis 2015, de calcul numérique développée par Google. Dans ce mini-tutoriel, nous allons vous apprendre comment utiliser datalab sur GCP et écrire votre premier programme en TensorFlow.

04/05/2018 Découvrir 
Actualité

Les horloges de Lamport et le pattern de l’Idempotent Producer (Kafka)

Connaissez-vous les horloges de Lamport ? Devoxx France 2018 était l’occasion, lors du très intéressant talk de DuyHai DOAN, de découvrir ou redécouvrir cet algorithme formalisé par Leslie Lamport en 1978, plus que jamais utilisé aujourd’hui dans le domaine des systèmes distribués, et qui aurait notamment inspiré les développeurs de Kafka dans l’implémentation du pattern de l’Idempotent Producer.

26/04/2018 Découvrir