MARGO

Actualité

Mener à bien un projet data : une route encore semée d’embûches

Zoom sur les écueils récurrents à éviter pour réussir ses projets data

Par Pierre Farès Digital Offering & Business Transformation Officer @pierrefares

15/10/2018

Les entreprises se doivent de créer des produits innovants et adaptés aux usages de leur clientèle de façon beaucoup plus régulière et accélérée. C’est en effet aujourd’hui le principal vecteur pour conserver ou accroître ses parts de marché dans un contexte économique en perpétuel mouvement. L’analyse poussée des données du marché et des comportements des consommateurs rend possible l’anticipation des besoins futurs. Ainsi tournée vers l’identification des usages du futur, attendus par la clientèle ou en rupture avec le marché, une entreprise pourra prendre les meilleures décisions opérationnelles pour définir sa stratégie et se positionner dans son segment de marché. L’analyse de la data devient donc plus que jamais un important moteur de croissance. En 2020, les investissements des entreprises dans les projets data devraient dépasser les 203 milliards de dollars au niveau mondial. Mais à l’heure où beaucoup se revendiquent être des Data Driven Companies, nombre de projets data se soldent encore par un échec. Or, ces différents échecs sont, pour la plupart, dus à des causes redondantes et bien connues ! Zoom sur les écueils récurrents qu’il est essentiel d’éviter.

 

 

Une approche exclusivement orientée sur la technologie

Beaucoup de projets data se concentrent sur la mise en œuvre de solutions technologiques (Data Lake, installation de clusters Hadoop, utilisation de base de données NoSQL…) sans même se préoccuper de leur finalité, à savoir les besoins ou usages auxquels ils peuvent être prédestinés. Les investissements sont, de fait, centrés sur l’IT et non sur les métiers et engendrent peu d’apports business. Tous ces projets ne se font pas forcément à fond perdu puisqu’ils contribuent au moins à la montée en compétences technologiques des équipes IT et de la DSI, mais ils apportent peu de valeur à l’échelle de l’entreprise.

 

Des résultats construits sur des modèles non-industrialisables

Les Data Scientists disposent des connaissances nécessaires en matière de modèles (analyse prédictive, machine learning, etc.) mais ont généralement une faible expérience en termes de développement, notamment en environnement industriel. Les scripts qu’ils fournissent sont régulièrement peu exploitables par les équipes IT. Coté IT, si les équipes maitrisent les aspects d’industrialisation, elles rencontrent certaines difficultés dans la compréhension des rouages et des séquencements des modèles proposés par les Data Scientists, dont elles n’appréhendent pas toujours toutes les contraintes. La plupart des initiatives data se concluent ainsi par des résultats inadaptés et peu exploitables, tant pour l’analyse de la donnée que pour le déploiement des cas d’usages traités. Concevoir des méthodes industrielles et automatisables nécessite un apprentissage conjoint, tant pour le département IT que pour l’équipe Data Science. C’est un préalable à la généralisation de déploiements efficaces.

 


Concevoir des méthodes industrielles et automatisables nécessite un apprentissage conjoint, tant pour le département IT que pour l'équipe Data Science. C'est un préalable à la généralisation de déploiements efficaces.

Un manque de prise de recul, d’analyse et de préparation de l’entreprise

Les entreprises mettant en place des projets data font souvent l’hypothèse que les modèles et les démarches à mettre en œuvre seront analogues à ceux qu’elles connaissent déjà avec les projets de Business Intelligence, en pensant finalement qu’il n’y a que la technologie et les outils qui changent. Cela les pousse à conserver la même organisation et les mêmes rythmes de conception que ceux de leurs projets historiques. Or la data science est une discipline basée sur une approche prospective, avec des étapes d’exploration et de tâtonnement. Il n’est pas possible aujourd’hui de porter un projet comme nous le faisions il y a une dizaine d’années, sur la base d’études prédéterminées, sans phase de découverte et en ne faisant pas collaborer conjointement métier, Data Scientists et IT. […]

 

Une faible collaboration due aux différences culturelles en interne
Une organisation non mobilisée
Initiative complexe

 

 Découvrez l’article dans son intégralité sur La Tribune : Mener à bien un projet data, une route encore semée d’embûches.
Par Pierre Farès Digital Offering & Business Transformation Officer @pierrefares
Big Data
Data
Data to Business
Actualité

Tutoriel : Quelques bases en python pour la prédiction de séries temporelles

Dans ce tutoriel, nous introduisons quelques concepts élémentaires en séries temporelles afin de pouvoir effectuer “rapidement” des prédictions de valeurs futures sur des données temporelles. Loin d’être exhaustif, ce premier tutoriel présente quelques outils de base en Python permettant d’effectuer de premiers traitements. Le code permettant de retrouver ces résultats est ici : https://gitlab.com/margo-group/public/SeriesTemporelles.

11/09/2018 Découvrir 
Communiqué de presse

Margo prévoit 200 recrutements d’ici fin 2019

Margo, société de conseil française créée en 2005, annonce l’ouverture au recrutement de 40 postes supplémentaires d’ici la fin de l’année 2018. Historiquement spécialisée en IT et finance de marché, l’entreprise, qui a fait évoluer son business model afin d’adresser désormais tous les secteurs d’activité concernés par les avantages concurrentiels portés par la transformation digitale, compte déjà plus de 300 collaborateurs en France, mais aussi en Pologne et en Angleterre. Poursuivant sa forte dynamique de croissance, elle ambitionne également d’augmenter ses effectifs sur l’année 2019 grâce au recrutement de 160 nouveaux collaborateurs.

10/09/2018 Découvrir 
Actualité

Kaggle Challenge : Ad Tracking fraud detection pour TalkingData

TalkingData est la plus grande plateforme indépendante de services Big Data en Chine, couvrant plus de 70% des appareils mobiles actifs dans tout le pays. Ils traitent 3 milliards de clics par jour, dont 90% sont potentiellement frauduleux. Afin de garder une longueur d'avance sur les fraudeurs, ils se sont tournés vers la communauté Kaggle pour obtenir de l'aide dans le développement de leur solution. Le sujet du challenge : créer un algorithme qui prédit si un utilisateur va télécharger une application après avoir cliqué sur une annonce d'application mobile.

31/05/2018 Découvrir 
Actualité

La Data Science appliquée au monde du retail : les 10 use-cases incontournables

La Data Science impacte de plus en plus les business model dans toutes les industries, et notamment dans la vente de détail. Selon IBM, 62% des détaillants déclarent que l'utilisation de techniques relatives au Big Data leur donne un sérieux avantage compétitif. Savoir ce que veut votre client et à quel moment est aujourd’hui à portée de main grâce à la data science. Pour cela il suffit d’avoir les bons outils et les bons processus en place pour les utiliser. Nous présentons dans cet article 10 applications essentielles de la data science au domaine du retail.

18/05/2018 Découvrir 
Actualité

Introduction aux systèmes réactifs

Les systèmes réactifs sont un style d’architecture permettant à de multiples applications individuelles de se fondre en une seule unité, en réagissant à leur environnement, tout en restant conscientes les unes des autres. La première formalisation de ce terme a vu le jour avec la création du « Reactive Manifesto » en 2013 par Jonas Boner qui, en rassemblant certains des esprits les plus brillants dans l’industrie des systèmes distribués, souhaitait clarifier la confusion autour de la réactivité (qui est devenu un « buzz-word ») et construire une base solide pour un style de développement viable.

04/05/2018 Découvrir 
Actualité

Mise en place d'une plateforme centralisée de gestion des logs avec la suite Elastic

Les cas d’usage de la suite elastic sont nombreux. Nous citons à titre d’exemple la correction d’un dysfonctionnement applicatif par la récupération des erreurs explicites (exception, message d’erreur ..etc) et le suivi de la charge d’une application (mémoire consommée, CPU ..etc), ce qui permet d’avoir une vision globale de la production. De même au niveau métier, il est possible d’exploiter la suite pour valider une chaîne de workflow par l’extraction des données spécifiques et leurs analyses.

04/05/2018 Découvrir