MARGO

Actualité

Conférence Margo sur le Machine Learning

Conférence interne Machine Learning : Les Margos témoignent


06/12/2016

Nous nous sommes réunis le mercredi 16 novembre à #LaPiscine pour une conférence dédiée au Machine Learning, animée par Nathanaël. Un grand merci à lui pour ce bel événement enrichissant !

Et vous, qu’en avez-vous pensé ?

Kenji : La conférence Machine Learning était en soi une bonne occasion de rencontrer d’autres consultants et collègues intéressés par cette thématique sur une position ouverte aux discussions. […] cette rencontre fut un échange très enrichissant notamment sur les divers domaines d’application allant du médical à la finance.

L’état de l’art de ce qui se fait déjà dans l’industrie au niveau intelligence artificielle ou traitement d’image, par exemple, fut selon moi un point fort de cette conférence. Il faut noter aussi la présence de démos et la présentation des outils et plateforme les plus connues pour rentrer pleinement dans l’univers du Machine Learning.

En tant que consultant IT, il est indispensable de se montrer curieux et  de pouvoir continuer à apprendre au rythme de l’émergence des différentes technologies du numérique.  Dans un souci d’autoformation ainsi que de veille technologique, ce genre de conférence est un grand atout. Je remercie les intervenants et Margo pour ce moment.

Sabrina : Comme toujours, nous avons été très bien accueillis, et la soirée organisée par Margo était agréable et intéressante.

Le Machine Learning prend d’ores et déjà une énorme place dans notre vie de tous les jours, et il me paraissait important d’en apprendre plus sur le sujet.

Nathanaël nous en a fait une belle présentation, très détaillée, et très accessible, même pour ceux d’entre nous moins familiarisés avec ces notions.

Les explications sur les différentes techniques mises en œuvre pour trier les données étaient particulièrement marquantes. Notamment, le fait qu’il vaut mieux faire plusieurs modèles moins efficaces, qui mis ensemble donneront un découpage plus précis. Dans les autres informations qui m’ont interpellées, il y a également l’ingéniosité dont font preuve les participants lors des compétitions, lorsqu’il s’agit de comprendre les données en entrée pour mieux les exploiter.

Qu’est-ce qui vous a le plus marqué ?

Oumar : Ce sont les techniques de Machine Learning assez puissantes et qui ont toujours attiré ma curiosité.

Même si j’ai peu travaillé sur les réseaux de neurones, le principe ne me paraissait pas nouveau. En revanche, le Deep Learning, je n’en avais jamais fait donc c’était sympa de voir quelqu’un qui s’y connait vraiment parler de son historique, de ses principes et des exploits de cette technique de Machine Learning.

Michael : La conférence était passionnante. Je ne connaissais le sujet qu’en surface, et j’ai beaucoup appris. J’ai apprécié qu’il rentre dans le détail et présente des exemples.

On sentait qu’il était  passionné par son sujet, mais qu’il savait aussi prendre du recul par rapport aux applications pratiques du Machine Learning. J’ai aussi aimé qu’il montre les principaux écueils à éviter (comme l’importance de garder un bon ratio nombre d’observations/ nombre de features).


Data
Machine Learning
Actualité

Mener à bien un projet data : une route encore semée d'embûches

En 2020, les investissements des entreprises dans les projets data devraient dépasser les 203 milliards de dollars au niveau mondial. Mais à l'heure où beaucoup se revendiquent être des Data Driven Companies, nombre de projets data se soldent encore par un échec.

15/10/2018 Découvrir 
Actualité

Kaggle Challenge : Ad Tracking fraud detection pour TalkingData

TalkingData est la plus grande plateforme indépendante de services Big Data en Chine, couvrant plus de 70% des appareils mobiles actifs dans tout le pays. Ils traitent 3 milliards de clics par jour, dont 90% sont potentiellement frauduleux. Afin de garder une longueur d'avance sur les fraudeurs, ils se sont tournés vers la communauté Kaggle pour obtenir de l'aide dans le développement de leur solution. Le sujet du challenge : créer un algorithme qui prédit si un utilisateur va télécharger une application après avoir cliqué sur une annonce d'application mobile.

31/05/2018 Découvrir 
Actualité

La Data Science appliquée au monde du retail : les 10 use-cases incontournables

La Data Science impacte de plus en plus les business model dans toutes les industries, et notamment dans la vente de détail. Selon IBM, 62% des détaillants déclarent que l'utilisation de techniques relatives au Big Data leur donne un sérieux avantage compétitif. Savoir ce que veut votre client et à quel moment est aujourd’hui à portée de main grâce à la data science. Pour cela il suffit d’avoir les bons outils et les bons processus en place pour les utiliser. Nous présentons dans cet article 10 applications essentielles de la data science au domaine du retail.

18/05/2018 Découvrir 
Actualité

Introduction aux Chatbots avec Dialogflow

DialogFlow est un très bon outil pour apprendre à créer des Chatbots qui pourront ensuite être intégrés dans vos propres sites web ou applications. Dans cet article, je commencerai par introduire quelques notions sur Dialogflow et les Chatbots, puis je vous expliquerai comment créer simplement un Chatbot sur cette plateforme.

07/05/2018 Découvrir 
Actualité

Introduction aux systèmes réactifs

Les systèmes réactifs sont un style d’architecture permettant à de multiples applications individuelles de se fondre en une seule unité, en réagissant à leur environnement, tout en restant conscientes les unes des autres. La première formalisation de ce terme a vu le jour avec la création du « Reactive Manifesto » en 2013 par Jonas Boner qui, en rassemblant certains des esprits les plus brillants dans l’industrie des systèmes distribués, souhaitait clarifier la confusion autour de la réactivité (qui est devenu un « buzz-word ») et construire une base solide pour un style de développement viable.

04/05/2018 Découvrir 
Actualité

Mise en place d'une plateforme centralisée de gestion des logs avec la suite Elastic

Les cas d’usage de la suite elastic sont nombreux. Nous citons à titre d’exemple la correction d’un dysfonctionnement applicatif par la récupération des erreurs explicites (exception, message d’erreur ..etc) et le suivi de la charge d’une application (mémoire consommée, CPU ..etc), ce qui permet d’avoir une vision globale de la production. De même au niveau métier, il est possible d’exploiter la suite pour valider une chaîne de workflow par l’extraction des données spécifiques et leurs analyses.

04/05/2018 Découvrir