MARGO

Témoignage

Rencontre avec François-Xavier, Data Engineer

Découvrez le parcours de François-Xavier, consultant chez Margo


François-Xavier a rejoint Margo dès sa sortie de l’Ecole des Mines de Saint-Etienne. Il nous raconte comment a évolué sa carrière au fil des formations et missions.

Peux-tu nous parler de ton parcours chez Margo ?

J’ai intégré Margo à la sortie des Mines de Saint-Etienne. Pour compléter mes connaissances dans les domaines informatique et financier, j’ai eu la chance d’intégrer la C# Academy de Margo.

A la suite de cette formation intensive de 12 semaines, j’ai rejoint une grande banque de financement et d’investissement pour un projet de quelques mois en risque de contrepartie sur les matières premières en C#.

Mon second projet a été davantage orienté fonctionnel : je devais détecter des instabilités de calcul des grecques en utilisant le machine learning.

Au bout d’un an, j’ai émis le souhait auprès de ma RH de travailler sur l’analyse de données, et Margo m’a accompagné dans cette démarche.  J’ai rapidement eu plusieurs propositions de missions et j’ai pu choisir de continuer ma carrière à Londres et de me rapprocher des automates de trading. Je fais désormais partie d’une équipe de recherche et je dois collecter, nettoyer et mettre à disposition toutes les données dont ont besoin les équipes pour établir et faire tourner les modèles des automates.

Peux-tu nous en dire plus sur la C# Academy ainsi que ton tout premier poste ?

Mon parcours au sein de la C# Academy a duré 3 mois. Nous avons commencé par apprendre les bases du langage, puis nous avons vu comment l’utiliser plus efficacement, en limitant par exemple la fragmentation de la mémoire.

Nous avons ensuite abordé des sujets plus spécifiques avec la réflexion ou les problématiques de calcul parallèle. Tout au long de la formation, nous avions à disposition des outils de gestion et d’analyse du code que j’ai ensuite pu retrouver lors de mes missions.

J’ai d’ailleurs mis ces connaissances en pratique dès mon premier poste, dont l’un des sujets principaux était de collecter et regrouper les informations sur des deals scriptés pour les envoyer à l’équipe de risques qui s’occupait de les pricer. Cela a été pour moi une excellente introduction à la finance !

 

Parle-nous maintenant plus spécifiquement de ton nouveau challenge à Londres et des contraintes techniques que tu rencontres.

J’interviens dans une équipe au sein d’une banque de financement et d’investissement spécialisée en trading algorithmique. Je fais partie d’un laboratoire de recherche quantitative dont l’objectif est de mettre les données à disposition des Quants. Ceux-ci les utilisent pour établir et valider les stratégies des automates de trading. C’est un contexte très challengeant intellectuellement.

En ce qui concerne les contraintes techniques, les données générées quotidiennement représentent pour l’instant quelques Go. Mais, quand on parle de 15 à 20 ans d’historique de données à traiter, cela devient plus complexe ! Nous sommes donc face à des problèmes de stockage d’abord, mais aussi de distribution des données sur les serveurs pour lancer les calculs.

4) En quoi l’environnement finance est-il intéressant pour la data ?

Dans le cadre des automates de trading, principalement sur les stratégies basse et moyenne fréquence, les données historiques sont fondamentales pour établir les modèles : ce sont elles qui permettent de tester des stratégies et de les valider. Mais, pour cela, il faut avoir le maximum d’informations dans un échantillon de données de taille raisonnable par rapport à la puissance de calcul que l’on a. Il faut donc réussir à sélectionner les données importantes sans déformer les informations.

En conclusion… le mot de l’ingénieur d’affaires

François-Xavier intervient dans un contexte international, chez un de nos clients les plus exigeants. Il travaille sur des problématiques très poussées autour de la donnée, dans une équipe d’experts sur le sujet. Une opportunité pour développer son potentiel !  


Data
Data Lab
Finance des marchés
Ressources Humaines
Actualité

La Data Science appliquée au monde du retail : les 10 use-cases incontournables

La Data Science impacte de plus en plus les business model dans toutes les industries, et notamment dans la vente de détail. Selon IBM, 62% des détaillants déclarent que l'utilisation de techniques relatives au Big Data leur donne un sérieux avantage compétitif. Savoir ce que veut votre client et à quel moment est aujourd’hui à portée de main grâce à la data science. Pour cela il suffit d’avoir les bons outils et les bons processus en place pour les utiliser. Nous présentons dans cet article 10 applications essentielles de la data science au domaine du retail.

18/05/2018 Découvrir 
Actualité

Le e-trading de A à Z

Le 24 avril dernier, Wissam Benhmida, Business Analyst chez Margo, a animé un Meetup sur le e-trading à #LaPiscine. En l'espace d'une heure, il a pris le temps de revenir sur la définition du trading, pour ensuite détailler le mode le fonctionnement, les enjeux et les risques du trading électronique.

17/05/2018 Découvrir 
Actualité

Introduction aux systèmes réactifs

Les systèmes réactifs sont un style d’architecture permettant à de multiples applications individuelles de se fondre en une seule unité, en réagissant à leur environnement, tout en restant conscientes les unes des autres. La première formalisation de ce terme a vu le jour avec la création du « Reactive Manifesto » en 2013 par Jonas Boner qui, en rassemblant certains des esprits les plus brillants dans l’industrie des systèmes distribués, souhaitait clarifier la confusion autour de la réactivité (qui est devenu un « buzz-word ») et construire une base solide pour un style de développement viable.

04/05/2018 Découvrir 
Actualité

Mise en place d'une plateforme centralisée de gestion des logs avec la suite Elastic

Les cas d’usage de la suite elastic sont nombreux. Nous citons à titre d’exemple la correction d’un dysfonctionnement applicatif par la récupération des erreurs explicites (exception, message d’erreur ..etc) et le suivi de la charge d’une application (mémoire consommée, CPU ..etc), ce qui permet d’avoir une vision globale de la production. De même au niveau métier, il est possible d’exploiter la suite pour valider une chaîne de workflow par l’extraction des données spécifiques et leurs analyses.

04/05/2018 Découvrir 
Actualité

Introduction à TensorFlow sur le datalab de Google Cloud Platform

TensorFlow est une librairie logicielle, open source depuis 2015, de calcul numérique développée par Google. Dans ce mini-tutoriel, nous allons vous apprendre comment utiliser datalab sur GCP et écrire votre premier programme en TensorFlow.

04/05/2018 Découvrir 
Actualité

Les horloges de Lamport et le pattern de l’Idempotent Producer (Kafka)

Connaissez-vous les horloges de Lamport ? Devoxx France 2018 était l’occasion, lors du très intéressant talk de DuyHai DOAN, de découvrir ou redécouvrir cet algorithme formalisé par Leslie Lamport en 1978, plus que jamais utilisé aujourd’hui dans le domaine des systèmes distribués, et qui aurait notamment inspiré les développeurs de Kafka dans l’implémentation du pattern de l’Idempotent Producer.

26/04/2018 Découvrir