MARGO

Témoignage

Rencontre avec François-Xavier, Data Engineer

Découvrez le parcours de François-Xavier, consultant chez Margo


François-Xavier a rejoint Margo dès sa sortie de l’Ecole des Mines de Saint-Etienne. Il nous raconte comment a évolué sa carrière au fil des formations et missions.

Peux-tu nous parler de ton parcours chez Margo ?

J’ai intégré Margo à la sortie des Mines de Saint-Etienne. Pour compléter mes connaissances dans les domaines informatique et financier, j’ai eu la chance d’intégrer la C# Academy de Margo.

A la suite de cette formation intensive de 12 semaines, j’ai rejoint une grande banque de financement et d’investissement pour un projet de quelques mois en risque de contrepartie sur les matières premières en C#.

Mon second projet a été davantage orienté fonctionnel : je devais détecter des instabilités de calcul des grecques en utilisant le machine learning.

Au bout d’un an, j’ai émis le souhait auprès de ma RH de travailler sur l’analyse de données, et Margo m’a accompagné dans cette démarche.  J’ai rapidement eu plusieurs propositions de missions et j’ai pu choisir de continuer ma carrière à Londres et de me rapprocher des automates de trading. Je fais désormais partie d’une équipe de recherche et je dois collecter, nettoyer et mettre à disposition toutes les données dont ont besoin les équipes pour établir et faire tourner les modèles des automates.

Peux-tu nous en dire plus sur la C# Academy ainsi que ton tout premier poste ?

Mon parcours au sein de la C# Academy a duré 3 mois. Nous avons commencé par apprendre les bases du langage, puis nous avons vu comment l’utiliser plus efficacement, en limitant par exemple la fragmentation de la mémoire.

Nous avons ensuite abordé des sujets plus spécifiques avec la réflexion ou les problématiques de calcul parallèle. Tout au long de la formation, nous avions à disposition des outils de gestion et d’analyse du code que j’ai ensuite pu retrouver lors de mes missions.

J’ai d’ailleurs mis ces connaissances en pratique dès mon premier poste, dont l’un des sujets principaux était de collecter et regrouper les informations sur des deals scriptés pour les envoyer à l’équipe de risques qui s’occupait de les pricer. Cela a été pour moi une excellente introduction à la finance !

 

Parle-nous maintenant plus spécifiquement de ton nouveau challenge à Londres et des contraintes techniques que tu rencontres.

J’interviens dans une équipe au sein d’une banque de financement et d’investissement spécialisée en trading algorithmique. Je fais partie d’un laboratoire de recherche quantitative dont l’objectif est de mettre les données à disposition des Quants. Ceux-ci les utilisent pour établir et valider les stratégies des automates de trading. C’est un contexte très challengeant intellectuellement.

En ce qui concerne les contraintes techniques, les données générées quotidiennement représentent pour l’instant quelques Go. Mais, quand on parle de 15 à 20 ans d’historique de données à traiter, cela devient plus complexe ! Nous sommes donc face à des problèmes de stockage d’abord, mais aussi de distribution des données sur les serveurs pour lancer les calculs.

4) En quoi l’environnement finance est-il intéressant pour la data ?

Dans le cadre des automates de trading, principalement sur les stratégies basse et moyenne fréquence, les données historiques sont fondamentales pour établir les modèles : ce sont elles qui permettent de tester des stratégies et de les valider. Mais, pour cela, il faut avoir le maximum d’informations dans un échantillon de données de taille raisonnable par rapport à la puissance de calcul que l’on a. Il faut donc réussir à sélectionner les données importantes sans déformer les informations.

En conclusion… le mot de l’ingénieur d’affaires

François-Xavier intervient dans un contexte international, chez un de nos clients les plus exigeants. Il travaille sur des problématiques très poussées autour de la donnée, dans une équipe d’experts sur le sujet. Une opportunité pour développer son potentiel !  


Data
Data Lab
Finance des marchés
Ressources Humaines
Actualité

Rencontre avec Dipty Chander dans le cadre du Margo Women Network

Pour moi l’important c’est de ne pas se poser des questions sur son origine ou ses moyens. Il faut toujours essayer, et quand on essaye vraiment on obtient ce qu’on veut.

Découvrir 
Success Story

Le Machine Learning source de ROI commercial pour un acteur bancaire majeur

Margo accompagne l'un des acteurs majeurs de la banque dans la réalisation d'un projet de développement et d'industrialisation d'un modèle de Machine Learning. Nous vous proposons notre retour d'expérience sur la mise en oeuvre de ce projet afin de mieux comprendre comment la datascience peut rapidement devenir génératrice de ROI pour nos clients.

04/07/2019 Découvrir 
Tribune

Des statistiques traditionnelles à la Data Science

« Datascience is statistics on a Mac ». Au-delà de la caricature portée par cette affirmation, l’idée que la « data science » se veut ni plus ni moins qu’un « rebranding » des statistiques est aujourd’hui partagée par de nombreux ingénieurs en statistiques, jusque-là simplement présentés comme tels...

Découvrir 
Tribune

Mener à bien un projet data : une route encore semée d'embûches

En 2020, les investissements des entreprises dans les projets data devraient dépasser les 203 milliards de dollars au niveau mondial. Mais à l'heure où beaucoup se revendiquent être des Data Driven Companies, nombre de projets data se soldent encore par un échec.

15/10/2018 Découvrir 
Tribune

Pourquoi les grands groupes doivent préparer leur « mutation » dès maintenant?

Dans une économie toujours de plus en plus connectée, ultra rapide, ou les évolutions ne cessent de se multiplier, les grands groupes se préparent à des changements internes et externes. Nous vous proposons quelques exemples concrets des changements à explorer.

Découvrir 
Actualité

Kaggle Challenge : Ad Tracking fraud detection pour TalkingData

TalkingData est la plus grande plateforme indépendante de services Big Data en Chine, couvrant plus de 70% des appareils mobiles actifs dans tout le pays. Ils traitent 3 milliards de clics par jour, dont 90% sont potentiellement frauduleux. Afin de garder une longueur d'avance sur les fraudeurs, ils se sont tournés vers la communauté Kaggle pour obtenir de l'aide dans le développement de leur solution. Le sujet du challenge : créer un algorithme qui prédit si un utilisateur va télécharger une application après avoir cliqué sur une annonce d'application mobile.

31/05/2018 Découvrir