MARGO

Actualité

AWS Transformation Day : le pouvoir du cloud décrypté

L’événement capital pour comprendre comment le cloud impacte l’entreprise


10/11/2017

Arnaud, consultant Margo, était présent à l’AWS Transformation Day et nous livre son retour d’expérience sur l’événement et sur les points clés à retenir.

« Le leader dans l’entreprise demain, quel que soit le secteur, sera un leader digital. La transition vers le digital n’est plus seulement technologique mais devient une décision stratégique d’entreprise. Il s’agit de changer sa manière de penser et de travailler. ». C’est sur ces mots qu’Adrian Cockcroft, VP Cloud Architecture Strategy, a débuté la Keynote d’ouverture de l’AWS Transformation Day Paris 2017 le 8 novembre dernier. L’objectif de cette journée était clairement annoncé : comment opérer une transformation rapide et agile grâce au cloud.

Composée de plusieurs parcours thématiques à la fois métiers et techniques, cet événement a permis d’explorer les avantages du cloud à travers de nombreux retours d’expériences et de répondre à la fois à des questions de sécurité, d’investissements et de technologies.

La journée se composait d’une keynote d’ouverture puis de conférences de 45 minutes (très court au regard de la richesse des contenus abordés) réparties en plusieurs parcours thématiques

[…]

Infrastructure as Code

C’était un leitmotiv dans toutes les présentations.
C’est une bonne pratique pour créer vos infrastructures sur AWS (et sur les différentes offres de Cloud disponibles) qui utilise des scripts pour décrire l’ensemble des ressources à mettre en place pour votre infrastructure.
Chez AWS, CloudFormation est la solution propriétaire.
Il existe aussi Terraform, un outil équivalent et « portable ». La portabilité reste assez relative parce que les objets décrivant les ressources sont spécialisés pour chaque offre (AWS, Azure, GCP, …).

[…]

Serverless : la fin de l’administration système

L’autre buzzword de la journée était le serverless, nouvelle tendance du cloud initiée par Amazon et son service Lambda.

AWS Lambda permet ainsi d’exécuter du code (Java, Node.js, C# et Python) sans devoir configurer un serveur ou déployer du code dessus. C’est le fournisseur Cloud qui se charge de la bonne exécution de la fonction.

[…]

Big Data : de nombreuses solutions basées sur le Cloud AWS

La présentation Big Data était très intéressante. Pour chaque besoin, la technologie à utiliser était brièvement abordée. Retrouvez ci-dessous une présentation de la gamme de services proposée par AWS pour créer et déployer facilement des applications Big Data :

  • Amazon S3 pour le stockage des données :C’est la solution de stockage AWS. Très grande capacité, automatiquement répliqué entre les différentes zones d’une région. Retour d’expérience : Netflix utilise S3 pour stocker ses vidéos.
  • Amazon Redshift et Amazon Athena pour le traitement :Amazon Redshift Spectrum permet le requêtage de données non structurées directement stockées dans S3. On conserve ses fichiers csv, texte ou autre sur S3 et on exécute des requêtes SQL sur les données contenues. Cela nécessite un serveur Redshift. Amazon Athena nécessite la définition de schémas mais fonctionne de façon similaire. Contrairement à Redshift, Athena est serverless et une api REST est disponible.
  • Amazon Quicksight pour la visualisation : Une solution de visualisation très graphique.  On peut visualiser des données directement à partir de fichiers, de connexions à Amazon Redshift ou à des bases de données.
  • Amazon Lambda ou Amazon EMR (pour les longs traitements) pour l’enrichissement des données : Les lambda peuvent être utilisées pour enrichir les données. Leur déclenchement évènementiel permet de lancer un traitement lors de la dépose d’un fichier par exemple. Elles sont à privilégier pour les traitements courts (le temps d’exécution d’un lambda est limité à 5 minutes). Pour les longs traitements, on utilisera EMR (Elastic Map Reduce), l’infrastructure Hadoop d’AWS.
  • AWS Glue pour l’agrégation des données : C’est un service d’ETL. Il est capable de déduire automatiquement un schéma à partir des données et de générer le code Python nécessaire pour la transformation d’une source à un format de destination.
  • Amazon Kinesis pour le temps réel :C’est la solution AWS pour collecter et traiter des données en streaming.

Je terminerai cet article par la citation de Jeff Bezos, « Le plus dangereux en entreprise c’est de ne pas évoluer ». C’est phrase a donné le ton de la conférence organisée par Amazon qui nous a donné l’opportunité de voir ce que signifie réellement la transformation par le Cloud. Toutes les entreprises sont concernées et peuvent utiliser le potentiel du Cloud pour innover, faire des économies, renforcer sa sécurité ou encore gagner en agilité.

Retrouvez l’intégralité de l’article d’Arnaud en ligne sur LinkedIn


Amazon
Cloud
Data
Actualité

Mener à bien un projet data : une route encore semée d'embûches

En 2020, les investissements des entreprises dans les projets data devraient dépasser les 203 milliards de dollars au niveau mondial. Mais à l'heure où beaucoup se revendiquent être des Data Driven Companies, nombre de projets data se soldent encore par un échec.

15/10/2018 Découvrir 
Actualité

Kaggle Challenge : Ad Tracking fraud detection pour TalkingData

TalkingData est la plus grande plateforme indépendante de services Big Data en Chine, couvrant plus de 70% des appareils mobiles actifs dans tout le pays. Ils traitent 3 milliards de clics par jour, dont 90% sont potentiellement frauduleux. Afin de garder une longueur d'avance sur les fraudeurs, ils se sont tournés vers la communauté Kaggle pour obtenir de l'aide dans le développement de leur solution. Le sujet du challenge : créer un algorithme qui prédit si un utilisateur va télécharger une application après avoir cliqué sur une annonce d'application mobile.

31/05/2018 Découvrir 
Actualité

La Data Science appliquée au monde du retail : les 10 use-cases incontournables

La Data Science impacte de plus en plus les business model dans toutes les industries, et notamment dans la vente de détail. Selon IBM, 62% des détaillants déclarent que l'utilisation de techniques relatives au Big Data leur donne un sérieux avantage compétitif. Savoir ce que veut votre client et à quel moment est aujourd’hui à portée de main grâce à la data science. Pour cela il suffit d’avoir les bons outils et les bons processus en place pour les utiliser. Nous présentons dans cet article 10 applications essentielles de la data science au domaine du retail.

18/05/2018 Découvrir 
Actualité

Introduction aux systèmes réactifs

Les systèmes réactifs sont un style d’architecture permettant à de multiples applications individuelles de se fondre en une seule unité, en réagissant à leur environnement, tout en restant conscientes les unes des autres. La première formalisation de ce terme a vu le jour avec la création du « Reactive Manifesto » en 2013 par Jonas Boner qui, en rassemblant certains des esprits les plus brillants dans l’industrie des systèmes distribués, souhaitait clarifier la confusion autour de la réactivité (qui est devenu un « buzz-word ») et construire une base solide pour un style de développement viable.

04/05/2018 Découvrir 
Actualité

Mise en place d'une plateforme centralisée de gestion des logs avec la suite Elastic

Les cas d’usage de la suite elastic sont nombreux. Nous citons à titre d’exemple la correction d’un dysfonctionnement applicatif par la récupération des erreurs explicites (exception, message d’erreur ..etc) et le suivi de la charge d’une application (mémoire consommée, CPU ..etc), ce qui permet d’avoir une vision globale de la production. De même au niveau métier, il est possible d’exploiter la suite pour valider une chaîne de workflow par l’extraction des données spécifiques et leurs analyses.

04/05/2018 Découvrir 
Actualité

Introduction à TensorFlow sur le datalab de Google Cloud Platform

TensorFlow est une librairie logicielle, open source depuis 2015, de calcul numérique développée par Google. Dans ce mini-tutoriel, nous allons vous apprendre comment utiliser datalab sur GCP et écrire votre premier programme en TensorFlow.

04/05/2018 Découvrir