MARGO

Actualité

Retour sur le Google Cloud Summit 2017

Le plus important événement Cloud de Google


Suite à la conférence Google Cloud Summit 2017 qui a eu lieu la semaine dernière au Palais des Congrès de Paris, découvrez le retour de l’équipe Margo, sur ce qu’il faut en retenir.

Cette journée immersive a permis de réunir l’écosystème de Google (dirigeants, clients, partenaires, développeurs, décideurs IT et ingénieurs de Google) autour d’un objectif commun : construire le futur du Cloud !

L’occasion pour nous d’être inspirés par de nouveaux cas d’usage abordant le cloud sous tous ses angles et de participer à de multiples sessions autour de l’offre Google Cloud Platform, et ses nouvelles API de Machine Learning.

Sébastien Marotte a ouvert la conférence en expliquant que si Google n’était pas leader sur le marché du Cloud il n’en demeurait pas moins un acteur de plus en plus incontournable notamment grâces aux avancés sur les technologies du futur.

A ce titre, l’Intelligence Artificielle a été abordée sous différents prismes où chaque sous-discipline était illustrée par des cas pratiques :

  • Le Machine Learning, thématique qui a émergé il y a plus de 50 ans, mais qui aujourd’hui arrive à maturité et trouve ses usages dans l’industrie grâce aux avancés technologiques et à la puissance de calculs des machines actuelles (voir à ce titre CloudML). Google a positionné le Machine Learning au cœur de sa stratégie et l’utilise d’ailleurs dans l’ensemble de ses projets depuis plusieurs années, lui permettant ainsi de réduire de 40% la puissance énergétique de ses Datacenters. Google Cloud Machine Learning propose ainsi un ensemble de services gérés permettent de créer facilement des modèles de Machine Learning adaptés à tous les types et volumes de données.
  • Le Deep Learningavec cette capacité d’apprentissage à travers le cycle d’observation, de mesure et la capacité à formuler des hypothèses, et cela sans forcément partir d’une intuition initiale. On retrouve ainsi la solution DeepMind, rachetée par Google en 2014, qui combine les techniques de l’apprentissage automatique et des neurosciences des systèmes pour construire de puissants algorithmes d’apprentissage généraliste. Il est également possible de construire des modèles à l’aide du Framework TensorFlow Board qui est utilisé dans de nombreux produits Google comme Google Photos ou Google Cloud Speech.
  • Le Voice2Textest également adressé grâce à Google Cloud Speech qui permet aux développeurs de convertir du son en texte en exploitant des réseaux neuronaux dans une API facile à utiliser. Intégrée dans Google Home, cette API reconnait plus de 80 langues et variantes pour transcrire en texte des fichiers audios ou encore utiliser une commande vocale.
  • Le Natural Language Processing(NLP), est exposé au travers d’une API REST intégrée pour faire de l’analyse syntaxique multilingue et d’analyse de sentiments. C’est d’ailleurs l’API utilisée actuellement dans DataDialog, permettant à Google Home de comprendre nos intentions.
  • Enfin, la reconnaissance d’image ou de patterns dans les vidéos, sont rendues possibles avec l’API Cloud Visionet Cloud Video Intelligence (API encore en version Beta) qui détectent les visages au sein d’une image, ainsi que leurs caractéristiques principales comme par exemple l’état émotionnel, extrait le contenu texte dans une image ou encore repère les logos, catégories et contenus explicites…

Comme nous le voyons au travers des usages présentés tout au long des sessions, la transition vers l’Intelligence Artificielle touche tous les secteurs et change notre rapport à la technologie.

Mais Google ne s’arrête pas là et place plus généralement le Big Data au centre de son modèle désormais accessibles à tous via Google Cloud Platform (numéro 1 de l’analyse de données à l’échelle du web). La conférence « Introduction au Big Data : outils et insights » a permis de présenter deux outils de visualisation de données DataLab, outil destiné aux développeurs, et DataStudio qui permet de faire de l’analyse de données calculées.

En conclusion, le virage pris autour de la valorisation de l’offre Google Cloud Platform (GCP) n’a fait que se confirmer tout au long de cette journée.

La véritable caractéristique de tous ces projets est qu’ils sont portés par les métiers et non plus par la DSI. S’il n’y avait qu’une seule chose à retenir de la part des participants : avec la plateforme GCP, un projet de Machine Learning (ML) ou d’Intelligence Artificielle (IA) est un projet simple, puissant et rapide.


Cloud
Data
Google
Actualité

Mener à bien un projet data : une route encore semée d'embûches

En 2020, les investissements des entreprises dans les projets data devraient dépasser les 203 milliards de dollars au niveau mondial. Mais à l'heure où beaucoup se revendiquent être des Data Driven Companies, nombre de projets data se soldent encore par un échec.

15/10/2018 Découvrir 
Actualité

Kaggle Challenge : Ad Tracking fraud detection pour TalkingData

TalkingData est la plus grande plateforme indépendante de services Big Data en Chine, couvrant plus de 70% des appareils mobiles actifs dans tout le pays. Ils traitent 3 milliards de clics par jour, dont 90% sont potentiellement frauduleux. Afin de garder une longueur d'avance sur les fraudeurs, ils se sont tournés vers la communauté Kaggle pour obtenir de l'aide dans le développement de leur solution. Le sujet du challenge : créer un algorithme qui prédit si un utilisateur va télécharger une application après avoir cliqué sur une annonce d'application mobile.

31/05/2018 Découvrir 
Actualité

La Data Science appliquée au monde du retail : les 10 use-cases incontournables

La Data Science impacte de plus en plus les business model dans toutes les industries, et notamment dans la vente de détail. Selon IBM, 62% des détaillants déclarent que l'utilisation de techniques relatives au Big Data leur donne un sérieux avantage compétitif. Savoir ce que veut votre client et à quel moment est aujourd’hui à portée de main grâce à la data science. Pour cela il suffit d’avoir les bons outils et les bons processus en place pour les utiliser. Nous présentons dans cet article 10 applications essentielles de la data science au domaine du retail.

18/05/2018 Découvrir 
Actualité

Introduction aux systèmes réactifs

Les systèmes réactifs sont un style d’architecture permettant à de multiples applications individuelles de se fondre en une seule unité, en réagissant à leur environnement, tout en restant conscientes les unes des autres. La première formalisation de ce terme a vu le jour avec la création du « Reactive Manifesto » en 2013 par Jonas Boner qui, en rassemblant certains des esprits les plus brillants dans l’industrie des systèmes distribués, souhaitait clarifier la confusion autour de la réactivité (qui est devenu un « buzz-word ») et construire une base solide pour un style de développement viable.

04/05/2018 Découvrir 
Actualité

Mise en place d'une plateforme centralisée de gestion des logs avec la suite Elastic

Les cas d’usage de la suite elastic sont nombreux. Nous citons à titre d’exemple la correction d’un dysfonctionnement applicatif par la récupération des erreurs explicites (exception, message d’erreur ..etc) et le suivi de la charge d’une application (mémoire consommée, CPU ..etc), ce qui permet d’avoir une vision globale de la production. De même au niveau métier, il est possible d’exploiter la suite pour valider une chaîne de workflow par l’extraction des données spécifiques et leurs analyses.

04/05/2018 Découvrir 
Actualité

Introduction à TensorFlow sur le datalab de Google Cloud Platform

TensorFlow est une librairie logicielle, open source depuis 2015, de calcul numérique développée par Google. Dans ce mini-tutoriel, nous allons vous apprendre comment utiliser datalab sur GCP et écrire votre premier programme en TensorFlow.

04/05/2018 Découvrir