Calendrier de l’Avent 2018

Chaque jour 2 vidéos de la XebiCon'18 dévoilées !

Passage à l'échelle de mes applications Kafka Streams

L’Auto Scaling, c’est l’argument phare d’un bon nombre de technologies en Data Engineering. Parmi les outils du moment, on retrouve Kafka Streams. Avec sa forte intégration au bus de message Apache Kafka, il est pensé pour être un framework distribué capable de passer à l’échelle. Pourtant, dans la pratique, sa seule utilisation est limitée, et l’orchestration de ces applications est généralement nécessaire.
Dans ce talk, nous parlerons de conteneurisation, d’orchestration et de monitoring, qui sont des éléments clefs qui nous permettront de profiter pleinement de la scalabilité des applications Kafka Streams, le tout autour de technologies comme Kubernetes et Stackdriver.


Tech4Exec - Le top management métier de la SG témoigne avec sa DSI

Durant la XebiCon, et dans le cadre des Tech4Exec, le top management métier de la Société Générale témoigne avec sa DSI sur les bénéfices et les difficultés d’une transformation agile à l'échelle.

Tech4Exec a pour objectif de démystifier les sujets et technologies stratégiques du moment, pour en comprendre les implications, les déclinaisons opérationnelles concrètes et leur intérêt pour l’entreprise.
Pour cette 5ème édition de la XebiCon, les 200 participants Tech4Exec ont pu assister à des conférences données par des speakers de renommée internationale, ceux qui font bouger les lignes et révolutionnent le monde de l’IT.


Deno, le nouveau NodeJS qui inverse la tendance ?

Le créateur de NodeJS, Ryan Dahl, a décidé de créer un nouveau runtime pour Javascript : Deno. Son but ? Eliminer les erreurs et maladresses de son grand frère. Découvrez ce qui se cache derrière ainsi que la vision de son créateur.


REX JC Decaux - Piloter son parc de vélos dans le Cloud : une expérience Serverless

Gérer des milliers de vélos connectés disséminés aux quatre coins d’une grande ville, voilà un défi de taille ! Notre challenge : fournir des solutions fiables de gestion de cette flotte, avec un déploiement rapide.
Au cours de ce retour d’expérience, nous vous montrerons comment nous avons conçu et implémenté cette solution de vélos connectés avec AWS IoT. A mi-chemin dans l’implémentation, nous expliquerons pourquoi nous avons fait ces choix et les difficultés que nous avons rencontrées.


Architecturer son application mobile pour la durabilité

Vous avez l’impression que vous devez jeter la moitié de votre code tous les 6 mois ? Plus le temps passe, moins votre application mobile est maintenable ?
Injection de dépendances, routage ou gestion des environnements, venez découvrir nos conseils pour vous aider à réaliser des applications mobiles évolutives conçues pour durer dans le temps.


Utiliser Hyperledger Fabric pour la création d'une blockchain privée

La blockchain est la technologie buzzword du moment pour assurer une traçabilité des transactions. Beaucoup de personnes en parlent, mais très peu savent comment cela fonctionne réellement. Pire, de plus d'outils d'implémentations font leur apparition, et il est difficile de s'y retrouver.

The Linux Foundation a créé Hyperledger Fabric, un framework permettant la réalisation d'un réseau de blockchain from scratch très prometteur, que nous allons décortiquer ensemble. Nous allons donc réaliser un tour d'horizon de ce qu'il permet et explorer les tenants et aboutissants de ce qu'est concrètement la réalisation d'un tel réseau.

Cette présentation a pour vocation de vous permettre de comprendre en détail le fonctionnement de cette technologie, et surtout d'être capable de savoir si elle peut répondre à vos besoins.


Codons un chatbot avec Amazon Lex et Dialogflow

Avec le succès des enceintes intelligentes, du NLP (Natural language processing), 2018 est incontestablement l'année des chatbots. Mais si en 2018 tu n'as pas codé ton chatbot, tu as raté ta vie de développeur !

Il est temps de se rattraper et c'est pour cela que nous vous proposons de coder un chatbot en live pour briller en société. Succès garanti !

Au programme, un peu d'historique (mais pas trop), des explications sur les concepts clés et surtout une démo garantie sans effet démo. À vos Amazon Lex et Dialogflow !


Orchestration : Conteneurs vs Musique

Le concept d'orchestration dans le domaine de l'informatique a été popularisé avec l'avènement des conteneurs. Mais il existe depuis bien longtemps en musique ! A-t-il la même signification dans ces deux contextes ? Peut-on vraiment établir un parallèle ? Et le chef d'orchestre dans tout cela, y trouve-t-il sa place ?

Nous aborderons la question dans cette conférence au travers d'exemples concrets et de démonstrations, dans le but de vous en faire ressortir avec de solides notions d'orchestration(s) ... et de bonne musique.


Pourquoi construire une gouvernance de données dite agile ?

La faible maturité des projets de gouvernance des données nécessite la mise en place de bonnes pratiques et boucles de feedback pour constamment monitorer et valider le bien fondé des règles de gestion sur votre patrimoine data. Découvrons ensemble les caractéristiques d’une gouvernance des données à approche agile et ses bénéfices.


Coopération entre utilisateurs finaux et équipiers, 5 principes pour réussir votre produit

Depuis quelques années, vous entendez parler de transformation d’entreprises permettant la diminution du Time-To-Market, le rapprochement des développeurs et opérationnels et la synchronisation des backlogs ou encore favorisant le plaisir au travail. Pourtant nous oublions l’essentiel, réaliser le bon produit répondant aux réelles problématiques des utilisateurs finaux.

Ce fondement est trop souvent oublié par toutes ces entreprises voulant monter vite sur l’agilité à l’échelle. Vous êtes vous déjà rendu compte à quel point cette clé de succès est oubliée ? Savez-vous pourquoi il faut mettre un point d’honneur à intégrer les utilisateurs finaux dans les projets ?


Boostez vos modèles avec du Deep Learning distribué

Lorsque la quantité de données est très grande et que l'architecture de votre réseau de neurones est complexe, la question du temps d'entraînement et de la capacité de votre machine deviennent primordiales. Un entraînement de modèle peut vite prendre plusieurs heures voire jours, ou même ne pas tenir en mémoire. Il est alors temps de parler de Deep Learning distribué !

Au cours de cette présentation, nous allons voir différentes solutions et bonnes pratiques pour accélérer l'entraînement de modèles de Deep Learning en les distribuant sur un cluster ou sur des plateformes multi-GPUs.


Secrets management & DevOps : (re)prenez le contrôle !

Devant le nombre grandissant de secrets (API Keys, SSH Keys, ...) utilisés au sein de l'outillage DevOps et des applications Cloud Native, découvrez comment en centraliser la gestion sans impacter les développeurs et compromettre la dynamicité, la scalabilité ainsi que l'automatisation mises en place.


La gouvernance des données chez Renault Digital

Le groupe Renault a décidé de mettre en place un Data Lake Hybride (on premise et cloud), Pour ces raisons, une gouvernance sur ces données - et l'outillage transverse nécessaire pour manager ce patrimoine de données - est devenue cruciale. En 20 minutes, Geoffrey Thiesset partagera avec l'audience la vision de ce qu'est une gouvernance des données pour l'entité Renault Digital, les actions déjà mises en place et celles à venir.


La sécurité, douce illusion même en 2018

La sécurité, cette branche de notre domaine dont le devoir est de protéger le système d'information, revient très souvent comme un point de douleur dans toutes les étapes du cycle de vie d'un projet. Pourtant, malgré une nécessité réelle, un bon nombre des mesures prises sont incomplètes, voire inutiles.

Des politiques de mot de passe aberrantes au proxy ne limitant en pratique que peu de choses, ce slot tentera de démystifier les principes clés de la sécurité et d'expliquer pourquoi un certain nombre des mesures courantes dans les entreprises n'ont en réalité qu'un effet placebo.


Service mesh : la pièce manquante à vos applications cloud et microservices

On vous vend la mèche, le service mesh fera parler de lui en 2019.

Dans un contexte d'applications cloud native et microservices, le service mesh se profile comme la solution répondant aux problématiques de multiplication des échanges entre applications : découverte de services, authentification, authorisation, traçabilité, etc.

Cette introduction au sujet vous présentera les possibilités de ce prochain buzzword, démos à l'appui.

Promis, ça "Envoy" (entre autres : Linkerd, Istio, etc.) du lourd.


La web app d'aujourd'hui et de demain : état de l'art et bleeding edge

Qu’est-ce qu’une application web à l’état de l’art en 2018 ?

En évolution constante, les standards changent d’année en année et il faut régulièrement se mettre à jour sous peine d’être à la traîne. Si vous n’avez pas encore surfé sur la vague Progressive Web App, Server-Side Rendering ou encore Code Splitting, ce talk est pour vous. Il vous fera découvrir les pratiques et les outils d'une stack web moderne.


Scaling : Framework ou pas framework ?

Nous passerons en revue plusieurs framework à l'échelle dans une optique sans à priori, puis nous nous concentrerons sur les nombreuses ressemblances et problématiques communes pour ébaucher un minimum minimorum de l'agilité à l'échelle.
Cependant, comprendre n'est pas implémenter ! Nous aborderons donc ensuite comment choisir chaussure à son pied en fonction de la culture, de l’organisation et de l'architecture technique en place dans votre entreprise ou dans votre structure.
Comme conclusion, nous verrons comment aller progressivement vers la cible retenue avec certaines erreurs à éviter!


Monitorer son application nodejs dans un container

Sur l'un des tee-shirt Docker, il est écrit "The revolution will be containerized".

La révolution est en marche, mais comme pour toutes révolutions, elles laissent beaucoup de questions et de chaos.
Dans le cas de notre révolution, les outils pour la métrologie et les métriques évoluent. Pour Docker, il existe un outil appelé Prometheus qui remplit parfaitement ce rôle. Mais c'est au développeur d'envoyer les métriques (techniques, business).

Découvrez comment un développeur NodeJS peut envoyer ses métriques à Prometheus ainsi qu'un petit utilitaire que j'ai réalisé pour simplifier cette mise en place.


IoT : From Edge to Cloud

Aujourd'hui accessibles partout, les objets connectés suscitent de plus en plus d’intérêt. Malgré cela, l’implémentation d’un projet IoT peut s’avérer compliquée au vu la diversité des dispositifs, protocoles et frameworks. Le nombre d'alternatives qui se présentent à nous est énorme.
En partant de l'embarqué, avec les protocoles applicatifs, jusqu'au déploiement d'une solution sur le cloud, en passant par la délégation des traitements en local via l'IoT Edge, nous rentrerons dans le détail de l'implémentation d'une solution IoT de bout en bout, le tout en comparant deux solutions : AWS et Azure.


Réaliser son jeu vidéo from scratch avec Unity

Les jeux videos c'est sympa, on aime tous y jouer !

Mais comment crée-t-on un jeu, quelles sont les étapes, les technologies pour y arriver ? C'est ce que l'on vous propose de découvrir via la création d'un jeu from scratch sur le moteur Unity.


JobTeaser, destination Kubernetes

JobTeaser est le leader européen du recrutement des jeunes talents. Nous nous sommes donnés pour mission de préparer la nouvelle génération à révéler tout son potentiel, pour s'accomplir, et en faire bénéficier la société. C’est l’histoire de la migration d’une plateforme vers Kubernetes.

Cette histoire commence par les raisons qui nous ont conduites à engager cette migration. Rien n’est jamais aussi simple que prévu, aussi nous reviendrons sur les intentions initiales.

Les conteneurs changent la manière de développer et de déployer nos applications. Parfois souhaitées, parfois contraintes nous vous partagerons ces détails qui font toute la différence, qu’il s’agisse de build, de déploiement, de sécurité ou d'exploitation.


Le développeur dans la Pop culture

"Quand je serai grand je travaillerai chez SEGA". Julien Smadja, 10 ans.

À travers les différents média de la Pop Culture, nous allons étudier l'image des développeurs, entre mythe, réalité, fantasme et exagération.

Quelle est l'image du développeur en 2018 ? Notre métier fait-il réver et donne-t-il envie aux jeunes et moins jeunes ?


Structuration du Temps et Dynamique de Groupes, Théorie organisationnelle de Berne, une autre approche agile

Que se passe-t-il dans nos têtes en permanence lorsque nous sommes à plusieurs et pourquoi ces mécanismes psychologiques s'activent ? Pourquoi passe-t-on notre temps, malgré nous, à jouer à des jeux psychologiques ? Que dit-on après avoir dit bonjour ? Comment nait et évolue un groupe dans le temps ? Comment repérer quand il dysfonctionne ? Les individus et leurs interactions plus que les processus et les outils ? Pour toute personne qui ne vit pas seule dans une grotte, ce sujet se veut utile et pourquoi pas intéressant 😉


REX DRSA - Comment tuer trois legacies : le Maximum Viable Product

En Janvier 2017, Europ Assistance lance un projet ambitieux : refondre et unifier les SIs qui gèrent près de 5 millions d’interventions de dépannage à travers le monde. C’est l’histoire d’une transition qui s’effectue : on délivre un produit, et non plus un projet, en itérations courtes, et non pas en bloc de deux ans.

Cette présentation est un retour sur les difficultés et succès vécus quand on remplace plusieurs legacies par un MVP...


Kotlin dans ton Cloud

Kotlin est un excellent langage , mais comment le propulser sur son provider cloud favori ?

Que ce soit sur AWS ou GCP cette Konférence vous montrera les techniques, astuces et avantages du langage pour des déploiements en mode IaaS, PaaS et bien sur Serverless.

Nous montrerons également, comment Kotlin permet d'écrire du code "propre" tout en minimisant le vendor lock-in.


Jouer à Rock-Paper-Scissors-Spock-Lizard avec son Android Things

Avec une carte de développement Android Things, un module camera et votre Mac / PC, vous pouvez désormais créer un compagnon de jeu pour jouer au fameux Rock-Paper-Scissors-Spock-Lizard !

Ce slot vous montrera comment entrainer un modèle de Machine Learning pour reconnaître les différents geste de la main, l'embarquer dans un device Android Things et créer une application pour jouer contre soi-même !


Xebimon - Gotta catch’em all

Vous pensiez avoir tout vu en matière d’applications mobiles ?

Et si, nous vous montrions comment faire cohabiter Deep Learning, réalité augmentée et 3D au sein d’une application mobile ? Votre téléphone est prêt à vous surprendre une fois de plus.




Oui.sncf : Optimisation des enchères sur Google Adwords avec le Deep Learning

Deep learning en production ? Oui(.sncf)!
Découvrez un REX de l’équipe ASTRO et du principal projet porté par celle-ci au cours des 12 derniers mois : OuiBoost est un ensemble d’algorithmes destiné à optimiser les achats médias de mots clés sur Google Adwords.
Nous allons nous focaliser sur la partie architecture technique ainsi que le fonctionnement de l’équipe agile pluridisciplinaire. #deeplearning #DLenproduction


Spark in jail : conteneurisez vos traitements data sans serveur.

Terminé l'adminstration de cluster Hadoop !
Depuis l'arrivée de la version 2.3 de Spark, il est maintenant possible de lancer des jobs sur un cluster Manager Kubernetes. Ce slot se propose de vous faire découvrir Spark sur un cluster manager Kubernetes mais pas seulement.
Il se propose également de montrer les nouvelles façons de faire du Spark sans être dépendant d'une distribution Hadoop tout en interagissant de manière sécurisée avec un stockage de masse.
Toutes ces solutions seront présentées à l'aide d'un provider de Cloud. Vous découvrirez lequel durant la présentation.


Event Sourcing et RGPD, incompatibles ?

Le RGPD est entré en vigueur le 25 mai 2018 avec les implications que nous connaissons tous (droit à l'oubli, consentement explicite, sécurité par défaut, etc.)

En parallèle, nous développons de plus en plus d'architectures autour de l'Event Sourcing, qui par définition sauvegarde les données de manière immutable.

Mais alors, comment faire pour concilier une architecture autour de l'Event Sourcing, immutable, avec les restrictions imposées par le RGPD ?
C'est ce que nous allons explorer durant cette session !


Apache Kafka - bonnes pratiques et erreurs courantes

Lorsque qu'Apache Kafka est utilisé dans des applications critiques, un déploiement stable et fiable est nécessaire dès le début.
Au cours de cet échange, nous évoquerons les erreurs les plus communes rencontrées sur le terrain et comment les éviter.
Comment assurer la durabilité des messages ? Quels sont les paramètres de configuration à connaître ? Et, avant tout, comment monitorer Apache Kafka ? Nous tenterons de répondre à ces différentes questions.


Natixis, ou le concept de la transformation agile au carré

En 2017, la DSI Natixis inscrit sa transformation agile comme l'une de ses ambitions stratégiques.
En tant que responsable de sa Digital Factory, le 89c3R, Christophe est chargé de lancer le projet.
Or, transformer la culture d'une grande banque française durablement, n’est=ce pas mission impossible ?
Commence alors l’histoire d’une transformation pas comme les autres. Car, pour la réussir, Christophe prend le pari audacieux de conduire le projet de manière agile, lui aussi.
C’est cette histoire que Christophe viendra partager pour inspirer celles et ceux qui ont l’ambition de faire basculer nos grandes organisations traditionnelles dans une culture agile.


Air France dans les nuages

Après une grande réussite sur la mise en place de la maintenance prédictive pour sa flotte d’avion, Air France a voulu passer à l’échelle en proposant ce service à ses airlines clientes.
Pour se lancer dans ce défi, Air France a fait appel à Xebia, ce qui a donné lieu à une session d’eXtrem Architecture.

Ce REX a pour but de faire découvrir l'eXtrem Architecture à l’audience, en commençant par la théorie pour finir sur les atouts que celui-ci a offert à Air France avant de se lancer dans l’aventure.


Ce que l'histoire du métro Parisien m'a enseigné sur la création logicielle

En plus d'un siècle d'existence, la gestion de la circulation et l'organisation du métro parisien ont dû évoluer pour augmenter en permanence le débit tout en tenant compte des contraintes de sécurité. Vous commencez à comprendre où cette présentation veut en venir...

Le temps de cette session, prenons un peu de recul sur notre cœur de métier : la création logicielle. Entre organisation du travail, amélioration d'un produit sur le long terme ou équilibre permanent qu'il faut trouver entre exploitabilité et sécurité, vous serez surpris de retrouver de nombreux parallèles et de voir ce qu'ils peuvent nous apporter.


Spark NLP, un an après

Spark NLP (Natural Language Processing) permet depuis son lancement en open source, il y a un an et quelques mois, d'avoir une solution de traitement du langage directement développé pour Apache Spark et Spark ML (Machine Learning). Apache Spark avec son module ML permet de lancer des tâches de data science, avec du machine learning et du deep learning, tout en profitant de l'aspect distribué de son architecture. Avec Spark NLP, on peut le faire maintenant avec des tâches de NLP spécialisé.

Depuis sa sortie, que peux-t-on faire avec Spark NLP ? Quels cas sont à tester avec Spark NLP, et ceux à éviter ? Est-ce facile pour les équipes d'entraîner un modèle et de l'utiliser dans son pipeline ?

Nous verrons ces questions à travers un exemple rapide d'entraînement de détection d'entités nommées (NER) avec Spark NLP.


Comment j'ai développé un jeu vidéo avec des outils de développement web ?

Par curiosité, puis par passion, j'ai développé un jeu vidéo à l'aide des outils et frameworks habituellement utilisés dans des applications web.

Pas commun dites-vous ? Revenons ensemble sur la manière dont je m'y suis pris, les choix techniques et ce qui les a faits évoluer, les challenges et les compétences développées au cours de cette aventure.


MLFlow and the Machine Learning Lifecycle

La création de produits Data Science comporte bon nombre de challenges techniques à relever pour aller jusqu'à la mise en production. Comment documenter et versionner ses modèles de Machine Learning ? Comment les déployer sur plusieurs plateformes ? Comment tracker et partager les expérimentations faites ? Comment savoir à quel modèle correspond une prédiction ?

Pour répondre à ce manquement dans les usines logicielles pour la Data Science, Databricks a récemment dévoilé un nouveau produit open source : MLFlow. Inspiré des différentes implémentations de Machine Learning Platforms, il a pour but d'offrir un meilleur cadre de développement pour les projets Data Science, et compte bien s'imposer comme un standard. Dans ce talk, nous vous proposons de revenir sur les différentes étapes à franchir tout au long du Machine Learning Lifecycle, et de décortiquer comment MLFlow peut répondre à ces besoins.


Sécuriser son API avec OpenID Connect

Mettre en place un mécanisme d'identification et d’authentification n'est jamais chose facile. API keys, tokens, session id, les solutions ne manquent pas, mais beaucoup de zones d'ombre persistent encore.
Mais tout n'est pas perdu ! Aujourd'hui, OpenID Connect constitue un bon moyen de reprendre la main sur ce mécanisme charnière.
Venez donc découvrir avec nous en quoi consiste cette norme déjà largement répandue, et comment l'utiliser efficacement.


REX Société Générale - L’expérience AWS avec Lumo

Lors de cette session, vous verrez que le passage au cloud avec AWS permettra de répondre aux exigences les plus pointues en terme de qualité et de sécurité.

Après avoir présenté brièvement le projet Lumo (plateforme d'épargne participative dédiée aux énergies renouvelables) et son architecture initiale, nous rentrerons dans le vif du sujet pour vous exposer l’architecture AWS cible, en abordant l’ensemble des solutions apportées sur les aspects sécurité, résilience et haute disponibilité.

Enfin, vous aurez un aperçu sur la solution apportée pour la chaîne de déploiement de Lumo dans AWS.


Modern Infrastructure

Vous avez beau avoir modernisé vos applications, les avoir rendu stateless, 12factor-compliant, etc., si vous n'avez pas l'infrastructure pour les déployer proprement et les gérer, votre bénéfice final sera fortement amoindri.

Cette conférence a pour but de vous faire ressortir avec une définition et une vision claires des principaux concepts qui caractérisent une infrastructure moderne. Nous y parlerons Configuration Management, infrastructure immuable, infra-as-Code, orchestration, self-healing, systèmes distribués, applications Cloud Native, Serverless ... et ce n'est qu'un avant goût !


Migration d'un Datalake vers Google Cloud aux Galeries Lafayette

Les Datalake, c’est un peu le Saint-Graal des grosses entreprises et on en voit partout. Chez Xebia, nous en avons mis un en place, on-premise, aux Galeries Lafayette. Alors pourquoi sommes nous en train de le migrer vers Google Cloud et du 100% services managés ? Quelles sont les conséquences techniques et organisationnelles, les écueils rencontrés et nos solutions pour les éviter ? Quel impact sur la Data Science ce changement va-t-il avoir ?
Venez découvrir, sans détour ou embellissement, ce que donne un Datalake sur GCP !


The Devops Craftsmen

Le contexte bancaire complexifie la marge de manœuvre pour mettre en place une démarche Devops : régulateurs, protection des données, ségrégation prod/dev, processus de validation sécurisé... Tout pourrait paraître contradictoire avec un concept de collaboration étroite entre les dev et les ops.

Nous allons vous présenter comment nous sommes devenus Devops, avons rendu l’ownership aux développeurs sur le pipeline de livraison en production sans sacrifier les aspects de sécurité et par la même occasion, avons réduit les coûts de livraisons.

Dans la deuxième partie de la conférence nous vous présenterons comment nous avons évité la catastrophe en mettant une bonne dose de Craftmanship dans le setup Devops.


Data Science Done Wrong - Les 5 idées reçues qui condamnent votre projet Data Science à l'échec, et les changements de perspectives qui peuvent vous aider à l'éviter.

Proofs of Concepts interminables, algorithmes complexes impossibles à déployer en production, résultats échouant à créer de la valeur…

Bercés par la croyance largement répandue que l’exploitation d’une grande quantité de données, combinée avec des algorithmes de pointe, suffisent à créer de la valeur, beaucoup se lancent dans des projets Data Science tous azimuts en réunissant les deux ingrédients clés : un Data Lake qui contiennent toutes les données possible et une équipe de Data Scientists de pointe. Et autant se le dire, le chemin à parcourir pour réussir ses projets est souvent très long, voire inaccessible.

Au cours de cette présentation, nous allons vous inviter à prendre du recul sur ces incroyables promesses rattachées à l’Intelligence Artificielle, et à réfléchir en termes de produit complet. De la découverte des problèmes pertinents au développement itératif de la solution, nous vous invitons à découvrir une méthodologie permettant de développer un produit Data Science qui délivre réellement de la valeur aux utilisateurs.


Des notebook pour le monitoring avec Zeppelin

Depuis quelques années, les notebook ont gagné en popularité. Apache Zeppelin, avec son architecture modulaire, offre une solution de notebook et de dashboarding, le tout sans mettre de côté la sécurité. Cette présentation vous fera découvrir cet outil merveilleux dont vous ne pourrez bientôt plus vous passer.


Comment fausser l'interprétation de vos résultats avec des dataviz

Une Data Visualisation permet en un seul coup d’œil de véhiculer des résultats (d'analyse). Au travers de contre-exemples bien choisis, nous allons voir les nombreux pièges qui nuisent à la lisibilité et l'interprétation des données et comment choisir la bonne représentation pour faire passer vos idées.


L'algorithme de reconnaissance de formes par le cerveau humain

Et si le cerveau humain utilisait un algorithme pour la reconnaissance d'images ?
Expliquons et comparons les algorithmes de reconnaissance de formes des ordinateurs et le fonctionnement neurologique du cerveau humain.


Accélérer l’innovation en unifiant données & IA

Databricks Unified Analytics Platform, fondée par les créateurs d'Apache Spark est la plateforme Spark cloud native la plus performante, la plus simple d'utilisation. Venez découvrir comment mettre en oeuvre vos pipelines ETL, ML et DL avec Databricks ainsi que les dernières innovations avec mlflow et l'intégration des frameworks de deep learning.


Optimisez la gestion des données et l'utilisation des outils analytiques de votre entreprise avec Snowflake

La gestion de gros volumes de données tout comme l’augmentation de bases utilisateurs restent un challenge pour de nombreuses entreprises aujourd’hui. A travers l'étude de cas clients vous découvrirez comment Snowflake révolutionne la façon dont les entreprises gèrent les données et l'utilisation des outils d'analyses, leur permettant ainsi de rester compétitives, efficaces et réactives.


Burger Dev Quiz !


eXtrem Archi et après ... De la théorie à la pratique, avec la mise en place du Data Lake "Industrie" de Sanofi

"Nous avons la conviction qu’une architecture ne peut être validée que si elle survit à son implémentation".

Un atelier d'eXtrem Archi est un point de départ, et non une conclusion à une réponse apportée à une problématique posée. C'est pour cette raison que Xebia se propose d'accompagner ses clients, par une réponse d'architecture, mais également par un changement de paradigme dans la façon de mener les projets avec ses clients.

C'est dans cet esprit que nous nous sommes donné 3 mois pour valider, via la réalisation d'un MVP, la proposition qui a découlé d'ateliers d'eXtrem Archi menés avec Sanofi pour monter un Datalake industrie dans le Cloud d'AWS.

Ce que nous vous proposons dans ce REX, c'est de revenir sur le chemin qui a permi à Sanofi et Xebia, à partir des conclusions de l'atelier d'eXtrem Archi de construire un produit fini qui réponde à la notion de Minimum Viable Product énoncée lors des ateliers d'eXtrem Archi.

Nous passerons en revue les challenges d'organisation projet, de culture d'entreprise, et de contraintes qualité imposés par un acteur global du monde pharmaceutique. Les problématiques qui ont été posées et comment nous les avons résolues.


0