Formation DP-601 : Implémenter un Lakehouse avec Microsoft Fabric
- Spécialistes de la data
Présentation de la formation DP-601
Cette formation “Implémenter un Lakehouse avec Microsoft Fabric” repose sur les éléments clés de Microsoft Fabric. Elle vous offre donc une exploration approfondie de ses fonctionnalités pour une analyse de bout en bout des données.
Grâce à la maîtrise des Lakehouses vous saurez donc analyser efficacement vos données et réaliser des analyses avancées avec Apache Spark.
La gestion des tables Delta Lake vous garantira donc l’intégrité de vos analyses grâce à ses fonctionnalités avancées de contrôle des versions et de cohérence des données. De plus, vous apprendrez aussi à ingérer et transformer des données à grande échelle avec Dataflows Gen2, et à orchestrer vos workflows d’analyse à l’aide des pipelines Data Factory.
Ainsi que vous soyez un analyste de données expérimenté ou en développement, cette formation vous dotera des compétences nécessaires pour tirer pleinement parti de Microsoft Fabric et mener des analyses performantes.
Objectifs pédagogiques
A l’issue de cette formation, les participants seront alors en capacité de :
- Décrire l’analyse de bout en bout dans Microsoft Fabric
- Utiliser Lakehouses dans Microsoft Fabric
- Utiliser Apache Spark dans Microsoft Fabric
- Travailler avec les tables Delta Lake dans Microsoft Fabric
- Ingérer des données avec Dataflows Gen2 dans Microsoft Fabric
- Utiliser les pipelines Data Factory dans Microsoft Fabric
Décrire l’analyse de bout en bout dans Microsoft Fabric
- Démarrer avec Microsoft Fabric
- Implémenter un Lakehouse avec Microsoft Fabric
- Explorer l’analytique de bout en bout avec Microsoft Fabric
- Activer et utiliser Microsoft Fabric
Utiliser des Lakehouses dans Microsoft Fabric
- Décrire les principales fonctionnalités et capacités des Lakehouses dans Microsoft Fabric
- Créer une Lakehouse
- Ingérer des données dans des fichiers et des tables dans un Lakehouse
- Interroger les tables Lakehouse avec SQL
- Implémenter un Lakehouse avec Microsoft Fabric
- Explorer Microsoft Fabric Lakehouse
- Travailler avec Microsoft Fabric Lakehouses
- Créer et ingérer des données avec Microsoft Fabric Lakehouse
Utiliser Apache Spark dans Microsoft Fabric
- Configurer Spark dans un espace de travail Microsoft Fabric
- Identifier les scénarios appropriés pour les notebooks Spark et les tâches Spark
- Utiliser les dataframes Spark pour analyser et transformer les données
- Utiliser Spark SQL pour interroger des données dans des tables et des vues
- Visualiser les données dans un notebook Spark
- Implémenter un Lakehouse avec Microsoft Fabric
- Exécuter le code Spark
- Travailler avec des données dans une base de données Spark
- Travailler avec des données à l’aide de Spark SQL
- Visualiser les données dans un notebook Spark
- Analyser des données avec Apache Spark
Travailler avec les tables Delta Lake dans Microsoft Fabric
- Comprendre Delta Lake et les tables delta dans Microsoft Fabric
- Créer et gérer des tables delta à l’aide de Spark
- Utiliser Spark pour interroger et transformer des données dans des tables delta
- Utiliser des tables delta avec le streaming structuré Spark
- Démarrer avec Microsoft Fabric
- Implémenter un Lakehouse avec Microsoft Fabric
- Utiliser des tables delta avec des données en continu
Ingérer des données avec Dataflows Gen2 dans Microsoft Fabric
- Décrire les fonctionnalités de Dataflow (Gen2) dans Microsoft Fabric
- Créer des solutions Dataflow (Gen2) pour ingérer et transformer des données
- Inclure un Dataflow (Gen2) dans un pipeline
- Implémenter un Lakehouse avec Microsoft Fabric
- Comprendre les flux de données (Gen2) dans Microsoft Fabric
- Explorer les flux de données (Gen2) dans Microsoft Fabric
- Intégrer les flux de données (Gen2) et les pipelines dans Microsoft Fabric
- Créer et utiliser un flux de données (Gen2) dans Microsoft Fabric
Utiliser les pipelines Data Factory dans Microsoft Fabric
- Décrire les fonctionnalités de pipeline dans Microsoft Fabric
- Utiliser l’activité « Copier les données dans un pipeline »
- Créer des pipelines basés sur des modèles prédéfinis
- Exécuter et surveiller les pipelines
- Implémenter un Lakehouse avec Microsoft Fabric
- Utiliser l’activité Copier les données
- Utiliser des modèles de pipeline
- Exécuter et surveiller les pipelines
- Ingérer des données avec un pipeline
Cette formation est principalement constituée de théorie et d’ateliers techniques ou démonstrations. Ce qui vous permet donc d’être rapidement opérationnel.
- Support : un support de cours officiel Microsoft est remis aux participants au format électronique.
- Evaluation : les acquis sont évalués tout au long de la formation par le formateur (questions régulières ou autres méthodes).
- Formateur : le tout est animé par un consultant-formateur expérimenté, nourri d’une expérience de terrain et accrédité Microsoft Certified Trainer.
- Satisfaction : pour conclure la formation, chaque participant répond à un questionnaire d’évaluation. Celui-ci est ensuite analysé en vue de maintenir et d’améliorer la qualité de nos formations.
- Suivi : une feuille d’émargement par demi-journée de présence est signée par chacun des participants.
- Cette formation peut aussi être dispensée en format inter-entreprises ou intra-entreprise sur demande et en mode présentiel comme en distanciel.
A noter qu’avoir suivi la formation « DP-900 Microsoft Azure Data Fundamentals » ou un niveau équivalent est recommandé.
Un niveau d’anglais B1 est requis également, retrouvez les niveaux sur ce lien : Classification des niveaux de langue
- Métro 9 : Miromesnil
- Métro 13 : Saint-Philippe-du-Roule
- Bus 22-43-52 : Courcelles ou Miromesnil
- Bus 84 : Ruysdaël – Parc Monceau
Nos formations sur la même thématique
Formation DP-900 : Les fondamentaux de Microsoft Azure Data

Formation DP-203 : Data Engineer sur Microsoft Azure

Formation DP-100 : Concevoir et implémenter une solution de science de donnée sur Azure
