- Data engineers
- Data scientists
Présentation de la formation DP-203
Nous formons les Data Engineers sur les principes d’intégration, de transformation et de consolidation des données provenant de divers systèmes de données structurées et non structurées dans des structures qui conviennent à l’élaboration de solutions analytiques. Cette formation vous aidera à maîtriser ces concepts en adoptant les meilleures pratiques.

Pourquoi se former à la DP-203 ?
Objectifs pédagogiques de la formation DP-203
À l’issue de cette formation, les participants seront capables de :
- Utiliser un pool SQL serverless Azure Synapse pour interroger des fichiers dans un lac de données, transformer des données, et charger des données dans un entrepôt de données relationnel.
- Créer une base de données lake dans Azure Synapse Analytics et analyser des données avec Apache Spark.
- Transformer des données avec Spark, utiliser Delta Lake, et implémenter Azure Synapse Link pour SQL dans Azure Synapse Analytics.
- Analyser les données dans un entrepôt de données relationnelles et planifier un traitement transactionnel et analytique hybride avec Azure Synapse Analytics.
- Implémenter Azure Synapse Link avec Azure Cosmos DB.
- Utiliser Azure Stream Analytics pour ingérer des données de streaming à l’aide d’Azure Stream Analytics et Azure Synapse Analytics, puis visualiser des données en temps réel avec Azure Stream Analytics et Power BI.
- Intégrer Microsoft Purview avec Azure Synapse Analytics.
- Explorer Azure Databricks, utiliser Apache Spark dans Azure Databricks, et exécuter des notebooks Azure Databricks avec Azure Data Factory.
Découvrir l’engineering données dans Azure
- Identifier les tâches courantes de l’engineering données
- Décrire les concepts courants de l’engineering données
- Reconnaitre les services Azure pour l’engineering données
Découvrir Azure Data Lake Storage Gen2
- Décrire les principaux avantages et fonctionnalités d’Azure Data Lake Storage Gen2
- Activer Azure Data Lake Storage Gen2 dans un compte Stockage Azure
- Comparer Azure Data Lake Storage Gen2 et le Stockage Blob Azure
- Comprendre les situations dans lesquelles Azure Data Lake Storage Gen2 s’intègre aux étapes du traitement analytique
- Utiliser Azure Data Lake Storage Gen2 dans les charges de travail analytiques courantes
Découvrir Azure Synapse Analytics
- Identifier les problèmes métier traités par Azure Synapse Analytics adresse.
- Décrire les fonctionnalités principales d’Azure Synapse Analytics.
- Déterminer quand utiliser Azure Synapse Analytics.
Utiliser un pool SQL serverless Azure Synapse pour interroger des fichiers dans un Data Lake
- Identifier les fonctionnalités et les cas d’usage des pools SQL serverless dans Azure Synapse Analytics
- Interroger des fichiers CSV, JSON et Parquet avec un pool SQL serverless
- Créer des objets de base de données externes dans un pool SQL serverless
Utiliser des pools SQL serverless Azure Synapse pour transformer des données dans un Data Lake
- Utiliser une instruction CREATE EXTERNAL TABLE AS SELECT (CETAS) pour transformer des données.
- Encapsuler une instruction CETAS dans une procédure stockée.
- Inclure une procédure stockée de transformation de données dans un pipeline.
Créer une base de données lake dans Azure Synapse Analytics
- Comprendre les concepts et les composants de la base de données lake
- Décrire les modèles de base de données dans Azure Synapse Analytics
- Créer une base de données de lac
Analyser des données avec Apache Spark dans Azure Synapse Analytics
- Identifier les principales fonctionnalités d’Apache Spark.
- Configurer un pool Spark dans Azure Synapse Analytics.
- Exécuter du code pour charger, analyser et visualiser des données dans un notebook Spark.
Transformer des données avec Spark dans Azure Synapse Analytics
- Utiliser Apache Spark pour modifier et enregistrer des dataframes
- Partitionner les fichiers de données pour améliorer les performances et la scalabilité.
- Transformer des données avec SQL
Utiliser Delta Lake dans Azure Synapse Analytics
- Décrire les principales fonctionnalités de Delta Lake.
- Créer et utiliser des tables Delta Lake dans un pool Spark Synapse Analytics.
- Créer des tables de catalogue Spark pour les données Delta Lake.
- Utiliser des tables Delta Lake pour la diffusion en continu de données.
- Interroger des tables Delta Lake à partir d’un pool SQL Synapse Analytics.
Analyser les données dans un entrepôt de données relationnelles
- Concevoir un schéma pour un entrepôt de données relationnel.
- Créer des tables de faits, de dimension et de mise en lots.
- Utiliser SQL pour charger des données et pour interroger des tables d’entrepôt de données relationnelles.
Charger des données dans un entrepôt de données relationnel
- Charger des tables :
- de mise en lots dans un entrepôt de données
- de dimension dans un entrepôt de données
- de temps dans un entrepôt de données
- des dimension variable à évolution lente dans un entrepôt de données
- de faits dans un entrepôt de données
- Effectuer des optimisations postchargement dans un entrepôt de données
Créer un pipeline de données dans Azure Synapse Analytics
- Décrire les concepts de base des pipelines Azure Synapse Analytics.
- Créer un pipeline dans Azure Synapse Studio.
- Implémenter une activité de flux de données dans un pipeline.
- Lancer et superviser des exécutions de pipeline.
Utiliser des notebooks Spark dans un pipeline Azure Synapse
- Décrire l’intégration du notebook et du pipeline.
- Utiliser une activité de notebook Synapse dans un pipeline.
- Gérer des paramètres avec une activité de notebook.
Planifier un traitement transactionnel et analytique hybride avec Azure Synapse Analytics
- Décrire les modèles de traitement transactionnel et analytique hybride.
- Identifier les services Azure Synapse Link pour HTAP.
Implémenter Azure Synapse Link avec Azure Cosmos DB
- Configurer un compte Azure Cosmos DB pour utiliser Azure Synapse Link.
- Créer un conteneur avec le magasin analytique activé et un service lié pour Azure Cosmos DB.
- Analyser les données liées à l’aide de Spark et de Synapse SQL.
Implémenter Azure Synapse Link pour SQL
- Comprendre les concepts clés et les fonctionnalités d’Azure Synapse Link pour SQL.
- Configurer Azure Synapse Link pour Azure SQL Database et Azure Synapse Link pour Microsoft SQL Server.
Utiliser Azure Stream Analytics
- Comprendre les flux de données.
- Maitriser le traitement des événements.
- Appréhender les fonctions de fenêtre.
- Utiliser Azure Stream Analytics.
Ingérer des données de streaming à l’aide d’Azure Stream Analytics et Azure Synapse Analytics
- Décrire les scénarios d’ingestion de flux courants pour Azure Synapse Analytics.
- Configurer les entrées et les sorties pour une tâche Azure Stream Analytics.
- Définir une requête pour ingérer des données en temps réel dans Azure Synapse Analytics.
- Exécuter une tâche pour ingérer des données en temps réel et consommer ces données dans Azure Synapse Analytics.
Visualiser des données en temps réel avec Azure Stream Analytics et Power BI
- Configurer une sortie Stream Analytics pour Power BI.
- Utiliser une requête Stream Analytics pour écrire des données dans Power BI.
- Créer une visualisation de données en temps réel dans Power BI.
Utiliser Microsoft Purview
- Déterminer si Microsoft Purview est adapté à vos besoins de découverte et de gouvernance des données.
- Décrire comment les fonctionnalités de Microsoft Purview fonctionnent pour assurer la découverte et la gouvernance des données.
Intégrer Microsoft Purview et Azure Synapse Analytics
- Cataloguer les ressources de base de données Azure Synapse Analytics dans Microsoft Purview.
- Configurer l’intégration de Microsoft Purview dans Azure Synapse Analytics.
- Rechercher dans le catalogue Microsoft Purview à partir de Synapse Studio.
- Suivre la traçabilité des données dans les activités de pipelines Azure Synapse Analytics.
Explorer Azure Databricks
- Provisionner un espace de travail Azure Databricks.
- Identifier les principales charges de travail et entités pour Azure Databricks.
- Décrire les concepts clés d’une solution Azure Databricks.
Utiliser Apache Spark dans Azure Databricks
- Décrire les éléments clés de l’architecture Apache Spark.
- Créer et configurer un cluster Spark.
- Décrire les cas d’usage pour Spark.
- Utiliser Spark pour traiter, analyser et visualiser les données stockées dans des fichiers.
Exécuter des notebooks Azure Databricks avec Azure Data Factory
- Décrire comment les notebooks Azure Databricks peuvent être exécutés dans un pipeline.
- Créer un service lié Azure Data Factory pour Azure Databricks.
- Utiliser une activité Notebook dans un pipeline.
- Passer des paramètres à un notebook.
Dans cette formation, nous mélangeons théorie et ateliers techniques pour vous rendre rapidement opérationnel. En outre, chaque participant reçoit un support de cours électronique officiel de Microsoft.
Un de nos consultants-formateurs accrédités en tant que Microsoft Certified Trainer conduit la formation. Forts d’une solide expérience sur le terrain, ils rendent l’apprentissage à la fois interactif et enrichissant.
Pour l’évaluation, le formateur pose des questions régulières et utilise diverses méthodes pour mesurer vos acquis en continu. Cette approche favorise une expérience d’apprentissage à la fois dynamique et captivante
Après la formation, nous vous demandons de remplir un questionnaire de satisfaction. Vos retours nous aident à maintenir et à améliorer constamment la qualité de nos formations.
De plus, pour assurer un suivi rigoureux, chaque participant signe une feuille d’émargement par demi-journée de présence.
Enfin, nous offrons la flexibilité de dispenser cette formation aussi bien en présentiel qu’en distanciel et elle peut être personnalisée pour les besoins spécifiques de votre entreprise sur demande. Pour en savoir plus, contactez-nous
Pour comprendre le contenu de la formation DP-203 – Data Engineering on Microsoft Azure, les participants doivent avoir une expertise en matière d’intégration, de transformation et doivent savoir consolider divers systèmes de données structurées et non structurées dans un outils adapté à la création de solutions d’analyses. Nous préconisons aussi une bonne connaissance des langages SQL, Python ou Scala et une compréhension de l’architecture des données. Nous demandons à ce que les candidats aient suivi la formation “AZ-900 : Azure Fundamentals” et “DP-900 : Azure Data Fundamentals” ou avoir un niveau d’expérience équivalent.
Les supports de cours et les travaux pratiques sont en anglais. Un niveau d’anglais B1 est requis pour suivre cette formation. Retrouvez les niveaux de langue sur ce lien : Classification des niveaux de langue Il est fortement recommandé de suivre ce cours sur un ordinateur et de disposer d’un double écran pour plus de confort.
Cette formation est-elle vraiment faite pour vous ?
Testez vos connaissances et vérifiez si vous avez le niveau requis pour suivre correctement cette formation ? Je teste mes connaissances sur la DP-203
Vous pouvez vous inscrire à l’une de nos formations jusqu’à deux jours ouvrés avant son commencement, à condition qu’il reste des places disponibles et que nous ayons reçu votre devis signé.
De plus, si vous avez des besoins spécifiques liés à une situation de handicap, n’hésitez pas à en faire la demande ; nous adaptons volontiers nos moyens de prestation en fonction du type de handicap.
Notre centre de formation, Cellenza Training, vous accueille au 156 Boulevard Haussmann, dans le 8e arrondissement de Paris. Pour nous rejoindre, plusieurs options de transports en commun s’offrent à vous :
- Prenez la ligne 9 du métro et descendez à Miromesnil,
- Optez pour la ligne 13 du métro jusqu’à Saint-Philippe-du-Roule,
- Ou bien, empruntez les bus 22, 43, ou 52 et arrêtez-vous à Courcelles ou Miromesnil.
- Vous pouvez également prendre le bus 84 et descendre à l’arrêt Ruysdaël – Parc Monceau.
Cette formation ouvre la voie à la certification Microsoft « DP-203 – Data Engineering on Microsoft Azure », nous vous recommandons l’inscription à l’examen environ 1 mois après le passage de la formation. Les supports de cours et les Labs transmis lors de la formation vous aideront à réviser correctement votre certification.
Le voucher de certification vous est offert, il vous sera délivré en fin de formation. L’inscription à une certification se fait sur le site de Microsoft. Si vous souhaitez vous faire accompagner dans cette démarche, contactez-nous.
Qu’en pensent nos participants ?
Nos formations sur la même thématique
Formation DP-100 : Design et réalisation d’une solution datascience sur Azure
