Azure DP-100 : un plan d'étude de 6 semaines pour l'associé scientifique des données
Un plan DP-100 réaliste de 6 semaines couvrant Azure ML SDK v2, MLflow, le designer et le déploiement — ainsi que les pièges qui font échouer les candidats pourtant préparés.
DP-100 est l'examen Conception et implémentation d'une solution de science des données sur Azure. 165 $ US, 40 à 60 questions sur 100 minutes (le nombre varie en raison des études de cas), une ou deux sections d'étude de cas, score de réussite ajusté de 700/1000. C'est la certification associée basée sur les rôles pour les scientifiques des données travaillant sur Azure Machine Learning.
Six semaines à 8-10 heures par semaine suffisent si vous connaissez déjà Python, scikit-learn et les concepts ML de base. Si vous apprenez le ML à partir de zéro, le DP-100 n'est pas encore le bon examen — suivez d'abord un cours de formation de modèles. L'examen teste Azure ML, et non si vous comprenez une matrice de confusion.
Ce que le DP-100 teste réellement
Le guide d'examen actuel (mis à jour en 2024 pour supprimer le SDK v1 et s'orienter entièrement vers la v2) se décompose comme suit :
- Gérer les ressources Azure ML (espaces de travail, calcul, magasins de données, environnements) — environ 25 %
- Exécuter des expériences et entraîner des modèles (tâches, suivi MLflow, AutoML, hyperdrive) — environ 25 %
- Déployer et opérationnaliser des solutions ML (points de terminaison en ligne gérés, points de terminaison par lots, surveillance) — environ 25 %
- Implémenter un ML responsable (équité, interprétabilité, confidentialité différentielle) — environ 25 %
Ce que cela signifie en pratique : vous devez maîtriser le SDK Python Azure ML v2, être à l'aise dans Azure ML Studio (designer et notebooks), et comprendre clairement les différences entre le suivi MLflow dans Azure ML, l'AutoML pour les données tabulaires / images / NLP, et les tâches HyperDrive / sweep pour l'optimisation des hyperparamètres. La partie déploiement exige que vous connaissiez les points de terminaison en ligne gérés (en temps réel, avec répartition du trafic et bleu/vert) par rapport aux points de terminaison par lots (score à l'échelle).
Prérequis dont vous avez réellement besoin
Avant la semaine 1, vous devriez maîtriser :
- Python, confortablement. Lire et écrire des fonctions, des classes, des décorateurs, des environnements virtuels.
- pandas + numpy à un niveau opérationnel.
- scikit-learn, y compris
Pipeline,train_test_split, les régresseurs et classifieurs de base, etColumnTransformer. - ML conceptuel : division entraînement/validation/test, validation croisée, surapprentissage, régularisation, la différence entre les métriques de régression et de classification.
- Une certaine exposition à Azure — au minimum, le vocabulaire AZ-900. Les groupes de ressources, le RBAC, les comptes de stockage et Key Vault ne seront pas réexpliqués lors de l'examen.
Si ces points vous semblent incertains, passez deux semaines à les renforcer avant de commencer le plan ci-dessous.
Semaine 1 : espace de travail et calcul
Familiarisez-vous d'abord avec la plateforme. Ne lisez pas encore le guide d'examen de bout en bout.
- Créez un compte Azure gratuit si vous n'en avez pas. Créez un espace de travail Azure ML via le portail. Notez ce qui est créé en même temps : compte de stockage, Key Vault, registre de conteneurs, Application Insights. L'examen pose des questions à ce sujet.
- Provisionnez une instance de calcul (une petite — D2s_v3 est suffisante) et un cluster de calcul avec min nodes = 0. Notez que les instances de calcul sont facturées même lorsqu'elles sont inactives, mais que les nœuds de cluster passent à zéro. Ceci fait partie de l'examen.
- Parcourez l'interface utilisateur d'Azure ML Studio. Cliquez sur Magasins de données (Datastores), Jeux de données / Actifs de données (Datasets / Data assets), Environnements, Modèles, Points de terminaison (Endpoints). Vous ne construisez pas encore — vous vous familiarisez avec la disposition.
- Attachez un notebook à l'instance de calcul. Installez
azure-ai-ml(le package SDK v2 — et nonazureml-core, qui est v1 et déprécié). Authentifiez-vous avecDefaultAzureCredentialet créez unMLClient. Imprimez le nom de l'espace de travail. C'est votre "hello world."
Point de contrôle de fin de semaine : vous pouvez vous connecter à votre espace de travail depuis un notebook en moins de 60 secondes sans avoir à chercher quoi que ce soit.
Semaine 2 : données, environnements, tâches
Maintenant, vous construisez de vraies choses.
- Enregistrez un CSV comme actif
Data(URI file ou MLTable). Lisez-le depuis un notebook en utilisantml_client.data.get(...). L'examen adore la distinction entre les types d'actifs de donnéesuri_file,uri_folderetmltable— mémorisez le cas d'utilisation pour chacun. - Créez un environnement personnalisé. Soit en rédigeant un
conda.yaml, soit en utilisant un environnement géré avec une dépendance pip supplémentaire. Soumettez une tâchecommandqui exécute un script d'entraînement (un classifieur scikit-learn de 30 lignes sur l'ensemble de données que vous venez d'enregistrer). - Utilisez l'autologging MLflow dans votre script (
mlflow.sklearn.autolog()puis fit). Observez les métriques et les artefacts apparaître dans la tâche. Comparez-le à la journalisation manuelle avecmlflow.log_metric(). - Soumettez la tâche à votre cluster de calcul au lieu d'une instance de calcul. Observez le cluster démarrer à partir de 0 et se réduire.
Piège à assimiler : dans le SDK v2, les tâches sont soumises via la fonction command de azure.ai.ml, et non via ScriptRunConfig (c'était la v1). L'examen vous donnera du code de style v1 dans les choix de mauvaises réponses. Entraînez votre œil à le repérer.
Semaine 3 : AutoML, HyperDrive, pipelines
Semaine ML plus dense.
- Exécutez une tâche de classification AutoML depuis le SDK sur le même ensemble de données. Limitez-la à 30 minutes et
max_trials=10pour ne pas consommer de crédits. Regardez le tableau de classement. - Exécutez une tâche de balayage (sweep) / HyperDrive sur un script d'entraînement personnalisé. Essayez d'abord l'échantillonnage
random, puisbayesian(qui ne prend pas en charge l'arrêt précoce — c'est une question d'examen). - Renseignez-vous sur les politiques d'arrêt précoce : bandit, arrêt médian, sélection par troncature. Connaissez l'interface de chacune — en particulier les paramètres
slack_factoretslack_amountde bandit. - Construisez une tâche de pipeline avec au moins deux composants — un composant de préparation des données et un composant d'entraînement — connectés ensemble. Les pipelines ne sont pas une part énorme de l'examen, mais ils apparaissent suffisamment souvent pour que vous ne vouliez pas deviner le YAML le jour de l'examen.
Point de contrôle de fin de semaine : vous pouvez décrire à voix haute ce que font l'échantillonnage Random, Grid et Bayesian, quand utiliser lequel, et pourquoi Bayesian ne se combine pas avec bandit.
Semaine 4 : déploiement
C'est là que la plupart des candidats perdent des points.
- Enregistrez un modèle à partir de la sortie d'une tâche. Pratiquez des deux manières : depuis le SDK avec
ml_client.models.create_or_update, et depuis l'interface utilisateur du studio. - Déployez le modèle sur un point de terminaison en ligne géré. Mettez en place au moins deux déploiements derrière le même point de terminaison et répartissez le trafic à 90/10 entre eux. C'est le modèle bleu/vert que Microsoft teste directement.
- Déployez le même modèle sur un point de terminaison par lots. Évaluez un dossier de fichiers d'entrée. Notez que les points de terminaison par lots ne maintiennent pas le calcul inactif ; ils démarrent des clusters par invocation.
- Configurez la surveillance de la dérive des données sur le déploiement. Configurez une alerte Application Insights. L'examen posera au moins une question sur Model Monitor (le nouveau nom de ce qui était appelé Data Drift Monitor dans le SDK v1).
Piège : les points de terminaison en ligne gérés sont facturés en fonction de la VM sous-jacente, que vous envoyiez du trafic ou non. L'examen présentera un scénario où la réponse la moins chère est un point de terminaison par lots et où les mauvaises réponses correspondent toutes à des points de terminaison en ligne. Lisez la question pour "les prédictions n'ont pas besoin d'être en temps réel" avant de choisir.
Semaine 5 : ML responsable et études de cas
Moins de code, plus de lecture.
- Parcourez le tableau de bord de l'IA responsable de Microsoft pour un modèle entraîné. Générez des métriques d'équité, une analyse des erreurs, des valeurs d'interprétabilité du modèle (SHAP). L'examen teste le vocabulaire, pas la profondeur de l'implémentation.
- Lisez sur la confidentialité différentielle dans Azure ML —
azureml-opendp-smartnoiseexiste, mais l'examen reste conceptuel. - Passez votre premier examen blanc complet dans des conditions chronométrées. Deux études de cas consécutives prendront plus de 30 minutes. Habituez-vous au rythme.
- Identifiez les domaines faibles à partir du score de pratique. Pour la plupart des candidats, il s'agit soit des détails internes du déploiement, soit des politiques d'optimisation des hyperparamètres — revenez aux semaines 3 ou 4.
Semaine 6 : révision intensive et passage de l'examen
Passez des examens blancs tous les deux jours. Après chacun, notez les services ou concepts sur lesquels vous vous êtes trompé. Des schémas émergeront — généralement autour des environnements (gérés vs personnalisés vs enregistrés), des types d'actifs de données, et de l'outil de surveillance qui est la bonne réponse (Application Insights vs Azure Monitor vs espace de travail Log Analytics).
Planifiez l'examen pour la fin de la semaine. Si vous obtenez plus de 80 % sur deux examens blancs consécutifs dans des conditions chronométrées, vous êtes prêt. En dessous de 70 %, cela signifie qu'il faut prolonger d'une semaine — la reprise à 165 $ plus le délai de 24 heures coûte plus cher que sept jours supplémentaires.
Comment le DP-100 s'inscrit dans le cadre des AI-102 et DP-900
DP-100 est la voie du scientifique des données ; AI-102 est la voie de l'ingénieur IA. Le chevauchement est faible. Le DP-100 vous demande d'entraîner et de déployer des modèles personnalisés dans Azure ML ; l'AI-102 vous demande de connecter les services Azure AI (Vision, Langage, OpenAI) à des applications. Si vous êtes un scientifique des données, le DP-100 seul est suffisant. Si vous êtes un ingénieur logiciel qui construit des fonctionnalités de type Copilot, l'AI-102 est plus approprié et le DP-100 est excessif.
Le DP-900 est un échauffement amical — utile si vous êtes nouveau dans les services de données Azure en général, redondant si vous avez déjà travaillé sur Azure ML.
Lorsque vous êtes prêt à approfondir les questions, parcourez la banque de questions DP-100 sur CertLabPro ou démarrez une simulation chronométrée. Les questions d'étude de cas sont celles où la pression du temps se fait sentir — entraînez-vous avec un chronomètre, et non lors d'une lecture l'après-midi au café.