Azure DP-100: ein 6-Wochen-Lernplan für den Data Scientist Associate
Ein realistischer 6-Wochen-Plan für DP-100, der Azure ML SDK v2, MLflow, Designer und Bereitstellung abdeckt – plus die Fallstricke, die ansonsten vorbereiteten Kandidaten zum Verhängnis werden.
DP-100 ist die Prüfung für das Entwerfen und Implementieren einer Data-Science-Lösung in Azure. 165 USD, 40–60 Fragen in 100 Minuten (die Anzahl variiert aufgrund von Fallstudien), ein oder zwei Fallstudienabschnitte, skalierte Bestehensnote von 700/1000. Es ist die rollenbasierte Associate-Zertifizierung für Data Scientists, die mit Azure Machine Learning arbeiten.
Sechs Wochen mit 8–10 Stunden pro Woche sind ausreichend, wenn Sie bereits Python, scikit-learn und grundlegende ML-Konzepte beherrschen. Wenn Sie ML von Grund auf neu lernen, ist DP-100 noch nicht die richtige Prüfung – absolvieren Sie zuerst einen Modelltrainingskurs. Die Prüfung testet Azure ML, nicht ob Sie eine Konfusionsmatrix verstehen.
Was DP-100 tatsächlich testet
Der aktuelle Prüfungsleitfaden (2024 aktualisiert, um SDK v1 zu entfernen und sich vollständig auf v2 zu konzentrieren) gliedert sich grob wie folgt:
- Verwaltung von Azure ML-Ressourcen (Workspaces, Compute, Datastores, Environments) – ca. 25 %
- Ausführen von Experimenten und Trainieren von Modellen (Jobs, MLflow Tracking, AutoML, HyperDrive) – ca. 25 %
- Bereitstellen und Operationalisieren von ML-Lösungen (Managed Online Endpoints, Batch Endpoints, Monitoring) – ca. 25 %
- Implementierung von Responsible ML (Fairness, Interpretierbarkeit, Differential Privacy) – ca. 25 %
Was das in der Praxis bedeutet: Sie müssen fließend mit dem Azure ML Python SDK v2 sein, sich in Azure ML Studio (Designer plus Notebooks) wohlfühlen und die Unterschiede zwischen MLflow Tracking in Azure ML, AutoML für tabellarische Daten / Bilder / NLP und HyperDrive / Sweep Jobs für die Hyperparameter-Abstimmung klar verstehen. Der Bereitstellungsteil verlangt, dass Sie Managed Online Endpoints (Echtzeit, mit Traffic Splitting und Blue/Green) im Vergleich zu Batch Endpoints (Scoring im großen Maßstab) kennen.
Tatsächlich benötigte Voraussetzungen
Vor Woche 1 sollten Sie Folgendes beherrschen:
- Python, fließend. Lesen und Schreiben von Funktionen, Klassen, Decorators, virtuellen Umgebungen.
- pandas + numpy auf einem Arbeitsniveau.
- scikit-learn, einschließlich
Pipeline,train_test_split, grundlegenden Regressoren und Klassifizierern sowieColumnTransformer. - Konzeptionelles ML: Train/Validation/Test-Split, Kreuzvalidierung, Overfitting, Regularisierung, der Unterschied zwischen Regressions- und Klassifizierungsmetriken.
- Einige Azure-Kenntnisse — mindestens das AZ-900-Vokabular. Ressourcengruppen, RBAC, Speicherkonten und Key Vault werden in der Prüfung nicht erneut erklärt.
Wenn diese Punkte unsicher wirken, investieren Sie zwei Wochen, um sie zu festigen, bevor Sie mit dem untenstehenden Plan beginnen.
Woche 1: Workspace und Compute
Machen Sie sich zuerst mit der Plattform vertraut. Lesen Sie den Prüfungsleitfaden noch nicht von vorne bis hinten durch.
- Erstellen Sie ein kostenloses Azure-Konto, falls Sie noch keines haben. Erstellen Sie einen Azure ML Workspace über das Portal. Beachten Sie, was dabei erstellt wird: Storage Account, Key Vault, Container Registry, Application Insights. Die Prüfung fragt danach.
- Stellen Sie eine Compute Instance (eine kleine – D2s_v3 ist ausreichend) und einen Compute Cluster mit min nodes = 0 bereit. Beachten Sie, dass Compute Instances auch im Leerlauf abgerechnet werden, aber Cluster Nodes auf Null skalieren. Dies ist Prüfungsstoff.
- Erkunden Sie die Azure ML Studio Benutzeroberfläche. Klicken Sie auf Datastores, Datasets / Data Assets, Environments, Models, Endpoints. Sie bauen noch nichts – Sie lernen das Layout kennen.
- Hängen Sie ein Notebook an die Compute Instance an. Installieren Sie
azure-ai-ml(das SDK v2-Paket – nichtazureml-core, das v1 ist und veraltet ist). Authentifizieren Sie sich mitDefaultAzureCredentialund erstellen Sie einenMLClient. Drucken Sie den Workspace-Namen aus. Das ist Ihr "Hello World".
Checkpoint am Ende der Woche: Sie können sich in weniger als 60 Sekunden von einem Notebook aus mit Ihrem Workspace verbinden, ohne etwas nachschlagen zu müssen.
Woche 2: Daten, Umgebungen, Jobs
Jetzt bauen Sie echte Dinge.
- Registrieren Sie eine CSV-Datei als
Data-Asset (URI File oder MLTable). Lesen Sie sie aus einem Notebook mitml_client.data.get(...). Die Prüfung legt großen Wert auf die Unterscheidung zwischenuri_file,uri_folderundmltableData Asset-Typen – merken Sie sich den Anwendungsfall für jeden. - Erstellen Sie eine benutzerdefinierte Umgebung. Verfassen Sie entweder eine
conda.yamloder verwenden Sie eine kuratierte Umgebung plus eine zusätzliche Pip-Abhängigkeit. Senden Sie einencommand-Job, der ein Trainingsskript ausführt (einen 30-zeiligen scikit-learn-Klassifizierer auf dem gerade registrierten Dataset). - Verwenden Sie MLflow Autologging in Ihrem Skript (
mlflow.sklearn.autolog()und dann Fit). Beobachten Sie, wie die Metriken und Artefakte im Job erscheinen. Vergleichen Sie dies mit dem manuellen Logging mittelsmlflow.log_metric(). - Senden Sie den Job an Ihren Compute Cluster anstelle einer Compute Instance. Beobachten Sie, wie der Cluster von 0 hoch- und wieder herunterfährt.
Wichtiger Hinweis zum Verinnerlichen: In SDK v2 werden Jobs über die command-Funktion von azure.ai.ml eingereicht, nicht über ScriptRunConfig (das war v1). Die Prüfung wird Ihnen v1-Code in den falschen Antwortmöglichkeiten präsentieren. Trainieren Sie Ihr Auge, um dies zu erkennen.
Woche 3: AutoML, HyperDrive, Pipelines
Intensivere ML-Woche.
- Führen Sie einen AutoML-Klassifizierungsjob über das SDK mit demselben Dataset aus. Begrenzen Sie ihn auf 30 Minuten und
max_trials=10, um keine Credits zu verbrennen. Werfen Sie einen Blick auf die Bestenliste. - Führen Sie einen Sweep- / HyperDrive-Job über ein benutzerdefiniertes Trainingsskript aus. Probieren Sie zuerst
randomsampling, dannbayesian(welches keine frühzeitige Beendigung unterstützt – das ist eine Prüfungsfrage). - Informieren Sie sich über die Richtlinien zur vorzeitigen Beendigung: Bandit, Median Stopping, Truncation Selection. Kennen Sie die Schnittstelle für jede – insbesondere den
slack_factorundslack_amount-Umschalter von Bandit. - Erstellen Sie einen Pipeline-Job mit mindestens zwei Komponenten – einer Datenvorbereitungskomponente und einer Trainingskomponente –, die miteinander verbunden sind. Pipelines sind in der Prüfung nicht riesig, aber sie tauchen oft genug auf, dass Sie am Prüfungstag das YAML nicht erraten möchten.
Checkpoint am Ende der Woche: Sie können laut beschreiben, was Random, Grid und Bayesian Sampling tun, wann welches zu verwenden ist und warum Bayesian nicht mit Bandit kombiniert werden kann.
Woche 4: Bereitstellung
Hier verlieren die meisten Kandidaten Punkte.
- Registrieren Sie ein Modell aus der Ausgabe eines Jobs. Üben Sie beide Wege: über das SDK mit
ml_client.models.create_or_updateund über die Studio-UI. - Stellen Sie das Modell in einem Managed Online Endpoint bereit. Richten Sie mindestens zwei Deployments hinter demselben Endpoint ein und teilen Sie den Traffic 90/10 zwischen ihnen auf. Dies ist das Blue/Green-Muster, das Microsoft direkt testet.
- Stellen Sie dasselbe Modell in einem Batch Endpoint bereit. Bewerten Sie einen Ordner mit Eingabedateien. Beachten Sie, dass Batch Endpoints den Compute-Ressourcen nicht im Leerlauf halten; sie starten Cluster pro Aufruf.
- Richten Sie Data Drift Monitoring für die Bereitstellung ein. Konfigurieren Sie einen Application Insights-Alarm. Die Prüfung wird mindestens eine Frage zu Model Monitor (der neue Name für das, was in SDK v1 Data Drift Monitor hieß) enthalten.
Wichtiger Hinweis: Managed Online Endpoints werden nach der zugrunde liegenden VM abgerechnet, unabhängig davon, ob Sie Traffic senden oder nicht. Die Prüfung wird ein Szenario aufstellen, bei dem die günstigste Antwort ein Batch Endpoint ist und die falschen Antworten alle auf Online Endpoints setzen. Lesen Sie die Frage nach "Vorhersagen müssen nicht in Echtzeit erfolgen", bevor Sie auswählen.
Woche 5: Responsible ML und Fallstudien
Weniger Code, mehr Lesen.
- Gehen Sie das Responsible AI Dashboard von Microsoft für ein trainiertes Modell durch. Generieren Sie Fairness-Metriken, Fehleranalyse, Modellinterpretierbarkeit (SHAP)-Werte. Die Prüfung testet Vokabular, nicht die Implementierungstiefe.
- Lesen Sie über Differential Privacy in Azure ML –
azureml-opendp-smartnoiseexistiert, aber die Prüfung bleibt konzeptuell. - Machen Sie Ihre erste vollständige Übungsprüfung unter Zeitbedingungen. Zwei Fallstudien hintereinander werden 30+ Minuten in Anspruch nehmen. Gewöhnen Sie sich an den Rhythmus.
- Identifizieren Sie schwache Bereiche anhand des Übungsergebnisses. Für die meisten Kandidaten sind dies entweder Bereitstellungsdetails oder Hyperparameter-Tuning-Richtlinien – gehen Sie zurück zu Woche 3 oder 4.
Woche 6: Üben und Abschicken
Übungsprüfungen jeden zweiten Tag. Schreiben Sie nach jeder die Dienste oder Konzepte auf, bei denen Sie Fehler gemacht haben. Es werden Muster auftauchen – normalerweise bezüglich Umgebungen (curated vs. custom vs. registered), Data Asset-Typen und welches Monitoring-Tool die richtige Antwort ist (Application Insights vs. Azure Monitor vs. Log Analytics Workspace).
Planen Sie die Prüfung für das Ende der Woche. Wenn Sie bei zwei aufeinanderfolgenden Übungsprüfungen unter Zeitbedingungen über 80 % erreichen, sind Sie bereit. Unter 70 % bedeutet, eine weitere Woche dranzuhängen – die 165 $ für die Wiederholung plus die 24-stündige Abkühlzeit kosten mehr als weitere sieben Tage.
Wie DP-100 zu AI-102 und DP-900 passt
DP-100 ist der Data-Scientist-Track; AI-102 ist der AI-Engineer-Track. Die Überschneidung ist gering. DP-100 verlangt das Training und die Bereitstellung benutzerdefinierter Modelle in Azure ML; AI-102 verlangt das Verknüpfen von Azure AI Services (Vision, Language, OpenAI) in Anwendungen. Wenn Sie ein Data Scientist sind, ist DP-100 allein ausreichend. Wenn Sie ein Softwareentwickler sind, der Copilot-ähnliche Funktionen erstellt, ist AI-102 die bessere Wahl und DP-100 ist übertrieben.
DP-900 ist ein freundliches Warmup – nützlich, wenn Sie neu in Azure Data Services im Allgemeinen sind, redundant, wenn Sie bereits mit Azure ML gearbeitet haben.
Wenn Sie bereit sind, Fragen zu üben, durchsuchen Sie die DP-100-Fragensammlung auf CertLabPro oder starten Sie eine zeitgesteuerte Simulation. Die Fallstudienfragen sind der Punkt, an dem der Zeitdruck zuschlägt – üben Sie sie unter Zeitdruck, nicht bei einer Lektüre am Nachmittag im Café.