GCP Associate Data Practitioner (ADP) : la nouvelle certification de données d'entrée de gamme
L'ADP a été lancée fin 2024 comme certification de données GCP de niveau associé, en dessous de la PDE. Voici ce qu'elle couvre et à qui elle s'adresse.
Pendant des années, le parcours de certification de données GCP a présenté une lacune. Soit vous passiez la CDL (fondamentale, conceptuelle, sans SQL), soit vous alliez directement vers la certification Professional Data Engineer (PDE), qui suppose plusieurs années de travail sur les données en production et aborde les mécanismes internes de Dataflow, la conception de schémas et l'IAM sur les ressources de données à un niveau qui met durement à l'épreuve les candidats non préparés. Le milieu était vide.
Google a comblé cette lacune fin 2024 avec l'Associate Data Practitioner (ADP). Il s'agit d'un examen de niveau associé à 125 $, d'environ 50 questions, d'une durée de deux heures, et qui s'adresse directement aux personnes ayant un à deux ans d'expérience dans une carrière liée aux données sur GCP — ingénieurs de données juniors, analystes-ingénieurs, professionnels de la BI se dirigeant vers les pipelines, et experts des données AWS / Azure apprenant la pile GCP.
Ce que l'ADP teste réellement
Les objectifs ont été publiés en octobre 2024 et ont fait l'objet de révisions mineures à la mi-2025. Cinq domaines :
- Ingestion et traitement des données. Cloud Storage comme zone d'atterrissage, chargements BigQuery (par lots et en streaming), Pub/Sub pour l'ingestion d'événements, modèles Dataflow (pas les mécanismes internes de Dataflow — ça, c'est la PDE), Datastream pour le CDC.
- Stockage et modélisation des données. Datasets BigQuery, partitionnement, clustering, vues matérialisées, types de tables (gérées, externes, BigLake), classes Cloud Storage, choix entre BigQuery / Cloud SQL / Firestore / Bigtable pour une charge de travail donnée.
- Orchestration des données. Dataform pour les transformations SQL (l'équivalent moderne de dbt sur GCP — Google l'a acquis en 2020 et c'est maintenant un produit propriétaire), Cloud Composer (Airflow géré) à un niveau basique, Cloud Scheduler.
- Analyse et visualisation des données. SQL BigQuery — du vrai SQL, incluant les fonctions de fenêtre, les jointures, la saveur BigQuery des tableaux / structs — Looker Studio, Looker (oui, la banque de questions les distingue et oui, c'est déroutant), Connected Sheets de base.
- Opérations, surveillance et sécurité. IAM pour les ressources de données (accès au niveau du dataset vs. au niveau de la table vs. au niveau de la ligne vs. au niveau de la colonne), Cloud DLP, gouvernance Dataplex de base, optimisation des requêtes avec le plan de requête BigQuery / EXPLAIN.
Il y a aussi une bonne part de questions "quel service pour quelle charge de travail" — le genre de questions de décision qu'on attend d'un spécialiste des données de niveau associé.
Comparaison entre ADP et PDE
| ADP | PDE | |
|---|---|---|
| Niveau | Associé | Professionnel |
| Coût | 125 $ | 200 $ |
| Durée | 2h, ~50 q | 2h, ~50 q |
| Validité | 3 ans | 2 ans |
| Expérience minimale | ~1 an sur les données GCP | ~3 ans d'industrie, 1+ sur GCP |
| Profondeur Dataflow | Modèles et concepts de base | Pipelines personnalisés, fenêtrage, données tardives, sémantique exactement-une fois |
| Profondeur BigQuery | Partitionnement, clustering, optimisation de base | Planification de la capacité, BI Engine, réservations de slots, plongée dans les plans de requête |
| Complexité des scénarios | Pipeline unique, domaine unique | Pipelines multiples, domaines multiples, avec contraintes de coût / SLA / conformité |
L'ADP est un tremplin clair vers la PDE. Les objectifs se chevauchent suffisamment pour que le travail de préparation se cumule. Ce n'est cependant pas un substitut à la PDE si vous visez des rôles d'ingénieur de données senior. Les recruteurs connaissent la différence ; les données de levels.fyi sur les rôles étiquetés PDE sont également d'un niveau supérieur à ceux étiquetés ADP lorsque les deux apparaissent dans les annonces (ce qui est rare — l'ADP est encore trop récente pour être filtrée clairement).
Qui devrait passer l'ADP
- Ingénieurs de données juniors et analystes-ingénieurs avec moins de deux ans d'expérience GCP. L'ADP est la bonne certification pour votre niveau. Ne visez pas la PDE dès la première année ; l'examen est conçu pour être impitoyable envers ceux qui n'ont pas réellement effectué le travail.
- Analystes se dirigeant vers les pipelines. Si vous avez écrit du SQL dans Looker et que vous commencez à prendre en charge la couche d'orchestration et d'ingestion, l'ADP est exactement le programme structuré dont vous avez besoin. La triade Dataform + BigQuery + Composer constitue la pile moderne de l'analyste-ingénieur GCP.
- Ingénieurs de données AWS / Azure apprenant GCP. Si vous maîtrisez déjà dbt + Snowflake / Redshift / Synapse, l'ADP est le moyen le plus rapide de transposer ce modèle mental vers BigQuery + Dataform + Looker. Deux à trois semaines d'étude ciblée et vous serez opérationnel.
- Personnes en reconversion professionnelle venant de l'ingénierie non-data. Si vous êtes un ingénieur backend se tournant vers les données, l'ADP vous donne le vocabulaire des données spécifique à GCP sans vous obliger à apprendre les mécanismes internes des systèmes distribués à la profondeur de la PDE.
Qui devrait sauter l'ADP
Si vous travaillez avec les données GCP depuis trois ans ou plus et que vous êtes déjà à l'aise avec les pipelines Dataflow personnalisés, les réservations de slots et l'optimisation des coûts BigQuery au niveau de l'organisation, sautez l'ADP et passez directement à la PDE. L'ADP n'ajoutera rien à un CV senior que la PDE ne ferait déjà.
Si vous êtes un ingénieur logiciel qui écrit occasionnellement du SQL mais ne possède pas d'infrastructure de données, vous n'avez pas besoin de certification de données. L'ACE ou la PCA couvre les fondamentaux de GCP et votre travail sur les données n'a pas besoin d'un signal distinct.
Un plan de préparation sur 6 semaines
Suppose 8 heures par semaine et un an d'exposition à GCP, même si ce n'est pas spécifiquement du travail sur les données.
- Semaine 1 : Fondamentaux de BigQuery. Datasets, tables (gérées / externes / BigLake), partitionnement et clustering, plan de requête BigQuery, bases du modèle de slots, tarification à la demande vs. à la capacité. Labo : chargez un dataset public, écrivez une requête non triviale, examinez le plan de requête, puis ajoutez le partitionnement et remesurez.
- Semaine 2 : Modèles d'ingestion. Pub/Sub pour le streaming d'événements, modèles Dataflow pour l'ETL par lots / en streaming, Datastream pour le CDC de base de données, insertions en streaming BigQuery, Storage Transfer Service. Construisez un pipeline de bout en bout : Pub/Sub → modèle Dataflow → BigQuery, avec un bucket de staging Cloud Storage.
- Semaine 3 : Transformation et orchestration. Dataform — l'élément majeur que cette certification met en avant et que la PDE dévalorise. SQLX, définitions, assertions, dépendances, releases planifiées. Cloud Composer pour l'orchestration non-SQL. Construisez un projet Dataform à partir des données que vous avez chargées en semaine 1.
- Semaine 4 : Analyse et visualisation. Looker Studio (gratuit, axé sur les tableaux de bord) vs. Looker (payant, couche sémantique + LookML). Connected Sheets. BigQuery BI Engine pour les tableaux de bord accélérés. Construisez un tableau de bord Looker Studio basé sur vos transformations de la semaine 3.
- Semaine 5 : Gouvernance et opérations. IAM au niveau du dataset / de la table / de la ligne / de la colonne, vues autorisées, Cloud DLP pour la détection et le masquage des PII, Dataplex (fabric de données / gouvernance), journalisation d'audit. Surveillance des coûts avec les vues information_schema de BigQuery. Cette semaine est axée sur la lecture de documentation.
- Semaine 6 : Examens blancs. Trois à cinq passages complets chronométrés. La banque de questions CertLabPro, Whizlabs, et l'examen pratique officiel Cloud Skills Boost. Visez 80 %+ avant de planifier.
Signal salarial
L'ADP est trop récente pour disposer de données salariales claires. Le proxy le plus proche sont les rôles d'analyste-ingénieur BigQuery / Looker, qui se situent entre 100 000 $ et 140 000 $ de salaire de base dans les grandes métropoles américaines (données levels.fyi 2025-2026 pour les ingénieurs d'analyse, fourchettes Built In, BLS OEWS 15-1242 pour les administrateurs et architectes de bases de données pour la fourchette plus large). L'ajout de l'ADP à ce rôle peut vous faire gagner peut-être 5 000 $ à 10 000 $ en interne ; la plus grande avancée vient de la certification qui vous aide à passer à l'ingénierie des données proprement dite, où la fourchette monte à 130 000 $ à 180 000 $ de base. La PDE fait davantage bouger le chiffre, mais ADP puis PDE en 12-18 mois est une trajectoire raisonnable et probablement plus honnête que de se précipiter sur la PDE sans l'expérience pour la soutenir.
En résumé
L'ADP comble une véritable lacune dans le parcours de données GCP. Si vous êtes junior à intermédiaire dans un rôle de données GCP, c'est la certification à passer en 2026. C'est un examen équitable, le matériel de préparation est clair, et la certification correspond à un niveau d'emploi réel plutôt qu'à une simple aspiration.
Parcourez la banque de questions ADP sur CertLabPro lorsque vous êtes prêt à vous exercer, ou démarrez un examen chronométré si vous êtes déjà préparé. Vous visez la PDE ensuite ? La banque de questions PDE se trouve ici.