
Before you begin
- Labs create a Google Cloud project and resources for a fixed time
- Labs have a time limit and no pause feature. If you end the lab, you'll have to restart from the beginning.
- On the top left of your screen, click Start lab to begin
Disable and re-enable the Dataflow API
/ 20
Create a BigQuery Dataset (name: taxirides)
/ 20
Create a table in BigQuery Dataset
/ 20
Create a Cloud Storage bucket
/ 20
Run the Pipeline
/ 20
Dans cet atelier, vous allez apprendre à créer un pipeline de flux de données à l'aide d'un des modèles Dataflow de Google. Plus spécifiquement, vous allez utiliser le modèle Pub/Sub vers BigQuery, qui permet de transférer dans une table BigQuery les messages au format JSON extraits d'un sujet Pub/Sub. La documentation concernant ce modèle est disponible dans le guide Premiers pas avec les modèles fournis par Google.
Pour créer l'ensemble de données et la table BigQuery, vous pouvez utiliser la ligne de commande Cloud Shell ou la console Cloud. Choisissez une seule méthode et continuez ainsi jusqu'à la fin de l'atelier. Si vous souhaitez essayer les deux méthodes, réalisez cet atelier une seconde fois.
Lisez ces instructions. Les ateliers sont minutés, et vous ne pouvez pas les mettre en pause. Le minuteur, qui démarre lorsque vous cliquez sur Démarrer l'atelier, indique combien de temps les ressources Google Cloud resteront accessibles.
Cet atelier pratique vous permet de suivre les activités dans un véritable environnement cloud, et non dans un environnement de simulation ou de démonstration. Des identifiants temporaires vous sont fournis pour vous permettre de vous connecter à Google Cloud le temps de l'atelier.
Pour réaliser cet atelier :
Cliquez sur le bouton Démarrer l'atelier. Si l'atelier est payant, une boîte de dialogue s'affiche pour vous permettre de sélectionner un mode de paiement. Sur la gauche, vous trouverez le panneau "Détails concernant l'atelier", qui contient les éléments suivants :
Cliquez sur Ouvrir la console Google Cloud (ou effectuez un clic droit et sélectionnez Ouvrir le lien dans la fenêtre de navigation privée si vous utilisez le navigateur Chrome).
L'atelier lance les ressources, puis ouvre la page "Se connecter" dans un nouvel onglet.
Conseil : Réorganisez les onglets dans des fenêtres distinctes, placées côte à côte.
Si nécessaire, copiez le nom d'utilisateur ci-dessous et collez-le dans la boîte de dialogue Se connecter.
Vous trouverez également le nom d'utilisateur dans le panneau "Détails concernant l'atelier".
Cliquez sur Suivant.
Copiez le mot de passe ci-dessous et collez-le dans la boîte de dialogue Bienvenue.
Vous trouverez également le mot de passe dans le panneau "Détails concernant l'atelier".
Cliquez sur Suivant.
Accédez aux pages suivantes :
Après quelques instants, la console Cloud s'ouvre dans cet onglet.
Cloud Shell est une machine virtuelle qui contient de nombreux outils pour les développeurs. Elle comprend un répertoire d'accueil persistant de 5 Go et s'exécute sur Google Cloud. Cloud Shell vous permet d'accéder via une ligne de commande à vos ressources Google Cloud.
Cliquez sur Activer Cloud Shell en haut de la console Google Cloud.
Passez les fenêtres suivantes :
Une fois connecté, vous êtes en principe authentifié et le projet est défini sur votre ID_PROJET :
gcloud
est l'outil de ligne de commande pour Google Cloud. Il est préinstallé sur Cloud Shell et permet la complétion par tabulation.
Résultat :
Résultat :
gcloud
, dans Google Cloud, accédez au guide de présentation de la gcloud CLI.
Pour vous assurer que vous avez bien accès à l'API requise, redémarrez la connexion à l'API Dataflow.
Dans la console Cloud, en haut, saisissez "API Dataflow" dans la barre de recherche. Cliquez sur API Dataflow dans les résultats.
Cliquez sur Gérer.
Cliquez sur Désactiver l'API.
Si vous êtes invité à confirmer votre choix, cliquez sur Désactiver.
Une fois l'API réactivée, l'option permettant de la désactiver s'affiche sur la page.
Tester la tâche terminée
Cliquez sur Vérifier ma progression pour valider la tâche exécutée.
Commencez par créer la table et l'ensemble de données BigQuery.
bq
. Ignorez-la et passez à la tâche 3 si vous souhaitez effectuer ces étapes à l'aide de la console Cloud.
taxirides
:Le résultat doit être semblable à ceci :
Tester la tâche terminée
Cliquez sur Vérifier ma progression pour valider la tâche exécutée. Si l'ensemble de données BigQuery a été correctement créé, vous recevez une note d'évaluation.
Maintenant que vous avez créé votre ensemble de données, servez-vous-en pour instancier une table BigQuery dans l'étape suivante.
Le résultat doit être semblable à ceci :
Tester la tâche terminée
Cliquez sur Vérifier ma progression pour valider la tâche exécutée. Si la table a été correctement créée dans l'ensemble de données BigQuery, vous recevez une note d'évaluation.
Au premier abord, la commande bq mk
semble un peu compliquée, mais pour bien comprendre son fonctionnement, nous pouvons consulter la documentation sur la ligne de commande BigQuery. Elle nous éclaire par exemple sur ce qu'est un schéma :
[FIELD]
:[DATA_TYPE]
, [FIELD]
:[DATA_TYPE]
.Dans le cas présent, il s'agit d'une liste de définitions séparées par une virgule.
Maintenant que vous avez instancié la table, vous allez créer un bucket.
Utilisez l'ID de projet en tant que nom du bucket pour vous assurer qu'il s'agit d'un nom unique :
Tester la tâche terminée
Cliquez sur Vérifier ma progression pour valider la tâche exécutée. Si le bucket Cloud Storage a été correctement créé, vous recevez une note d'évaluation.
Une fois votre bucket créé, accédez à la section Exécuter le pipeline qui se trouve plus bas.
Dans la section "Big Data" du menu de gauche, cliquez sur BigQuery.
Cliquez ensuite sur OK.
Dans la section Explorateur, cliquez sur les trois points à côté du nom de votre projet, puis sur Créer un ensemble de données.
Saisissez l'ID taxirides
pour votre ensemble de données :
Pour "Emplacement des données", sélectionnez us (plusieurs régions aux États-Unis).
Conservez les autres paramètres par défaut et cliquez sur CRÉER L'ENSEMBLE DE DONNÉES.
Tester la tâche terminée
Cliquez sur Vérifier ma progression pour valider la tâche exécutée. Si l'ensemble de données BigQuery a été correctement créé, vous recevez une note d'évaluation.
L'ensemble de données taxirides
devrait maintenant s'afficher sous l'ID de votre projet dans la partie gauche de la console.
Cliquez sur les trois points à côté de taxirides
, puis sélectionnez Ouvrir.
Ensuite, sélectionnez CRÉER UNE TABLE dans la partie droite de la console.
Dans la section Destination > Nom de la table, saisissez realtime
.
Sous "Schéma", cliquez sur le bouton Modifier sous forme de texte, puis saisissez la commande suivante :
Votre console doit se présenter comme suit :
Tester la tâche terminée
Cliquez sur Vérifier ma progression pour valider la tâche exécutée. Si la table a été correctement créée dans l'ensemble de données BigQuery, vous recevez une note d'évaluation.
Revenez dans la console Cloud, puis accédez à Cloud Storage > Buckets > Créer un bucket.
Utilisez l'ID de projet en tant que nom du bucket pour vous assurer qu'il s'agit d'un nom unique :
Ne modifiez aucun autre paramètre par défaut. Enfin, cliquez sur Créer.
Tester la tâche terminée
Cliquez sur Vérifier ma progression pour valider la tâche exécutée. Si le bucket Cloud Storage a été correctement créé, vous recevez une note d'évaluation.
Déployez le modèle Dataflow :
Dans le menu de navigation de la console Google Cloud, cliquez sur Dataflow > Jobs. Vous devriez voir votre job Dataflow.
Pour plus d'informations, consultez la documentation.
Tester la tâche terminée
Cliquez sur Vérifier ma progression pour valider la tâche exécutée. Si le pipeline Dataflow a été correctement exécuté, vous recevez une note d'évaluation.
Vos ressources sont créées et prêtes à être utilisées.
Cliquez maintenant sur BigQuery dans le menu de navigation pour examiner les données qui y ont été écrites.
Vous pouvez envoyer des requêtes à l'aide du langage SQL standard.
Si vous rencontrez des problèmes ou que des messages d'erreur s'affichent, exécutez à nouveau la requête (le démarrage du pipeline prend une minute).
Bravo ! Vous venez de transférer dans une table BigQuery 1 000 courses de taxi extraites d'un sujet Pub/Sub. Comme vous avez pu le constater, les modèles constituent un moyen simple et pratique d'exécuter des jobs Dataflow. D'autres modèles Google sont disponibles dans le guide Premiers pas avec les modèles fournis par Google de la documentation Dataflow.
Voici quelques questions à choix multiples qui vous permettront de mieux maîtriser les concepts abordés lors de cet atelier. Répondez-y du mieux que vous le pouvez.
Vous avez créé un pipeline de flux de données à l'aide du modèle Dataflow Pub/Sub vers BigQuery, qui permet de transférer dans une table BigQuery les messages au format JSON extraits d'un sujet Pub/Sub.
Cet atelier fait partie d'une série appelée "Qwik Starts". Les ateliers de cette série sont conçus pour vous donner un aperçu des nombreuses fonctionnalités proposées par Google Cloud. Pour suivre un autre atelier, recherchez "Qwik Starts" dans le catalogue Google Cloud Skills Boost.
Les formations et certifications Google Cloud vous aident à tirer pleinement parti des technologies Google Cloud. Nos cours portent sur les compétences techniques et les bonnes pratiques à suivre pour être rapidement opérationnel et poursuivre votre apprentissage. Nous proposons des formations pour tous les niveaux, à la demande, en salle et à distance, pour nous adapter aux emplois du temps de chacun. Les certifications vous permettent de valider et de démontrer vos compétences et votre expérience en matière de technologies Google Cloud.
Dernière mise à jour du manuel : 4 février 2024
Dernier test de l'atelier : 10 novembre 2023
Copyright 2025 Google LLC. Tous droits réservés. Google et le logo Google sont des marques de Google LLC. Tous les autres noms d'entreprises et de produits peuvent être des marques des entreprises auxquelles ils sont associés.
Ce contenu n'est pas disponible pour le moment
Nous vous préviendrons par e-mail lorsqu'il sera disponible
Parfait !
Nous vous contacterons par e-mail s'il devient disponible
One lab at a time
Confirm to end all existing labs and start this one