
Before you begin
- Labs create a Google Cloud project and resources for a fixed time
- Labs have a time limit and no pause feature. If you end the lab, you'll have to restart from the beginning.
- On the top left of your screen, click Start lab to begin
Deploy application
/ 50
Create a Log bucket
/ 25
create the log sink
/ 25
Dans cet atelier, vous allez découvrir les fonctionnalités et les outils fournis par Cloud Logging pour l'analyse de vos applications.
Afin d'utiliser un exemple concret, vous allez travailler sur un scénario basé sur une application exemple de microservices de démonstration déployée sur un cluster GKE. Cette application de démonstration comporte de nombreux microservices associés à des dépendances.
Lisez ces instructions. Les ateliers sont minutés, et vous ne pouvez pas les mettre en pause. Le minuteur, qui démarre lorsque vous cliquez sur Démarrer l'atelier, indique combien de temps les ressources Google Cloud resteront accessibles.
Cet atelier pratique vous permet de suivre vous-même les activités dans un véritable environnement cloud, et non dans un environnement de simulation ou de démonstration. Nous vous fournissons des identifiants temporaires pour vous connecter à Google Cloud le temps de l'atelier.
Pour réaliser cet atelier :
Cliquez sur le bouton Démarrer l'atelier. Si l'atelier est payant, un pop-up s'affiche pour vous permettre de sélectionner un mode de paiement. Sur la gauche, vous trouverez le panneau Détails concernant l'atelier, qui contient les éléments suivants :
Cliquez sur Ouvrir la console Google Cloud (ou effectuez un clic droit et sélectionnez Ouvrir le lien dans la fenêtre de navigation privée si vous utilisez le navigateur Chrome).
L'atelier lance les ressources, puis ouvre la page Se connecter dans un nouvel onglet.
Conseil : Réorganisez les onglets dans des fenêtres distinctes, placées côte à côte.
Si nécessaire, copiez le nom d'utilisateur ci-dessous et collez-le dans la boîte de dialogue Se connecter.
Vous trouverez également le nom d'utilisateur dans le panneau Détails concernant l'atelier.
Cliquez sur Suivant.
Copiez le mot de passe ci-dessous et collez-le dans la boîte de dialogue Bienvenue.
Vous trouverez également le mot de passe dans le panneau Détails concernant l'atelier.
Cliquez sur Suivant.
Accédez aux pages suivantes :
Après quelques instants, la console Cloud s'ouvre dans cet onglet.
Cloud Shell est une machine virtuelle qui contient de nombreux outils pour les développeurs. Elle comprend un répertoire d'accueil persistant de 5 Go et s'exécute sur Google Cloud. Cloud Shell vous permet d'accéder via une ligne de commande à vos ressources Google Cloud.
Une fois connecté, vous êtes en principe authentifié et le projet est défini sur votre ID_PROJET. Le résultat contient une ligne qui déclare YOUR_PROJECT_ID (VOTRE_ID_PROJET) pour cette session :
gcloud
est l'outil de ligne de commande pour Google Cloud. Il est préinstallé sur Cloud Shell et permet la complétion par tabulation.
Cliquez sur Autoriser.
Vous devez à présent obtenir le résultat suivant :
Résultat :
Résultat :
Exemple de résultat :
gcloud
, dans Google Cloud, accédez au guide de présentation de la gcloud CLI.
Connectez-vous à un cluster Google Kubernetes Engine et confirmez qu'il a été créé correctement.
1. Dans Cloud Shell, définissez votre zone dans gcloud
:
L'état doit ressembler à ce qui suit :
L'état indiqué pour le cluster est "RUNNING" (En cours d'exécution). Si votre cluster indique "PROVISIONING" (En cours de provisionnement), attendez un peu et exécutez une nouvelle fois la commande ci-dessus. Réexécutez la commande jusqu'à ce que l'état "RUNNING" (En cours d'exécution) soit indiqué.
Vous pouvez aussi surveiller la progression de l'opération dans la console Cloud en suivant ce chemin : Menu de navigation > Kubernetes Engine > Clusters.
(Résultat)
Vous devez normalement obtenir le résultat suivant :
Vous allez maintenant déployer une application de microservices appelée Online Boutique sur votre cluster afin de créer une charge de travail à surveiller.
microservices-demo
:kubectl
:Le résultat doit ressembler à l'exemple ci-dessous. Avant de passer à l'étape suivante, réexécutez la commande jusqu'à ce que tous les pods indiquent "Running" (En cours d'exécution).
(Exemple de résultat)
La confirmation se présentera comme suit :
Une fois l'application déployée, vous pouvez aussi accéder à Cloud Console et consulter son état.
Sous Service et Ingress, cliquez sur l'adresse IP de point de terminaison du service frontend-external :
L'application doit s'ouvrir sur une page ressemblant à ceci :
Cliquez sur Vérifier ma progression pour valider l'objectif.
Deux options s'offrent à vous pour activer l'analyse de journaux. Vous pouvez mettre à niveau un bucket existant ou créer un bucket de journaux dans lequel l'analyse de journaux est activée.
Suivez ces étapes pour mettre à niveau un bucket de journaux existant :
Dans le menu de gauche, ouvrez Journalisation, puis cliquez sur Stockage des journaux.
Cliquez sur l'option METTRE À NIVEAU d'un bucket existant, par exemple le bucket _Default
.
Cliquez sur METTRE À NIVEAU dans la fenêtre pop-up.
Attendez la fin de la mise à niveau. Au début, l'état est Non éligible pour la mise à niveau. Une fois la mise à niveau terminée, l'état est Mis à niveau.
Cliquez sur le bouton déroulant OUVRIR.
Sélectionnez la vue _AllLogs
: la page "Analyse de journaux" s'ouvre.
Vous pouvez également configurer Cloud Logging pour créer un bucket de journaux dans lequel l'analyse de journaux est activée.
Dans le menu de gauche, ouvrez Journalisation, puis cliquez sur Stockage des journaux.
Cliquez sur CRÉER UN BUCKET DE JOURNAUX en haut de la page.
Attribuez un nom au bucket, par exemple day2ops-log.
Cochez les cases Effectuer la mise à niveau pour utiliser l'analyse de journaux et Créer un ensemble de données associé dans BigQuery.
Saisissez un nom d'ensemble de données tel que day2ops_log.
Sélectionnez Créer un ensemble de données associé dans BigQuery pour créer un ensemble de données dans BigQuery (s'il n'existe pas déjà). De cette manière, vous pouvez exécuter des requêtes dans BigQuery.
Cliquez sur Vérifier ma progression pour valider l'objectif.
Vous pouvez créer un récepteur de journaux pour utiliser le nouveau bucket de journaux. Vous pouvez le faire directement depuis le routeur de journaux ou depuis l'explorateur de journaux. Exécutez des requêtes de journaux pour sélectionner et filtrer les journaux qui vous intéressent et créer un récepteur. L'avantage de cette approche est que la requête du journal est automatiquement copiée dans la configuration du récepteur en tant que filtre.
Nommez le récepteur, par exemple day2ops-sink.
Cliquez sur SUIVANT.
Sélectionnez Bucket Cloud Logging dans la liste déroulante du service du récepteur.
Sélectionnez le bucket de journaux que vous venez de créer.
Cliquez sur SUIVANT.
La requête de type de ressource doit s'afficher dans le filtre.
Patientez quelques instants pendant la création du récepteur.
Cliquez sur Vérifier ma progression pour valider l'objectif.
Revenez à l'explorateur de journaux. Comme le montre la capture d'écran ci-dessous, il existe un grand nombre de types de ressources différents pour les journaux.
Pour afficher les journaux dans le nouveau bucket de journaux, cliquez sur AFFINER LE CHAMP D'APPLICATION en haut de la page.
Sélectionnez Affiner la recherche par espace de stockage, puis choisissez le bucket de journaux que vous venez de créer.
Cliquez sur APPLIQUER.
Le seul type de ressources affiché correspond aux conteneurs Kubernetes et le nombre d'entrées de journaux affiché est beaucoup plus bas. En effet, seuls les journaux filtrés sont envoyés au bucket.
Si votre champ de requête est vide ou que vous avez oublié le nom de la table que vous vouliez utiliser, vous pouvez cliquer sur le bouton Requête pour afficher l'exemple de requête.
Vous pouvez ensuite exécuter vos propres requêtes dans le champ de requête. Voici quelques exemples.
Important : Le nom de la vue de journal dans la clause FROM
est différent pour les buckets de journaux. Vous devez vous assurer que vous utilisez le nom de vue correct. Reportez-vous à l'étape précédente pour effectuer la vérification.
Voici comment identifier les erreurs les plus récentes à partir des conteneurs :
Une fois la requête exécutée, le résultat qui s'affiche doit ressembler à l'exemple suivant :
Vous pouvez afficher la latence minimum, maximum et moyenne dans un laps de temps donné pour le service frontend :
Une fois la requête exécutée, le résultat qui s'affiche doit ressembler à l'exemple suivant :
Si vous souhaitez savoir combien de fois les utilisateurs ont consulté une page de produit spécifique au cours de l'heure écoulée, exécutez la requête suivante :
Une fois la requête exécutée, le résultat qui s'affiche doit ressembler à l'exemple suivant :
Exécutez la commande suivante pour afficher le nombre de sessions ayant fait l'objet d'un paiement du panier.
Une fois la requête exécutée, le résultat qui s'affiche doit ressembler à l'exemple suivant :
Vous venez de découvrir comment utiliser Cloud Logging pour obtenir des informations sur les applications qui s'exécutent dans GKE. Vous avez également créé et exécuté des requêtes à l'aide de l'analyse de journaux.
Les formations et certifications Google Cloud vous aident à tirer pleinement parti des technologies Google Cloud. Nos cours portent sur les compétences techniques et les bonnes pratiques à suivre pour être rapidement opérationnel et poursuivre votre apprentissage. Nous proposons des formations pour tous les niveaux, à la demande, en salle et à distance, pour nous adapter aux emplois du temps de chacun. Les certifications vous permettent de valider et de démontrer vos compétences et votre expérience en matière de technologies Google Cloud.
Dernière mise à jour du manuel : 26 septembre 2022
Dernier test de l'atelier : 26 septembre 2022
Copyright 2025 Google LLC Tous droits réservés. Google et le logo Google sont des marques de Google LLC. Tous les autres noms d'entreprises et de produits peuvent être des marques des entreprises auxquelles ils sont associés.
Ce contenu n'est pas disponible pour le moment
Nous vous préviendrons par e-mail lorsqu'il sera disponible
Parfait !
Nous vous contacterons par e-mail s'il devient disponible
One lab at a time
Confirm to end all existing labs and start this one