Découvrez les formations Google Cloud à votre manière.
Afin de répondre à vos besoins, Google Cloud a constitué un catalogue complet de plus de 980 activités de formation aux formats variés. Vous avez le choix entre de petits ateliers individuels ou des cours de plusieurs modules comprenant des vidéos, de la documentation, des ateliers et des questionnaires. Lors des ateliers, nous vous fournissons des identifiants temporaires qui vous permettent d'accéder à de vraies ressources cloud. Vous pouvez ainsi apprendre à utiliser Google Cloud en conditions réelles. Gagnez des badges pour les formations que vous terminez, définissez des objectifs, et suivez et mesurez votre progression avec Google Cloud !
-
Atelier Sélection Route Datadog Monitoring Alerts to Google Cloud with Eventarc
In this lab, you will learn how to use the Datadog Monitoring with Google Eventarc.
-
Atelier Sélection Cloud Composer : Qwik Start – Console
Dans cet atelier, vous allez créer un environnement Cloud Composer à l'aide de la console GCP. Dans l'interface Web Airflow, vous allez ensuite mettre en place un workflow qui vérifie l'existence d'un fichier de données, crée et exécute un job de décompte de mots Apache Hadoop sur un cluster Dataproc, puis supprim…
-
Atelier Sélection Building and Debugging Cloud Functions for Node.js
In this lab, you will create a Cloud Function for Node.js that reports whether a specified temperature is acceptable or too hot. You will create, test, and debug your Cloud Function using Visual Studio Code on your local machine. Lastly, you'll deploy your function to Google Cloud Platform.
-
Atelier Sélection Cloud Run Canary Deployments
Implement a deployment pipeline for Cloud Run that executes a progression of code from developer branches to production with automated canary testing and percentage based traffic management.
-
Atelier Sélection End to End Baseline Chat Summarization
In this lab, you build a end to end Baseline Chat Summarisation pipeline.
-
Atelier Sélection Serverless Data Processing with Dataflow - Writing an ETL Pipeline using Apache Beam and Dataflow (Python)
In this lab, you a) build a batch ETL pipeline in Apache Beam, which takes raw data from Google Cloud Storage and writes it to BigQuery b) run the Apache Beam pipeline on Dataflow and c) parameterize the execution of the pipeline.
-
Atelier Sélection Compare data analytics with BigQuery and Dataproc
Create and import data using parquet files
-
Atelier Sélection Serverless Data Processing with Dataflow - Writing an ETL pipeline using Apache Beam and Dataflow (Java)
In this lab, you a) build a batch ETL pipeline in Apache Beam, which takes raw data from Google Cloud Storage and writes it to BigQuery b) run the Apache Beam pipeline on Dataflow and c) parameterize the execution of the pipeline.
-
Atelier Sélection Automate GKE Configurations with Config Sync and Policy Controller
Use GitOps-driven Config Sync to automate configuration and Policy Controller to enforce policies on GKE Enterprise resources
-
Atelier Sélection Exploring Memorystore for Redis Cluster
In this lab, you will explore the capabilities of Memorystore for Redis Cluster.