Descubra o treinamento do Google Cloud do seu jeito.
Com mais de 980 atividades disponíveis, nós do Google Cloud projetamos um catálogo especial para você. Ele é composto de diversos tipos de atividades para que você escolha a melhor opção. Escolha entre laboratórios individuais curtos ou cursos de vários módulos que consistem em vídeos, documentos, laboratórios e testes. Nossos laboratórios oferecem credenciais temporárias para recursos reais da nuvem, para que você aprenda a usar o Google Cloud como ele realmente é. Ganhe selos pelos cursos concluídos, defina, acompanhe e avalie seu progresso com o Google Cloud.
-
Laboratório Em destaque Route Datadog Monitoring Alerts to Google Cloud with Eventarc
In this lab, you will learn how to use the Datadog Monitoring with Google Eventarc.
-
Laboratório Em destaque Cloud Composer: Qwik Start - Console
Neste laboratório, você criará um ambiente do Cloud Composer usando o console do GCP. Depois, você usará a interface da Web do Airflow para executar um fluxo de trabalho que verifica um arquivo de dados, cria e executa um job de contagem de palavras do Apache Hadoop em um cluster do Dataproc e exclui o cluster.
-
Laboratório Em destaque Building and Debugging Cloud Functions for Node.js
In this lab, you will create a Cloud Function for Node.js that reports whether a specified temperature is acceptable or too hot. You will create, test, and debug your Cloud Function using Visual Studio Code on your local machine. Lastly, you'll deploy your function to Google Cloud Platform.
-
Laboratório Em destaque Cloud Run Canary Deployments
Implement a deployment pipeline for Cloud Run that executes a progression of code from developer branches to production with automated canary testing and percentage based traffic management.
-
Laboratório Em destaque End to End Baseline Chat Summarization
In this lab, you build a end to end Baseline Chat Summarisation pipeline.
-
Laboratório Em destaque Processamento de dados sem servidor com o Dataflow: como criar um Pipeline ETL usando Apache Beam e Cloud Dataflow (Python)
Neste laboratório, você vai: a) criar um pipeline de ETL em lote no Apache Beam, que grava os dados brutos do Google Cloud Storage no Google BigQuery; b) executar o pipeline do Apache Beam no Cloud Dataflow e c) parametrizar a execução do pipeline.
-
Laboratório Em destaque Comparação entre a análise de dados no BigQuery e no Dataproc
Criar e importar dados usando arquivos parquet
-
Laboratório Em destaque Processamento de dados sem servidor com o Dataflow: como criar um pipeline ETL usando Apache Beam e Cloud Dataflow (Java)
Neste laboratório, você irá: a) criar um pipeline de ETL em lote no Apache Beam, que pega os dados brutos do Google Cloud Storage e os grava no Google BigQuery; b) executar o pipeline do Apache Beam no Cloud Dataflow; e c) definir a execução do pipeline como parâmetro.
-
Laboratório Em destaque Automate GKE Configurations with Config Sync and Policy Controller
Use GitOps-driven Config Sync to automate configuration and Policy Controller to enforce policies on GKE Enterprise resources
-
Laboratório Em destaque Exploring Memorystore for Redis Cluster
In this lab, you will explore the capabilities of Memorystore for Redis Cluster.