
Before you begin
- Labs create a Google Cloud project and resources for a fixed time
- Labs have a time limit and no pause feature. If you end the lab, you'll have to restart from the beginning.
- On the top left of your screen, click Start lab to begin
Disable and re-enable the Dataflow API
/ 20
Create a BigQuery Dataset (name: taxirides)
/ 20
Create a table in BigQuery Dataset
/ 20
Create a Cloud Storage bucket
/ 20
Run the Pipeline
/ 20
Neste laboratório, você vai aprender a criar um pipeline de streaming usando um dos modelos do Google para o Dataflow. Você vai usar o modelo Pub/Sub para BigQuery, que lê mensagens em formato JSON de um tópico do Pub/Sub e as grava em uma tabela do BigQuery. A documentação do modelo está disponível no guia Comece agora com os modelos fornecidos pelo Google.
É possível usar a linha de comando do Cloud Shell ou o console do Cloud para criar o conjunto de dados e a tabela do BigQuery. Escolha um desses métodos para usar durante todo o laboratório. Se você quiser experimentar o outro método, faça este laboratório uma segunda vez.
Leia estas instruções. Os laboratórios são cronometrados e não podem ser pausados. O timer é ativado quando você clica em Iniciar laboratório e mostra por quanto tempo os recursos do Google Cloud vão ficar disponíveis.
Este laboratório prático permite que você realize as atividades em um ambiente real de nuvem, e não em uma simulação ou demonstração. Você vai receber novas credenciais temporárias para fazer login e acessar o Google Cloud durante o laboratório.
Confira os requisitos para concluir o laboratório:
Clique no botão Começar o laboratório. Se for preciso pagar por ele, uma caixa de diálogo vai aparecer para você selecionar a forma de pagamento. No painel Detalhes do Laboratório, à esquerda, você vai encontrar o seguinte:
Se você estiver usando o navegador Chrome, clique em Abrir console do Google Cloud ou clique com o botão direito do mouse e selecione Abrir link em uma janela anônima.
O laboratório ativa os recursos e depois abre a página Fazer Login em outra guia.
Dica: coloque as guias em janelas separadas lado a lado.
Se necessário, copie o Nome de usuário abaixo e cole na caixa de diálogo Fazer login.
Você também encontra o nome de usuário no painel Detalhes do Laboratório.
Clique em Próxima.
Copie a Senha abaixo e cole na caixa de diálogo de Olá.
Você também encontra a senha no painel Detalhes do Laboratório.
Clique em Próxima.
Acesse as próximas páginas:
Depois de alguns instantes, o console do Google Cloud será aberto nesta guia.
O Cloud Shell é uma máquina virtual com várias ferramentas de desenvolvimento. Ele tem um diretório principal permanente de 5 GB e é executado no Google Cloud. O Cloud Shell oferece acesso de linha de comando aos recursos do Google Cloud.
Clique em Ativar o Cloud Shell na parte de cima do console do Google Cloud.
Clique nas seguintes janelas:
Depois de se conectar, você verá que sua conta já está autenticada e que o projeto está configurado com seu Project_ID,
A gcloud
é a ferramenta de linha de comando do Google Cloud. Ela vem pré-instalada no Cloud Shell e aceita preenchimento com tabulação.
Saída:
Saída:
gcloud
no Google Cloud no guia de visão geral da gcloud CLI.
Para ter acesso à API Dataflow, reinicie a conexão.
No console do Cloud, digite "API Dataflow" na barra de pesquisa superior. Clique no resultado para API Dataflow.
Selecione Gerenciar.
Clique em Desativar API.
Se for necessário confirmar, clique em Desativar.
A opção para desativar a API aparece quando ela é ativada novamente.
Teste a tarefa concluída
Clique em Verificar meu progresso para conferir a tarefa realizada.
Primeiro, você vai criar um conjunto de dados e uma tabela do BigQuery.
bq
. Pule para a tarefa 3 se você quiser concluir essas etapas usando o console do Cloud.
taxirides
:A resposta será semelhante a:
Teste a tarefa concluída
Clique em Verificar meu progresso para conferir a tarefa realizada. Se o conjunto foi criado, você recebe uma pontuação de avaliação.
Agora use o conjunto de dados criado na próxima etapa para instanciar uma tabela do BigQuery.
A resposta será semelhante a:
Teste a tarefa concluída
Clique em Verificar meu progresso para conferir a tarefa realizada. Se a tabela foi criada no conjunto de dados do BigQuery, você recebe uma pontuação de avaliação.
A princípio, o comando bq mk
parece complicado. Mas, com auxílio da documentação da linha de comando do BigQuery, podemos entender melhor como ele funciona. Na documentação, você encontra mais detalhes sobre o esquema, por exemplo:
[FIELD]
:[DATA_TYPE]
, [FIELD]
:[DATA_TYPE]
.Neste caso, estamos usando a lista de definições separadas por vírgula.
Agora que instanciamos nossa tabela, criaremos um bucket.
Use o ID do projeto como nome do bucket para garantir um título globalmente exclusivo:
Teste a tarefa concluída
Clique em Verificar meu progresso para conferir a tarefa realizada. Se o bucket do Cloud Storage tiver sido criado, você receberá uma pontuação de avaliação.
Depois de criar o bucket, role para baixo até a seção Executar o pipeline.
No menu esquerdo, na seção "Big Data", clique em BigQuery.
Clique em Concluído.
Clique nos três pontos ao lado do nome do projeto, na seção Explorer, e clique em Criar conjunto de dados.
Digite taxirides
como ID do conjunto de dados:
Selecione EUA (várias regiões nos Estados Unidos) em "Local dos dados".
Deixe todas as demais configurações em padrão e clique em CRIAR CONJUNTO DE DADOS.
Teste a tarefa concluída
Clique em Verificar meu progresso para conferir a tarefa realizada. Se o conjunto foi criado, você recebe uma pontuação de avaliação.
Agora o conjunto de dados taxirides
aparece abaixo do ID do projeto, no lado esquerdo do console.
Clique nos três pontos ao lado do conjunto de dados taxirides
e selecione Abrir.
Selecione CRIAR TABELA no lado direito do console.
Em Destino > Nome da tabela, digite realtime
.
Em "Esquema", mova o controle deslizante para Editar como texto e insira o seguinte:
A interface do Console vai ficar assim:
Teste a tarefa concluída
Clique em Verificar meu progresso para conferir a tarefa realizada. Se a tabela foi criada no conjunto de dados do BigQuery, você recebe uma pontuação de avaliação.
Volte ao console do Cloud e acesse Cloud Storage > Buckets > Criar bucket.
Use o ID do projeto como nome do bucket para garantir um título globalmente exclusivo:
Mantenha os valores padrão de todas as outras configurações e clique em Criar.
Teste a tarefa concluída
Clique em Verificar meu progresso para conferir a tarefa realizada. Se o bucket do Cloud Storage tiver sido criado, você receberá uma pontuação de avaliação.
Implante o modelo do Dataflow:
No menu de navegação do console do Google Cloud, clique em Dataflow > Jobs para encontrar seu job.
Consulte este documento para mais informações.
Teste a tarefa concluída
Clique em Verificar meu progresso para conferir a tarefa realizada. Se o pipeline do Dataflow tiver sido executado corretamente, você receberá uma pontuação de avaliação.
Você verá os recursos serem criados e disponibilizados para uso.
Agora vamos ver os dados gravados no BigQuery. Clique em BigQuery no menu de navegação.
Você pode enviar consultas usando o SQL padrão.
Se houver algum problema ou erro, execute a consulta novamente. A inicialização do pipeline leva um minuto.
Bom trabalho! Você acabou de extrair 1.000 corridas de táxi de um tópico do Pub/Sub e as enviou para uma tabela do BigQuery. Como você viu em primeira mão, os modelos são uma maneira prática e fácil de executar jobs do Dataflow. Confira outros modelos do Google na documentação do Dataflow, no guia Comece agora com os modelos fornecidos pelo Google.
Responda às perguntas de múltipla escolha abaixo para reforçar sua compreensão dos conceitos abordados neste laboratório. Use tudo o que você aprendeu até aqui.
Você criou um pipeline de streaming usando um modelo do Dataflow de Pub/Sub para BigQuery, que lê mensagens em formato JSON de um tópico do Pub/Sub e as grava em uma tabela do BigQuery.
Este laboratório faz parte de uma série chamada Qwik Starts. Ela foi desenvolvida para apresentar a você alguns dos recursos disponíveis no Google Cloud. Pesquise "Qwik Starts" no catálogo do Google Cloud Ensina para encontrar algum laboratório que seja do seu interesse.
Esses treinamentos ajudam você a aproveitar as tecnologias do Google Cloud ao máximo. Nossas aulas incluem habilidades técnicas e práticas recomendadas para ajudar você a alcançar rapidamente o nível esperado e continuar sua jornada de aprendizado. Oferecemos treinamentos que vão do nível básico ao avançado, com opções de aulas virtuais, sob demanda e por meio de transmissões ao vivo para que você possa encaixá-las na correria do seu dia a dia. As certificações validam sua experiência e comprovam suas habilidades com as tecnologias do Google Cloud.
Manual atualizado em 4 de fevereiro de 2024
Laboratório testado em 10 de novembro de 2023
Copyright 2025 Google LLC. Todos os direitos reservados. Google e o logotipo do Google são marcas registradas da Google LLC. Todos os outros nomes de produtos e empresas podem ser marcas registradas das respectivas empresas a que estão associados.
Este conteúdo não está disponível no momento
Você vai receber uma notificação por e-mail quando ele estiver disponível
Ótimo!
Vamos entrar em contato por e-mail se ele ficar disponível
One lab at a time
Confirm to end all existing labs and start this one