arrow_back

Dataflow: Qwik Start – Modelos

Get access to 700+ labs and courses

Dataflow: Qwik Start – Modelos

Laboratório 45 minutos universal_currency_alt 1 crédito show_chart Introdutório
info Este laboratório pode incorporar ferramentas de IA para ajudar no seu aprendizado.
Get access to 700+ labs and courses

GSP192

Visão geral

Neste laboratório, você vai aprender a criar um pipeline de streaming usando um dos modelos do Google para o Dataflow. Você vai usar o modelo Pub/Sub para BigQuery, que lê mensagens em formato JSON de um tópico do Pub/Sub e as grava em uma tabela do BigQuery. A documentação do modelo está disponível no guia Comece agora com os modelos fornecidos pelo Google.

É possível usar a linha de comando do Cloud Shell ou o console do Cloud para criar o conjunto de dados e a tabela do BigQuery. Escolha um desses métodos para usar durante todo o laboratório. Se você quiser experimentar o outro método, faça este laboratório uma segunda vez.

Atividades

  • Criar um conjunto de dados e uma tabela do BigQuery
  • Produzir um bucket do Cloud Storage
  • Criar um pipeline de streaming usando um modelo do Dataflow de Pub/Sub para BigQuery

Configuração

Antes de clicar no botão Começar o Laboratório

Leia estas instruções. Os laboratórios são cronometrados e não podem ser pausados. O timer é ativado quando você clica em Iniciar laboratório e mostra por quanto tempo os recursos do Google Cloud vão ficar disponíveis.

Este laboratório prático permite que você realize as atividades em um ambiente real de nuvem, e não em uma simulação ou demonstração. Você vai receber novas credenciais temporárias para fazer login e acessar o Google Cloud durante o laboratório.

Confira os requisitos para concluir o laboratório:

  • Acesso a um navegador de Internet padrão (recomendamos o Chrome).
Observação: para executar este laboratório, use o modo de navegação anônima (recomendado) ou uma janela anônima do navegador. Isso evita conflitos entre sua conta pessoal e de estudante, o que poderia causar cobranças extras na sua conta pessoal.
  • Tempo para concluir o laboratório: não se esqueça que, depois de começar, não será possível pausar o laboratório.
Observação: use apenas a conta de estudante neste laboratório. Se usar outra conta do Google Cloud, você poderá receber cobranças nela.

Como iniciar seu laboratório e fazer login no console do Google Cloud

  1. Clique no botão Começar o laboratório. Se for preciso pagar por ele, uma caixa de diálogo vai aparecer para você selecionar a forma de pagamento. No painel Detalhes do Laboratório, à esquerda, você vai encontrar o seguinte:

    • O botão Abrir Console do Google Cloud
    • O tempo restante
    • As credenciais temporárias que você vai usar neste laboratório
    • Outras informações, se forem necessárias
  2. Se você estiver usando o navegador Chrome, clique em Abrir console do Google Cloud ou clique com o botão direito do mouse e selecione Abrir link em uma janela anônima.

    O laboratório ativa os recursos e depois abre a página Fazer Login em outra guia.

    Dica: coloque as guias em janelas separadas lado a lado.

    Observação: se aparecer a caixa de diálogo Escolher uma conta, clique em Usar outra conta.
  3. Se necessário, copie o Nome de usuário abaixo e cole na caixa de diálogo Fazer login.

    {{{user_0.username | "Username"}}}

    Você também encontra o nome de usuário no painel Detalhes do Laboratório.

  4. Clique em Próxima.

  5. Copie a Senha abaixo e cole na caixa de diálogo de Olá.

    {{{user_0.password | "Password"}}}

    Você também encontra a senha no painel Detalhes do Laboratório.

  6. Clique em Próxima.

    Importante: você precisa usar as credenciais fornecidas no laboratório, e não as da sua conta do Google Cloud. Observação: se você usar sua própria conta do Google Cloud neste laboratório, é possível que receba cobranças adicionais.
  7. Acesse as próximas páginas:

    • Aceite os Termos e Condições.
    • Não adicione opções de recuperação nem autenticação de dois fatores (porque essa é uma conta temporária).
    • Não se inscreva em testes gratuitos.

Depois de alguns instantes, o console do Google Cloud será aberto nesta guia.

Observação: para acessar os produtos e serviços do Google Cloud, clique no Menu de navegação ou digite o nome do serviço ou produto no campo Pesquisar.

Ativar o Cloud Shell

O Cloud Shell é uma máquina virtual com várias ferramentas de desenvolvimento. Ele tem um diretório principal permanente de 5 GB e é executado no Google Cloud. O Cloud Shell oferece acesso de linha de comando aos recursos do Google Cloud.

  1. Clique em Ativar o Cloud Shell na parte de cima do console do Google Cloud.

  2. Clique nas seguintes janelas:

    • Continue na janela de informações do Cloud Shell.
    • Autorize o Cloud Shell a usar suas credenciais para fazer chamadas de APIs do Google Cloud.

Depois de se conectar, você verá que sua conta já está autenticada e que o projeto está configurado com seu Project_ID, . A saída contém uma linha que declara o projeto PROJECT_ID para esta sessão:

Your Cloud Platform project in this session is set to {{{project_0.project_id | "PROJECT_ID"}}}

A gcloud é a ferramenta de linha de comando do Google Cloud. Ela vem pré-instalada no Cloud Shell e aceita preenchimento com tabulação.

  1. (Opcional) É possível listar o nome da conta ativa usando este comando:
gcloud auth list
  1. Clique em Autorizar.

Saída:

ACTIVE: * ACCOUNT: {{{user_0.username | "ACCOUNT"}}} To set the active account, run: $ gcloud config set account `ACCOUNT`
  1. (Opcional) É possível listar o ID do projeto usando este comando:
gcloud config list project

Saída:

[core] project = {{{project_0.project_id | "PROJECT_ID"}}} Observação: consulte a documentação completa da gcloud no Google Cloud no guia de visão geral da gcloud CLI.

Tarefa 1: ativar a API Dataflow

Para ter acesso à API Dataflow, reinicie a conexão.

  1. No console do Cloud, digite "API Dataflow" na barra de pesquisa superior. Clique no resultado para API Dataflow.

  2. Selecione Gerenciar.

  3. Clique em Desativar API.

Se for necessário confirmar, clique em Desativar.

  1. Selecione Ativar.

A opção para desativar a API aparece quando ela é ativada novamente.

Teste a tarefa concluída

Clique em Verificar meu progresso para conferir a tarefa realizada.

Desativar e reativar a API Dataflow.

Tarefa 2: criar um conjunto de dados e uma tabela do BigQuery, além de um bucket do Cloud Storage usando o Cloud Shell

Primeiro, você vai criar um conjunto de dados e uma tabela do BigQuery.

Observação: esta tarefa usa a ferramenta de linha de comando bq. Pule para a tarefa 3 se você quiser concluir essas etapas usando o console do Cloud.
  1. Execute o comando abaixo para criar um conjunto de dados chamado taxirides:
bq mk taxirides

A resposta será semelhante a:

Dataset '' successfully created

Teste a tarefa concluída

Clique em Verificar meu progresso para conferir a tarefa realizada. Se o conjunto foi criado, você recebe uma pontuação de avaliação.

Crie um conjunto de dados do BigQuery (nome: taxirides).

Agora use o conjunto de dados criado na próxima etapa para instanciar uma tabela do BigQuery.

  1. Para isso, execute o seguinte comando:
bq mk \ --time_partitioning_field timestamp \ --schema ride_id:string,point_idx:integer,latitude:float,longitude:float,\ timestamp:timestamp,meter_reading:float,meter_increment:float,ride_status:string,\ passenger_count:integer -t taxirides.realtime

A resposta será semelhante a:

Table 'myprojectid:taxirides.realtime' successfully created

Teste a tarefa concluída

Clique em Verificar meu progresso para conferir a tarefa realizada. Se a tabela foi criada no conjunto de dados do BigQuery, você recebe uma pontuação de avaliação.

Crie uma tabela no conjunto de dados do BigQuery.

A princípio, o comando bq mk parece complicado. Mas, com auxílio da documentação da linha de comando do BigQuery, podemos entender melhor como ele funciona. Na documentação, você encontra mais detalhes sobre o esquema, por exemplo:

  • O caminho para um arquivo de esquema JSON local ou uma lista de definições de coluna separadas por vírgula, no formato [FIELD]:[DATA_TYPE], [FIELD]:[DATA_TYPE].

Neste caso, estamos usando a lista de definições separadas por vírgula.

Criar um bucket do Cloud Storage com o Cloud Shell

Agora que instanciamos nossa tabela, criaremos um bucket.

Use o ID do projeto como nome do bucket para garantir um título globalmente exclusivo:

  • Para fazer isso, execute os comandos a seguir:
export BUCKET_NAME={{{project_0.project_id | "Bucket Name"}}} gsutil mb gs://$BUCKET_NAME/

Teste a tarefa concluída

Clique em Verificar meu progresso para conferir a tarefa realizada. Se o bucket do Cloud Storage tiver sido criado, você receberá uma pontuação de avaliação.

Crie um bucket do Cloud Storage.

Depois de criar o bucket, role para baixo até a seção Executar o pipeline.

Tarefa 3: criar um conjunto de dados e uma tabela do BigQuery, além de um bucket do Cloud Storage usando o console do Google Cloud

Importante: não conclua a tarefa 3 se você já concluiu a tarefa 2, elas incluem as mesmas atividades na linha de comando.
  1. No menu esquerdo, na seção "Big Data", clique em BigQuery.

  2. Clique em Concluído.

  3. Clique nos três pontos ao lado do nome do projeto, na seção Explorer, e clique em Criar conjunto de dados.

  4. Digite taxirides como ID do conjunto de dados:

  5. Selecione EUA (várias regiões nos Estados Unidos) em "Local dos dados".

  6. Deixe todas as demais configurações em padrão e clique em CRIAR CONJUNTO DE DADOS.

Teste a tarefa concluída

Clique em Verificar meu progresso para conferir a tarefa realizada. Se o conjunto foi criado, você recebe uma pontuação de avaliação.

Crie um conjunto de dados do BigQuery (nome: taxirides).
  1. Agora o conjunto de dados taxirides aparece abaixo do ID do projeto, no lado esquerdo do console.

  2. Clique nos três pontos ao lado do conjunto de dados taxirides e selecione Abrir.

  3. Selecione CRIAR TABELA no lado direito do console.

  4. Em Destino > Nome da tabela, digite realtime.

  5. Em "Esquema", mova o controle deslizante para Editar como texto e insira o seguinte:

ride_id:string,point_idx:integer,latitude:float,longitude:float,timestamp:timestamp, meter_reading:float,meter_increment:float,ride_status:string,passenger_count:integer

A interface do Console vai ficar assim:

  1. Clique em Criar tabela.

Teste a tarefa concluída

Clique em Verificar meu progresso para conferir a tarefa realizada. Se a tabela foi criada no conjunto de dados do BigQuery, você recebe uma pontuação de avaliação.

Crie uma tabela no conjunto de dados do BigQuery.

Criar um bucket do Cloud Storage com o console do Cloud

  1. Volte ao console do Cloud e acesse Cloud Storage > Buckets > Criar bucket.

  2. Use o ID do projeto como nome do bucket para garantir um título globalmente exclusivo:

  3. Mantenha os valores padrão de todas as outras configurações e clique em Criar.

Teste a tarefa concluída

Clique em Verificar meu progresso para conferir a tarefa realizada. Se o bucket do Cloud Storage tiver sido criado, você receberá uma pontuação de avaliação.

Crie um bucket do Cloud Storage.

Tarefa 4: executar o pipeline

Implante o modelo do Dataflow:

gcloud dataflow jobs run iotflow \ --gcs-location gs://dataflow-templates-{{{project_0.default_region | "Region"}}}/latest/PubSub_to_BigQuery \ --region {{{project_0.default_region | "Region"}}} \ --worker-machine-type e2-medium \ --staging-location gs://{{{project_0.project_id | "Bucket Name"}}}/temp \ --parameters inputTopic=projects/pubsub-public-data/topics/taxirides-realtime,outputTableSpec={{{project_0.project_id | "Table Name"}}}:taxirides.realtime

No menu de navegação do console do Google Cloud, clique em Dataflow > Jobs para encontrar seu job.

Consulte este documento para mais informações.

Observação: aguarde um minuto para que o monitoramento de atividade seja concluído.

Teste a tarefa concluída

Clique em Verificar meu progresso para conferir a tarefa realizada. Se o pipeline do Dataflow tiver sido executado corretamente, você receberá uma pontuação de avaliação.

Execute o pipeline.

Você verá os recursos serem criados e disponibilizados para uso.

Agora vamos ver os dados gravados no BigQuery. Clique em BigQuery no menu de navegação.

  • Na IU do BigQuery, você vai encontrar o conjunto de dados taxirides adicionado abaixo do nome do projeto e a palavra realtime abaixo dela.
Observação: talvez seja preciso aguardar alguns minutos até que os dados sejam preenchidos na tabela do BigQuery.

Tarefa 5: enviar uma consulta

Você pode enviar consultas usando o SQL padrão.

  1. No Editor do BigQuery, adicione a consulta abaixo aos dados do seu projeto:
SELECT * FROM `{{{project_0.project_id | "Bucket Name"}}}.taxirides.realtime` LIMIT 1000
  1. Clique em EXECUTAR.

Se houver algum problema ou erro, execute a consulta novamente. A inicialização do pipeline leva um minuto.

  1. Quando a consulta terminar, você verá a resposta no painel Resultados da consulta, como na imagem abaixo:

Bom trabalho! Você acabou de extrair 1.000 corridas de táxi de um tópico do Pub/Sub e as enviou para uma tabela do BigQuery. Como você viu em primeira mão, os modelos são uma maneira prática e fácil de executar jobs do Dataflow. Confira outros modelos do Google na documentação do Dataflow, no guia Comece agora com os modelos fornecidos pelo Google.

Tarefa 6: Testar seu conhecimento

Responda às perguntas de múltipla escolha abaixo para reforçar sua compreensão dos conceitos abordados neste laboratório. Use tudo o que você aprendeu até aqui.

Parabéns!

Você criou um pipeline de streaming usando um modelo do Dataflow de Pub/Sub para BigQuery, que lê mensagens em formato JSON de um tópico do Pub/Sub e as grava em uma tabela do BigQuery.

Próximas etapas / Saiba mais

Este laboratório faz parte de uma série chamada Qwik Starts. Ela foi desenvolvida para apresentar a você alguns dos recursos disponíveis no Google Cloud. Pesquise "Qwik Starts" no catálogo do Google Cloud Ensina para encontrar algum laboratório que seja do seu interesse.

Treinamento e certificação do Google Cloud

Esses treinamentos ajudam você a aproveitar as tecnologias do Google Cloud ao máximo. Nossas aulas incluem habilidades técnicas e práticas recomendadas para ajudar você a alcançar rapidamente o nível esperado e continuar sua jornada de aprendizado. Oferecemos treinamentos que vão do nível básico ao avançado, com opções de aulas virtuais, sob demanda e por meio de transmissões ao vivo para que você possa encaixá-las na correria do seu dia a dia. As certificações validam sua experiência e comprovam suas habilidades com as tecnologias do Google Cloud.

Manual atualizado em 4 de fevereiro de 2024

Laboratório testado em 10 de novembro de 2023

Copyright 2025 Google LLC. Todos os direitos reservados. Google e o logotipo do Google são marcas registradas da Google LLC. Todos os outros nomes de produtos e empresas podem ser marcas registradas das respectivas empresas a que estão associados.

Before you begin

  1. Labs create a Google Cloud project and resources for a fixed time
  2. Labs have a time limit and no pause feature. If you end the lab, you'll have to restart from the beginning.
  3. On the top left of your screen, click Start lab to begin

Este conteúdo não está disponível no momento

Você vai receber uma notificação por e-mail quando ele estiver disponível

Ótimo!

Vamos entrar em contato por e-mail se ele ficar disponível

One lab at a time

Confirm to end all existing labs and start this one

Use private browsing to run the lab

Use an Incognito or private browser window to run this lab. This prevents any conflicts between your personal account and the Student account, which may cause extra charges incurred to your personal account.