arrow_back

Dataflow: Qwik Start – Modelos

Teste e compartilhe seu conhecimento com nossa comunidade.
done
Tenha acesso a mais de 700 laboratórios, selos de habilidade e cursos

Dataflow: Qwik Start – Modelos

Laboratório 45 minutos universal_currency_alt 1 crédito show_chart Introdutório
info Este laboratório pode incorporar ferramentas de IA para ajudar no seu aprendizado.
Teste e compartilhe seu conhecimento com nossa comunidade.
done
Tenha acesso a mais de 700 laboratórios, selos de habilidade e cursos

GSP192

Laboratórios autoguiados do Google Cloud

Visão geral

Neste laboratório, você vai aprender a criar um pipeline de streaming usando um dos modelos do Google para o Dataflow. Você vai usar o modelo Pub/Sub para BigQuery, que lê mensagens em formato JSON de um tópico do Pub/Sub e as grava em uma tabela do BigQuery. A documentação do modelo está disponível no guia Comece agora com os modelos fornecidos pelo Google.

É possível usar a linha de comando do Cloud Shell ou o console do Cloud para criar o conjunto de dados e a tabela do BigQuery. Escolha um desses métodos para usar durante todo o laboratório. Se você quiser experimentar o outro método, faça este laboratório uma segunda vez.

Atividades

  • Criar um conjunto de dados e uma tabela do BigQuery
  • Produzir um bucket do Cloud Storage
  • Criar um pipeline de streaming usando um modelo do Dataflow de Pub/Sub para BigQuery

Configuração

Antes de clicar no botão Start Lab

Leia estas instruções. Os laboratórios são cronometrados e não podem ser pausados. O timer é iniciado quando você clica em Começar o laboratório e mostra por quanto tempo os recursos do Google Cloud vão ficar disponíveis.

Este laboratório prático permite que você realize as atividades em um ambiente real de nuvem, não em uma simulação ou demonstração. Você vai receber novas credenciais temporárias para fazer login e acessar o Google Cloud durante o laboratório.

Confira os requisitos para concluir o laboratório:

  • Acesso a um navegador de Internet padrão (recomendamos o Chrome).
Observação: para executar este laboratório, use o modo de navegação anônima ou uma janela anônima do navegador. Isso evita conflitos entre sua conta pessoal e a conta de estudante, o que poderia causar cobranças extras na sua conta pessoal.
  • Tempo para concluir o laboratório---não se esqueça: depois de começar, não será possível pausar o laboratório.
Observação: não use seu projeto ou conta do Google Cloud neste laboratório para evitar cobranças extras na sua conta.

Como iniciar seu laboratório e fazer login no console do Google Cloud

  1. Clique no botão Começar o laboratório. Se for preciso pagar, você verá um pop-up para selecionar a forma de pagamento. No painel Detalhes do laboratório à esquerda, você vai encontrar o seguinte:

    • O botão Abrir console do Google Cloud
    • O tempo restante
    • As credenciais temporárias que você vai usar neste laboratório
    • Outras informações, se forem necessárias
  2. Se você estiver usando o navegador Chrome, clique em Abrir console do Google Cloud ou clique com o botão direito do mouse e selecione Abrir link em uma janela anônima.

    O laboratório ativa os recursos e depois abre a página Fazer login em outra guia.

    Dica: coloque as guias em janelas separadas lado a lado.

    Observação: se aparecer a caixa de diálogo Escolher uma conta, clique em Usar outra conta.
  3. Se necessário, copie o Nome de usuário abaixo e cole na caixa de diálogo Fazer login.

    {{{user_0.username | "Nome de usuário"}}}

    Você também encontra o Nome de usuário no painel Detalhes do laboratório.

  4. Clique em Seguinte.

  5. Copie a Senha abaixo e cole na caixa de diálogo de boas-vindas.

    {{{user_0.password | "Senha"}}}

    Você também encontra a Senha no painel Detalhes do laboratório.

  6. Clique em Seguinte.

    Importante: você precisa usar as credenciais fornecidas no laboratório, e não as da sua conta do Google Cloud. Observação: se você usar sua própria conta do Google Cloud neste laboratório, é possível que receba cobranças adicionais.
  7. Acesse as próximas páginas:

    • Aceite os Termos e Condições.
    • Não adicione opções de recuperação nem autenticação de dois fatores (porque essa é uma conta temporária).
    • Não se inscreva em testes gratuitos.

Depois de alguns instantes, o console do Google Cloud será aberto nesta guia.

Observação: clique em Menu de navegação no canto superior esquerdo para acessar uma lista de produtos e serviços do Google Cloud. Ícone do menu de navegação

Ativar o Cloud Shell

O Cloud Shell é uma máquina virtual com várias ferramentas de desenvolvimento. Ele tem um diretório principal permanente de 5 GB e é executado no Google Cloud. O Cloud Shell oferece acesso de linha de comando aos recursos do Google Cloud.

  1. Clique em Ativar o Cloud Shell Ícone "Ativar o Cloud Shell" na parte de cima do console do Google Cloud.

Depois de se conectar, vai notar que sua conta já está autenticada, e que o projeto está configurado com seu PROJECT_ID. A saída contém uma linha que declara o projeto PROJECT_ID para esta sessão:

Your Cloud Platform project in this session is set to YOUR_PROJECT_ID

gcloud é a ferramenta de linha de comando do Google Cloud. Ela vem pré-instalada no Cloud Shell e aceita preenchimento com tabulação.

  1. (Opcional) É possível listar o nome da conta ativa usando este comando:
gcloud auth list
  1. Clique em Autorizar.

  2. A saída será parecida com esta:

Saída:

ACTIVE: * ACCOUNT: student-01-xxxxxxxxxxxx@qwiklabs.net To set the active account, run: $ gcloud config set account `ACCOUNT`
  1. (Opcional) É possível listar o ID do projeto usando este comando:
gcloud config list project

Saída:

[core] project = <project_ID>

Exemplo de saída:

[core] project = qwiklabs-gcp-44776a13dea667a6 Observação: para conferir a documentação completa da gcloud, acesse o guia com informações gerais sobre a gcloud CLI no Google Cloud.

Tarefa 1: ativar a API Dataflow

Para ter acesso à API Dataflow, reinicie a conexão.

  1. No console do Cloud, digite "API Dataflow" na barra de pesquisa superior. Clique no resultado para API Dataflow.

  2. Selecione Gerenciar.

  3. Clique em Desativar API.

Se for necessário confirmar, clique em Desativar.

  1. Selecione Ativar.

A opção para desativar a API aparece quando ela é ativada novamente.

Teste a tarefa concluída

Clique em Verificar meu progresso para conferir a tarefa realizada.

Desativar e reativar a API Dataflow.

Tarefa 2: criar um conjunto de dados e uma tabela do BigQuery, além de um bucket do Cloud Storage usando o Cloud Shell

Primeiro, você vai criar um conjunto de dados e uma tabela do BigQuery.

Observação: esta tarefa usa a ferramenta de linha de comando bq. Pule para a tarefa 3 se você quiser concluir essas etapas usando o console do Cloud.
  1. Execute o comando abaixo para criar um conjunto de dados chamado taxirides:
bq mk taxirides

A resposta será semelhante a:

Dataset '' successfully created

Teste a tarefa concluída

Clique em Verificar meu progresso para conferir a tarefa realizada. Se o conjunto foi criado, você recebe uma pontuação de avaliação.

Crie um conjunto de dados do BigQuery (nome: taxirides).

Agora use o conjunto de dados criado na próxima etapa para instanciar uma tabela do BigQuery.

  1. Para isso, execute o seguinte comando:
bq mk \ --time_partitioning_field timestamp \ --schema ride_id:string,point_idx:integer,latitude:float,longitude:float,\ timestamp:timestamp,meter_reading:float,meter_increment:float,ride_status:string,\ passenger_count:integer -t taxirides.realtime

A resposta será semelhante a:

Table 'myprojectid:taxirides.realtime' successfully created

Teste a tarefa concluída

Clique em Verificar meu progresso para conferir a tarefa realizada. Se a tabela foi criada no conjunto de dados do BigQuery, você recebe uma pontuação de avaliação.

Crie uma tabela no conjunto de dados do BigQuery.

A princípio, o comando bq mk parece complicado. Mas, com auxílio da documentação da linha de comando do BigQuery, podemos entender melhor como ele funciona. Na documentação, você encontra mais detalhes sobre o esquema, por exemplo:

  • O caminho para um arquivo de esquema JSON local ou uma lista de definições de coluna separadas por vírgula, no formato [FIELD]:[DATA_TYPE], [FIELD]:[DATA_TYPE].

Neste caso, estamos usando a lista de definições separadas por vírgula.

Criar um bucket do Cloud Storage com o Cloud Shell

Agora que instanciamos nossa tabela, criaremos um bucket.

Use o ID do projeto como nome do bucket para garantir um título globalmente exclusivo:

  • Para fazer isso, execute os comandos a seguir:
export BUCKET_NAME={{{project_0.project_id | "Bucket Name"}}} gsutil mb gs://$BUCKET_NAME/

Teste a tarefa concluída

Clique em Verificar meu progresso para conferir a tarefa realizada. Se o bucket do Cloud Storage tiver sido criado, você receberá uma pontuação de avaliação.

Crie um bucket do Cloud Storage.

Depois de criar o bucket, role para baixo até a seção Executar o pipeline.

Tarefa 3: criar um conjunto de dados e uma tabela do BigQuery, além de um bucket do Cloud Storage usando o console do Google Cloud

Importante: não conclua a tarefa 3 se você já concluiu a tarefa 2, elas incluem as mesmas atividades na linha de comando.
  1. No menu esquerdo, na seção "Big Data", clique em BigQuery.

  2. Clique em Concluído.

  3. Clique nos três pontos ao lado do nome do projeto, na seção Explorer, e clique em Criar conjunto de dados.

  4. Digite taxirides como ID do conjunto de dados:

  5. Selecione EUA (várias regiões nos Estados Unidos) em "Local dos dados".

  6. Deixe todas as demais configurações em padrão e clique em CRIAR CONJUNTO DE DADOS.

Teste a tarefa concluída

Clique em Verificar meu progresso para conferir a tarefa realizada. Se o conjunto foi criado, você recebe uma pontuação de avaliação.

Crie um conjunto de dados do BigQuery (nome: taxirides).
  1. Agora o conjunto de dados taxirides aparece abaixo do ID do projeto, no lado esquerdo do console.

  2. Clique nos três pontos ao lado do conjunto de dados taxirides e selecione Abrir.

  3. Selecione CRIAR TABELA no lado direito do console.

  4. Em Destino > Nome da tabela, digite realtime.

  5. Em "Esquema", mova o controle deslizante para Editar como texto e insira o seguinte:

ride_id:string,point_idx:integer,latitude:float,longitude:float,timestamp:timestamp, meter_reading:float,meter_increment:float,ride_status:string,passenger_count:integer

A interface do Console vai ficar assim:

Página &quot;Criar tabela&quot;

  1. Clique em Criar tabela.

Teste a tarefa concluída

Clique em Verificar meu progresso para conferir a tarefa realizada. Se a tabela foi criada no conjunto de dados do BigQuery, você recebe uma pontuação de avaliação.

Crie uma tabela no conjunto de dados do BigQuery.

Criar um bucket do Cloud Storage com o console do Cloud

  1. Volte ao console do Cloud e acesse Cloud Storage > Buckets > Criar bucket.

  2. Use o ID do projeto como nome do bucket para garantir um título globalmente exclusivo:

  3. Mantenha os valores padrão de todas as outras configurações e clique em Criar.

Teste a tarefa concluída

Clique em Verificar meu progresso para conferir a tarefa realizada. Se o bucket do Cloud Storage tiver sido criado, você receberá uma pontuação de avaliação.

Crie um bucket do Cloud Storage.

Tarefa 4: executar o pipeline

Implante o modelo do Dataflow:

gcloud dataflow jobs run iotflow \ --gcs-location gs://dataflow-templates-{{{project_0.default_region | "Region"}}}/latest/PubSub_to_BigQuery \ --region {{{project_0.default_region | "Region"}}} \ --worker-machine-type e2-medium \ --staging-location gs://{{{project_0.project_id | "Bucket Name"}}}/temp \ --parameters inputTopic=projects/pubsub-public-data/topics/taxirides-realtime,outputTableSpec={{{project_0.project_id | "Table Name"}}}:taxirides.realtime

No menu de navegação do console do Google Cloud, clique em Dataflow > Jobs para encontrar seu job.

Consulte este documento para mais informações.

Observação: aguarde um minuto para que o monitoramento de atividade seja concluído.

Teste a tarefa concluída

Clique em Verificar meu progresso para conferir a tarefa realizada. Se o pipeline do Dataflow tiver sido executado corretamente, você receberá uma pontuação de avaliação.

Execute o pipeline.

Você verá os recursos serem criados e disponibilizados para uso.

Agora vamos ver os dados gravados no BigQuery. Clique em BigQuery no menu de navegação.

  • Na IU do BigQuery, você vai encontrar o conjunto de dados taxirides adicionado abaixo do nome do projeto e a palavra realtime abaixo dela.
Observação: talvez seja preciso aguardar alguns minutos até que os dados sejam preenchidos na tabela do BigQuery.

Tarefa 5: enviar uma consulta

Você pode enviar consultas usando o SQL padrão.

  1. No Editor do BigQuery, adicione a consulta abaixo aos dados do seu projeto:
SELECT * FROM `{{{project_0.project_id | "Bucket Name"}}}.taxirides.realtime` LIMIT 1000
  1. Clique em EXECUTAR.

Se houver algum problema ou erro, execute a consulta novamente. A inicialização do pipeline leva um minuto.

  1. Quando a consulta terminar, você verá a resposta no painel Resultados da consulta, como na imagem abaixo:

Página de resultados da consulta

Bom trabalho! Você acabou de extrair 1.000 corridas de táxi de um tópico do Pub/Sub e as enviou para uma tabela do BigQuery. Como você viu em primeira mão, os modelos são uma maneira prática e fácil de executar jobs do Dataflow. Confira outros modelos do Google na documentação do Dataflow, no guia Comece agora com os modelos fornecidos pelo Google.

Tarefa 6: Testar seu conhecimento

Responda às perguntas de múltipla escolha abaixo para reforçar sua compreensão dos conceitos abordados neste laboratório. Use tudo o que você aprendeu até aqui.

Parabéns!

Você criou um pipeline de streaming usando um modelo do Dataflow de Pub/Sub para BigQuery, que lê mensagens em formato JSON de um tópico do Pub/Sub e as grava em uma tabela do BigQuery.

Próximas etapas / Saiba mais

Este laboratório faz parte de uma série chamada Qwik Starts. Ela foi desenvolvida para apresentar a você alguns dos recursos disponíveis no Google Cloud. Pesquise "Qwik Starts" no catálogo do Google Cloud Ensina para encontrar algum laboratório que seja do seu interesse.

Treinamento e certificação do Google Cloud

Esses treinamentos ajudam você a aproveitar as tecnologias do Google Cloud ao máximo. Nossas aulas incluem habilidades técnicas e práticas recomendadas para ajudar você a alcançar rapidamente o nível esperado e continuar sua jornada de aprendizado. Oferecemos treinamentos que vão do nível básico ao avançado, com opções de aulas virtuais, sob demanda e por meio de transmissões ao vivo para que você possa encaixá-las na correria do seu dia a dia. As certificações validam sua experiência e comprovam suas habilidades com as tecnologias do Google Cloud.

Manual atualizado em 4 de fevereiro de 2024

Laboratório testado em 10 de novembro de 2023

Copyright 2024 Google LLC. Todos os direitos reservados. Google e o logotipo do Google são marcas registradas da Google LLC. Todos os outros nomes de produtos e empresas podem ser marcas registradas das respectivas empresas a que estão associados.

Este conteúdo não está disponível no momento

Você vai receber uma notificação por e-mail quando ele estiver disponível

Ótimo!

Vamos entrar em contato por e-mail se ele ficar disponível