Checkpoints
Disable and re-enable the Dataflow API
/ 20
Create a BigQuery Dataset (name: taxirides)
/ 20
Create a table in BigQuery Dataset
/ 20
Create a Cloud Storage bucket
/ 20
Run the Pipeline
/ 20
Dataflow: Qwik Start – Modelos
- GSP192
- Visão geral
- Configuração
- Tarefa 1: ativar a API Dataflow
- Tarefa 2: criar um conjunto de dados e uma tabela do BigQuery, além de um bucket do Cloud Storage usando o Cloud Shell
- Tarefa 3: criar um conjunto de dados e uma tabela do BigQuery, além de um bucket do Cloud Storage usando o console do Google Cloud
- Tarefa 4: executar o pipeline
- Tarefa 5: enviar uma consulta
- Tarefa 6: Testar seu conhecimento
- Parabéns!
GSP192
Visão geral
Neste laboratório, você vai aprender a criar um pipeline de streaming usando um dos modelos do Google para o Dataflow. Você vai usar o modelo Pub/Sub para BigQuery, que lê mensagens em formato JSON de um tópico do Pub/Sub e as grava em uma tabela do BigQuery. A documentação do modelo está disponível no guia Comece agora com os modelos fornecidos pelo Google.
É possível usar a linha de comando do Cloud Shell ou o console do Cloud para criar o conjunto de dados e a tabela do BigQuery. Escolha um desses métodos para usar durante todo o laboratório. Se você quiser experimentar o outro método, faça este laboratório uma segunda vez.
Atividades
- Criar um conjunto de dados e uma tabela do BigQuery
- Produzir um bucket do Cloud Storage
- Criar um pipeline de streaming usando um modelo do Dataflow de Pub/Sub para BigQuery
Configuração
Antes de clicar no botão Start Lab
Leia estas instruções. Os laboratórios são cronometrados e não podem ser pausados. O timer é iniciado quando você clica em Começar o laboratório e mostra por quanto tempo os recursos do Google Cloud vão ficar disponíveis.
Este laboratório prático permite que você realize as atividades em um ambiente real de nuvem, não em uma simulação ou demonstração. Você vai receber novas credenciais temporárias para fazer login e acessar o Google Cloud durante o laboratório.
Confira os requisitos para concluir o laboratório:
- Acesso a um navegador de Internet padrão (recomendamos o Chrome).
- Tempo para concluir o laboratório---não se esqueça: depois de começar, não será possível pausar o laboratório.
Como iniciar seu laboratório e fazer login no console do Google Cloud
-
Clique no botão Começar o laboratório. Se for preciso pagar, você verá um pop-up para selecionar a forma de pagamento. No painel Detalhes do laboratório à esquerda, você vai encontrar o seguinte:
- O botão Abrir console do Google Cloud
- O tempo restante
- As credenciais temporárias que você vai usar neste laboratório
- Outras informações, se forem necessárias
-
Se você estiver usando o navegador Chrome, clique em Abrir console do Google Cloud ou clique com o botão direito do mouse e selecione Abrir link em uma janela anônima.
O laboratório ativa os recursos e depois abre a página Fazer login em outra guia.
Dica: coloque as guias em janelas separadas lado a lado.
Observação: se aparecer a caixa de diálogo Escolher uma conta, clique em Usar outra conta. -
Se necessário, copie o Nome de usuário abaixo e cole na caixa de diálogo Fazer login.
{{{user_0.username | "Nome de usuário"}}} Você também encontra o Nome de usuário no painel Detalhes do laboratório.
-
Clique em Seguinte.
-
Copie a Senha abaixo e cole na caixa de diálogo de boas-vindas.
{{{user_0.password | "Senha"}}} Você também encontra a Senha no painel Detalhes do laboratório.
-
Clique em Seguinte.
Importante: você precisa usar as credenciais fornecidas no laboratório, e não as da sua conta do Google Cloud. Observação: se você usar sua própria conta do Google Cloud neste laboratório, é possível que receba cobranças adicionais. -
Acesse as próximas páginas:
- Aceite os Termos e Condições.
- Não adicione opções de recuperação nem autenticação de dois fatores (porque essa é uma conta temporária).
- Não se inscreva em testes gratuitos.
Depois de alguns instantes, o console do Google Cloud será aberto nesta guia.
Ativar o Cloud Shell
O Cloud Shell é uma máquina virtual com várias ferramentas de desenvolvimento. Ele tem um diretório principal permanente de 5 GB e é executado no Google Cloud. O Cloud Shell oferece acesso de linha de comando aos recursos do Google Cloud.
- Clique em Ativar o Cloud Shell na parte de cima do console do Google Cloud.
Depois de se conectar, vai notar que sua conta já está autenticada, e que o projeto está configurado com seu PROJECT_ID. A saída contém uma linha que declara o projeto PROJECT_ID para esta sessão:
gcloud
é a ferramenta de linha de comando do Google Cloud. Ela vem pré-instalada no Cloud Shell e aceita preenchimento com tabulação.
- (Opcional) É possível listar o nome da conta ativa usando este comando:
-
Clique em Autorizar.
-
A saída será parecida com esta:
Saída:
- (Opcional) É possível listar o ID do projeto usando este comando:
Saída:
Exemplo de saída:
gcloud
, acesse o guia com informações gerais sobre a gcloud CLI no Google Cloud.
Tarefa 1: ativar a API Dataflow
Para ter acesso à API Dataflow, reinicie a conexão.
-
No console do Cloud, digite "API Dataflow" na barra de pesquisa superior. Clique no resultado para API Dataflow.
-
Selecione Gerenciar.
-
Clique em Desativar API.
Se for necessário confirmar, clique em Desativar.
- Selecione Ativar.
A opção para desativar a API aparece quando ela é ativada novamente.
Teste a tarefa concluída
Clique em Verificar meu progresso para conferir a tarefa realizada.
Tarefa 2: criar um conjunto de dados e uma tabela do BigQuery, além de um bucket do Cloud Storage usando o Cloud Shell
Primeiro, você vai criar um conjunto de dados e uma tabela do BigQuery.
bq
. Pule para a tarefa 3 se você quiser concluir essas etapas usando o console do Cloud.
- Execute o comando abaixo para criar um conjunto de dados chamado
taxirides
:
A resposta será semelhante a:
Teste a tarefa concluída
Clique em Verificar meu progresso para conferir a tarefa realizada. Se o conjunto foi criado, você recebe uma pontuação de avaliação.
Agora use o conjunto de dados criado na próxima etapa para instanciar uma tabela do BigQuery.
- Para isso, execute o seguinte comando:
A resposta será semelhante a:
Teste a tarefa concluída
Clique em Verificar meu progresso para conferir a tarefa realizada. Se a tabela foi criada no conjunto de dados do BigQuery, você recebe uma pontuação de avaliação.
A princípio, o comando bq mk
parece complicado. Mas, com auxílio da documentação da linha de comando do BigQuery, podemos entender melhor como ele funciona. Na documentação, você encontra mais detalhes sobre o esquema, por exemplo:
- O caminho para um arquivo de esquema JSON local ou uma lista de definições de coluna separadas por vírgula, no formato
[FIELD]
:[DATA_TYPE]
,[FIELD]
:[DATA_TYPE]
.
Neste caso, estamos usando a lista de definições separadas por vírgula.
Criar um bucket do Cloud Storage com o Cloud Shell
Agora que instanciamos nossa tabela, criaremos um bucket.
Use o ID do projeto como nome do bucket para garantir um título globalmente exclusivo:
- Para fazer isso, execute os comandos a seguir:
Teste a tarefa concluída
Clique em Verificar meu progresso para conferir a tarefa realizada. Se o bucket do Cloud Storage tiver sido criado, você receberá uma pontuação de avaliação.
Depois de criar o bucket, role para baixo até a seção Executar o pipeline.
Tarefa 3: criar um conjunto de dados e uma tabela do BigQuery, além de um bucket do Cloud Storage usando o console do Google Cloud
-
No menu esquerdo, na seção "Big Data", clique em BigQuery.
-
Clique em Concluído.
-
Clique nos três pontos ao lado do nome do projeto, na seção Explorer, e clique em Criar conjunto de dados.
-
Digite
taxirides
como ID do conjunto de dados: -
Selecione EUA (várias regiões nos Estados Unidos) em "Local dos dados".
-
Deixe todas as demais configurações em padrão e clique em CRIAR CONJUNTO DE DADOS.
Teste a tarefa concluída
Clique em Verificar meu progresso para conferir a tarefa realizada. Se o conjunto foi criado, você recebe uma pontuação de avaliação.
-
Agora o conjunto de dados
taxirides
aparece abaixo do ID do projeto, no lado esquerdo do console. -
Clique nos três pontos ao lado do conjunto de dados
taxirides
e selecione Abrir. -
Selecione CRIAR TABELA no lado direito do console.
-
Em Destino > Nome da tabela, digite
realtime
. -
Em "Esquema", mova o controle deslizante para Editar como texto e insira o seguinte:
A interface do Console vai ficar assim:
- Clique em Criar tabela.
Teste a tarefa concluída
Clique em Verificar meu progresso para conferir a tarefa realizada. Se a tabela foi criada no conjunto de dados do BigQuery, você recebe uma pontuação de avaliação.
Criar um bucket do Cloud Storage com o console do Cloud
-
Volte ao console do Cloud e acesse Cloud Storage > Buckets > Criar bucket.
-
Use o ID do projeto como nome do bucket para garantir um título globalmente exclusivo:
-
Mantenha os valores padrão de todas as outras configurações e clique em Criar.
Teste a tarefa concluída
Clique em Verificar meu progresso para conferir a tarefa realizada. Se o bucket do Cloud Storage tiver sido criado, você receberá uma pontuação de avaliação.
Tarefa 4: executar o pipeline
Implante o modelo do Dataflow:
No menu de navegação do console do Google Cloud, clique em Dataflow > Jobs para encontrar seu job.
Consulte este documento para mais informações.
Teste a tarefa concluída
Clique em Verificar meu progresso para conferir a tarefa realizada. Se o pipeline do Dataflow tiver sido executado corretamente, você receberá uma pontuação de avaliação.
Você verá os recursos serem criados e disponibilizados para uso.
Agora vamos ver os dados gravados no BigQuery. Clique em BigQuery no menu de navegação.
- Na IU do BigQuery, você vai encontrar o conjunto de dados taxirides adicionado abaixo do nome do projeto e a palavra realtime abaixo dela.
Tarefa 5: enviar uma consulta
Você pode enviar consultas usando o SQL padrão.
- No Editor do BigQuery, adicione a consulta abaixo aos dados do seu projeto:
- Clique em EXECUTAR.
Se houver algum problema ou erro, execute a consulta novamente. A inicialização do pipeline leva um minuto.
- Quando a consulta terminar, você verá a resposta no painel Resultados da consulta, como na imagem abaixo:
Bom trabalho! Você acabou de extrair 1.000 corridas de táxi de um tópico do Pub/Sub e as enviou para uma tabela do BigQuery. Como você viu em primeira mão, os modelos são uma maneira prática e fácil de executar jobs do Dataflow. Confira outros modelos do Google na documentação do Dataflow, no guia Comece agora com os modelos fornecidos pelo Google.
Tarefa 6: Testar seu conhecimento
Responda às perguntas de múltipla escolha abaixo para reforçar sua compreensão dos conceitos abordados neste laboratório. Use tudo o que você aprendeu até aqui.
Parabéns!
Você criou um pipeline de streaming usando um modelo do Dataflow de Pub/Sub para BigQuery, que lê mensagens em formato JSON de um tópico do Pub/Sub e as grava em uma tabela do BigQuery.
Próximas etapas / Saiba mais
Este laboratório faz parte de uma série chamada Qwik Starts. Ela foi desenvolvida para apresentar a você alguns dos recursos disponíveis no Google Cloud. Pesquise "Qwik Starts" no catálogo do Google Cloud Ensina para encontrar algum laboratório que seja do seu interesse.
Treinamento e certificação do Google Cloud
Esses treinamentos ajudam você a aproveitar as tecnologias do Google Cloud ao máximo. Nossas aulas incluem habilidades técnicas e práticas recomendadas para ajudar você a alcançar rapidamente o nível esperado e continuar sua jornada de aprendizado. Oferecemos treinamentos que vão do nível básico ao avançado, com opções de aulas virtuais, sob demanda e por meio de transmissões ao vivo para que você possa encaixá-las na correria do seu dia a dia. As certificações validam sua experiência e comprovam suas habilidades com as tecnologias do Google Cloud.
Manual atualizado em 4 de fevereiro de 2024
Laboratório testado em 10 de novembro de 2023
Copyright 2024 Google LLC. Todos os direitos reservados. Google e o logotipo do Google são marcas registradas da Google LLC. Todos os outros nomes de produtos e empresas podem ser marcas registradas das respectivas empresas a que estão associados.