arrow_back

Dataflow: Qwik Start – Python

Teste e compartilhe seu conhecimento com nossa comunidade.
done
Tenha acesso a mais de 700 laboratórios, selos de habilidade e cursos

Dataflow: Qwik Start – Python

Laboratório 30 minutos universal_currency_alt 1 crédito show_chart Introdutório
info Este laboratório pode incorporar ferramentas de IA para ajudar no seu aprendizado.
Teste e compartilhe seu conhecimento com nossa comunidade.
done
Tenha acesso a mais de 700 laboratórios, selos de habilidade e cursos

GSP207

Laboratórios autoguiados do Google Cloud

Visão geral

O SDK do Apache Beam é um modelo de programação de código aberto para pipelines de dados. No Google Cloud, você pode definir um pipeline com um programa do Apache Beam e usar o Dataflow para a execução do pipeline.

Neste laboratório, você vai configurar um ambiente de desenvolvimento em Python para o Dataflow (usando o SDK do Apache Beam para Python) e executar um exemplo de pipeline do Dataflow.

Atividades

Neste laboratório, você vai aprender a:

  • criar um bucket do Cloud Storage para armazenar resultados de um pipeline do Dataflow;
  • instalar o SDK do Apache Beam para Python;
  • executar um pipeline do Dataflow de maneira remota.

Configuração e requisitos

Antes de clicar no botão Start Lab

Leia estas instruções. Os laboratórios são cronometrados e não podem ser pausados. O timer é iniciado quando você clica em Começar o laboratório e mostra por quanto tempo os recursos do Google Cloud vão ficar disponíveis.

Este laboratório prático permite que você realize as atividades em um ambiente real de nuvem, não em uma simulação ou demonstração. Você vai receber novas credenciais temporárias para fazer login e acessar o Google Cloud durante o laboratório.

Confira os requisitos para concluir o laboratório:

  • Acesso a um navegador de Internet padrão (recomendamos o Chrome).
Observação: para executar este laboratório, use o modo de navegação anônima ou uma janela anônima do navegador. Isso evita conflitos entre sua conta pessoal e a conta de estudante, o que poderia causar cobranças extras na sua conta pessoal.
  • Tempo para concluir o laboratório---não se esqueça: depois de começar, não será possível pausar o laboratório.
Observação: não use seu projeto ou conta do Google Cloud neste laboratório para evitar cobranças extras na sua conta.

Como iniciar seu laboratório e fazer login no console do Google Cloud

  1. Clique no botão Começar o laboratório. Se for preciso pagar, você verá um pop-up para selecionar a forma de pagamento. No painel Detalhes do laboratório à esquerda, você vai encontrar o seguinte:

    • O botão Abrir console do Google Cloud
    • O tempo restante
    • As credenciais temporárias que você vai usar neste laboratório
    • Outras informações, se forem necessárias
  2. Se você estiver usando o navegador Chrome, clique em Abrir console do Google Cloud ou clique com o botão direito do mouse e selecione Abrir link em uma janela anônima.

    O laboratório ativa os recursos e depois abre a página Fazer login em outra guia.

    Dica: coloque as guias em janelas separadas lado a lado.

    Observação: se aparecer a caixa de diálogo Escolher uma conta, clique em Usar outra conta.
  3. Se necessário, copie o Nome de usuário abaixo e cole na caixa de diálogo Fazer login.

    {{{user_0.username | "Nome de usuário"}}}

    Você também encontra o Nome de usuário no painel Detalhes do laboratório.

  4. Clique em Seguinte.

  5. Copie a Senha abaixo e cole na caixa de diálogo de boas-vindas.

    {{{user_0.password | "Senha"}}}

    Você também encontra a Senha no painel Detalhes do laboratório.

  6. Clique em Seguinte.

    Importante: você precisa usar as credenciais fornecidas no laboratório, e não as da sua conta do Google Cloud. Observação: se você usar sua própria conta do Google Cloud neste laboratório, é possível que receba cobranças adicionais.
  7. Acesse as próximas páginas:

    • Aceite os Termos e Condições.
    • Não adicione opções de recuperação nem autenticação de dois fatores (porque essa é uma conta temporária).
    • Não se inscreva em testes gratuitos.

Depois de alguns instantes, o console do Google Cloud será aberto nesta guia.

Observação: clique em Menu de navegação no canto superior esquerdo para acessar uma lista de produtos e serviços do Google Cloud. Ícone do menu de navegação

Ativar o Cloud Shell

O Cloud Shell é uma máquina virtual com várias ferramentas de desenvolvimento. Ele tem um diretório principal permanente de 5 GB e é executado no Google Cloud. O Cloud Shell oferece acesso de linha de comando aos recursos do Google Cloud.

  1. Clique em Ativar o Cloud Shell Ícone "Ativar o Cloud Shell" na parte de cima do console do Google Cloud.

Depois de se conectar, vai notar que sua conta já está autenticada, e que o projeto está configurado com seu PROJECT_ID. A saída contém uma linha que declara o projeto PROJECT_ID para esta sessão:

Your Cloud Platform project in this session is set to YOUR_PROJECT_ID

gcloud é a ferramenta de linha de comando do Google Cloud. Ela vem pré-instalada no Cloud Shell e aceita preenchimento com tabulação.

  1. (Opcional) É possível listar o nome da conta ativa usando este comando:
gcloud auth list
  1. Clique em Autorizar.

  2. A saída será parecida com esta:

Saída:

ACTIVE: * ACCOUNT: student-01-xxxxxxxxxxxx@qwiklabs.net To set the active account, run: $ gcloud config set account `ACCOUNT`
  1. (Opcional) É possível listar o ID do projeto usando este comando:
gcloud config list project

Saída:

[core] project = <project_ID>

Exemplo de saída:

[core] project = qwiklabs-gcp-44776a13dea667a6 Observação: para conferir a documentação completa da gcloud, acesse o guia com informações gerais sobre a gcloud CLI no Google Cloud.

Configurar a região

  • No Cloud Shell, execute o seguinte comando para definir a região do projeto deste laboratório:
gcloud config set compute/region {{{project_0.default_region | "REGION"}}}

Ative a API Dataflow

Para ter acesso à API Dataflow, reinicie a conexão.

  1. No console do Cloud, digite "API Dataflow" na barra de pesquisa superior. Clique no resultado para API Dataflow.

  2. Selecione Gerenciar.

  3. Clique em Desativar API.

Se for necessário confirmar, clique em Desativar.

  1. Selecione Ativar.

A opção para desativar a API aparece quando ela é ativada novamente.

Tarefa 1: criar um bucket do Cloud Storage

Quando você executa um pipeline usando o Dataflow, os resultados são armazenados em um bucket do Cloud Storage. Nesta tarefa, você vai criar um bucket do Cloud Storage para os resultados do pipeline que vai executar em uma tarefa posterior.

  1. No Menu de navegação (Ícone do menu de navegação), clique em Cloud Storage > Buckets.
  2. Clique em Criar bucket.
  3. Na caixa de diálogo Criar bucket, especifique os seguintes atributos:
  • Nome: para garantir que o bucket tenha um nome exclusivo, use o seguinte: -bucket. O nome do bucket não deve incluir informações sensíveis porque o namespace dele é global e aparece para o público.
  • Tipo de local: multirregional
  • Local: us
  • Defina o local onde os dados do bucket serão armazenados.
  1. Clique em Criar.

  2. Se a mensagem "O acesso público será bloqueado" aparecer, clique em Confirmar.

Teste a tarefa concluída

Clique em Verificar meu progresso para conferir a tarefa realizada. Se a tarefa tiver sido concluída corretamente, você vai receber uma pontuação de avaliação.

Crie um bucket do Cloud Storage.

Tarefa 2: instalar o SDK do Apache Beam para Python

  1. Para garantir que você esteja usando uma versão aceita do Python, comece executando a imagem Docker Python3.9:
docker run -it -e DEVSHELL_PROJECT_ID=$DEVSHELL_PROJECT_ID python:3.9 /bin/bash

Esse comando extrai um contêiner do Docker com a versão estável mais recente do Python 3.9 e, em seguida, abre um shell para que você possa executar os comandos abaixo dentro do contêiner.

  1. Depois que o contêiner estiver em execução, instale a versão mais recente do SDK do Apache Beam para Python executando o comando a seguir em um ambiente virtual:
pip install 'apache-beam[gcp]'==2.42.0

Você vai receber alguns avisos relacionados às dependências. Eles podem ser ignorados sem problemas neste laboratório.

  1. Execute o exemplo do wordcount.py localmente com o seguinte comando:
python -m apache_beam.examples.wordcount --output OUTPUT_FILE

Uma mensagem como esta pode aparecer:

INFO:root:Missing pipeline option (runner). Executing pipeline using the default runner: DirectRunner. INFO:oauth2client.client:Attempting refresh to obtain initial access_token

Ela pode ser ignorada.

  1. Liste os arquivos do seu ambiente de nuvem local para gerar o nome de OUTPUT_FILE:
ls
  1. Copie o nome de OUTPUT_FILE e cat nele:
cat <file name>

Os resultados mostram cada palavra no arquivo e quantas vezes ela aparece.

Tarefa 3: executar um exemplo de pipeline do Dataflow de maneira remota

  1. Defina a variável de ambiente BUCKET para o bucket que você criou anteriormente:
BUCKET=gs://<bucket name provided earlier>
  1. Agora você vai executar o exemplo wordcount.py remotamente:
python -m apache_beam.examples.wordcount --project $DEVSHELL_PROJECT_ID \ --runner DataflowRunner \ --staging_location $BUCKET/staging \ --temp_location $BUCKET/temp \ --output $BUCKET/results/output \ --region {{{project_0.default_region | "filled in at lab start"}}}

Aguarde até esta mensagem aparecer na resposta:

JOB_MESSAGE_DETAILED: Workers have started successfully.

Continue o laboratório.

Tarefa 4: confirmar que o job do Dataflow foi concluído com sucesso

  1. Abra o Menu de navegação e selecione Dataflow na lista de serviços.

Primeiro você verá seu job wordcount com o status Em execução.

  1. Clique no nome dele para assistir ao processo. Quando todas as caixas estiverem marcadas, você poderá continuar monitorando os registros no Cloud Shell.

O processo vai estar completo quando o status for Concluído.

Teste a tarefa concluída

Clique em Verificar meu progresso para conferir a tarefa realizada. Se você concluiu a tarefa, vai receber uma pontuação de avaliação.

Execute um pipeline de exemplo remotamente.
  1. Clique em Menu de navegação > Cloud Storage no Console do Cloud.

  2. Clique no nome do bucket. Nele, você vai encontrar os diretórios resultados e preparo.

  3. Clique na pasta results para ver os arquivos de saída criados pelo seu job:

  4. Clique em um arquivo para ver a contagem de palavras dele.

Tarefa 5: testar seu conhecimento

Responda às perguntas de múltipla escolha a seguir para reforçar os conceitos abordados neste laboratório. Use tudo o que aprendeu até aqui.

Parabéns!

Você aprendeu a configurar seu ambiente de desenvolvimento em Python para o Dataflow (usando o SDK do Apache Beam para Python) e a executar um exemplo de pipeline do Dataflow.

Próximas etapas / Saiba mais

Este laboratório faz parte de uma série chamada Qwik Starts. Ela foi desenvolvida para apresentar a você alguns dos recursos disponíveis no Google Cloud. Pesquise "Qwik Starts" no Catálogo do Google Cloud Ensina para encontrar algum curso que seja do seu interesse.

Para ter sua própria cópia do livro que foi a base deste laboratório, acesse Data Science on the Google Cloud Platform, da O'Reilly Media, Inc (em inglês).

Treinamento e certificação do Google Cloud

Esses treinamentos ajudam você a aproveitar as tecnologias do Google Cloud ao máximo. Nossas aulas incluem habilidades técnicas e práticas recomendadas para ajudar você a alcançar rapidamente o nível esperado e continuar sua jornada de aprendizado. Oferecemos treinamentos que vão do nível básico ao avançado, com opções de aulas virtuais, sob demanda e por meio de transmissões ao vivo para que você possa encaixá-las na correria do seu dia a dia. As certificações validam sua experiência e comprovam suas habilidades com as tecnologias do Google Cloud.

Manual atualizado em 4 de fevereiro de 2024

Laboratório testado em 4 de maio de 2023

Copyright 2024 Google LLC. Todos os direitos reservados. Google e o logotipo do Google são marcas registradas da Google LLC. Todos os outros nomes de produtos e empresas podem ser marcas registradas das respectivas empresas a que estão associados.

Este conteúdo não está disponível no momento

Você vai receber uma notificação por e-mail quando ele estiver disponível

Ótimo!

Vamos entrar em contato por e-mail se ele ficar disponível