O Cloud Logging atua como repositório central para registros de vários serviços do Google Cloud, como o BigQuery, e é ideal para armazenamento de registros de curto e médio prazo. Muitos setores exigem que os registros sejam retidos por longos períodos. Se você quiser manter registros e realizar análises históricas estendidas ou auditorias complexas, configure um coletor que exporte registros específicos para o BigQuery.
Neste laboratório, você vai conferir os registros do BigQuery que estão no Cloud Logging, configurar um coletor a fim de exportá-los para o BigQuery e usar SQL para analisá-los.
Configuração e requisitos
Antes de clicar no botão Começar o Laboratório
Leia estas instruções. Os laboratórios são cronometrados e não podem ser pausados. O timer é ativado quando você clica em Iniciar laboratório e mostra por quanto tempo os recursos do Google Cloud vão ficar disponíveis.
Este laboratório prático permite que você realize as atividades em um ambiente real de nuvem, e não em uma simulação ou demonstração. Você vai receber novas credenciais temporárias para fazer login e acessar o Google Cloud durante o laboratório.
Confira os requisitos para concluir o laboratório:
Acesso a um navegador de Internet padrão (recomendamos o Chrome).
Observação: para executar este laboratório, use o modo de navegação anônima (recomendado) ou uma janela anônima do navegador. Isso evita conflitos entre sua conta pessoal e de estudante, o que poderia causar cobranças extras na sua conta pessoal.
Tempo para concluir o laboratório: não se esqueça que, depois de começar, não será possível pausar o laboratório.
Observação: use apenas a conta de estudante neste laboratório. Se usar outra conta do Google Cloud, você poderá receber cobranças nela.
Como iniciar seu laboratório e fazer login no console do Google Cloud
Clique no botão Começar o laboratório. Se for preciso pagar por ele, uma caixa de diálogo vai aparecer para você selecionar a forma de pagamento.
No painel Detalhes do Laboratório, à esquerda, você vai encontrar o seguinte:
O botão Abrir Console do Google Cloud
O tempo restante
As credenciais temporárias que você vai usar neste laboratório
Outras informações, se forem necessárias
Se você estiver usando o navegador Chrome, clique em Abrir console do Google Cloud ou clique com o botão direito do mouse e selecione Abrir link em uma janela anônima.
O laboratório ativa os recursos e depois abre a página Fazer Login em outra guia.
Dica: coloque as guias em janelas separadas lado a lado.
Observação: se aparecer a caixa de diálogo Escolher uma conta, clique em Usar outra conta.
Se necessário, copie o Nome de usuário abaixo e cole na caixa de diálogo Fazer login.
{{{user_0.username | "Username"}}}
Você também encontra o nome de usuário no painel Detalhes do Laboratório.
Clique em Próxima.
Copie a Senha abaixo e cole na caixa de diálogo de Olá.
{{{user_0.password | "Password"}}}
Você também encontra a senha no painel Detalhes do Laboratório.
Clique em Próxima.
Importante: você precisa usar as credenciais fornecidas no laboratório, e não as da sua conta do Google Cloud.
Observação: se você usar sua própria conta do Google Cloud neste laboratório, é possível que receba cobranças adicionais.
Acesse as próximas páginas:
Aceite os Termos e Condições.
Não adicione opções de recuperação nem autenticação de dois fatores (porque essa é uma conta temporária).
Não se inscreva em testes gratuitos.
Depois de alguns instantes, o console do Google Cloud será aberto nesta guia.
Observação: para acessar os produtos e serviços do Google Cloud, clique no Menu de navegação ou digite o nome do serviço ou produto no campo Pesquisar.
Ativar o Cloud Shell
O Cloud Shell é uma máquina virtual com várias ferramentas de desenvolvimento. Ele tem um diretório principal permanente de 5 GB e é executado no Google Cloud. O Cloud Shell oferece acesso de linha de comando aos recursos do Google Cloud.
Clique em Ativar o Cloud Shell na parte de cima do console do Google Cloud.
Clique nas seguintes janelas:
Continue na janela de informações do Cloud Shell.
Autorize o Cloud Shell a usar suas credenciais para fazer chamadas de APIs do Google Cloud.
Depois de se conectar, você verá que sua conta já está autenticada e que o projeto está configurado com seu Project_ID, . A saída contém uma linha que declara o projeto PROJECT_ID para esta sessão:
Your Cloud Platform project in this session is set to {{{project_0.project_id | "PROJECT_ID"}}}
A gcloud é a ferramenta de linha de comando do Google Cloud. Ela vem pré-instalada no Cloud Shell e aceita preenchimento com tabulação.
(Opcional) É possível listar o nome da conta ativa usando este comando:
gcloud auth list
Clique em Autorizar.
Saída:
ACTIVE: *
ACCOUNT: {{{user_0.username | "ACCOUNT"}}}
To set the active account, run:
$ gcloud config set account `ACCOUNT`
(Opcional) É possível listar o ID do projeto usando este comando:
gcloud config list project
Saída:
[core]
project = {{{project_0.project_id | "PROJECT_ID"}}}
Observação: consulte a documentação completa da gcloud no Google Cloud no guia de visão geral da gcloud CLI.
Tarefa 1: abrir o BigQuery
Abrir o console do BigQuery
No Console do Google Cloud, selecione o menu de navegação > BigQuery:
Você verá a caixa de mensagem Olá! Este é o BigQuery no Console do Cloud. Ela tem um link para o guia de início rápido e as notas de versão.
Clique em OK.
O console do BigQuery vai abrir.
Tarefa 2: criar um conjunto de dados
Na seção Explorador, clique nos três pontos ao lado do projeto que começa com qwiklabs-gcp-.
Clique em Criar conjunto de dados.
Defina o ID do conjunto de dados como bq_logs.
Clique em CRIAR CONJUNTO DE DADOS.
Clique em Verificar meu progresso para conferir o objetivo.
Crie um conjunto de dados
Tarefa 3: executar uma consulta
Primeiro execute uma consulta simples que gere um registro. Você vai usar esse registro mais tarde a fim de configurar a exportação de registros para o BigQuery.
Copie e cole a consulta abaixo no Editor de consultas do BigQuery:
SELECT current_date
Clique em EXECUTAR.
Tarefa 4: configurar a exportação de registros do Cloud Logging
No console do Cloud, selecione Menu de navegação > Ver todos os produtos > Geração de registros > Análise de registros.
Observação: se aparecer uma solicitação, clique em SAIR no trabalho não salvo.
Em Todos os recursos, selecione BigQuery e clique em Aplicar.
Depois clique no botão Executar consulta no canto superior direito.
Devem ser exibidas algumas entradas de registro da consulta.
Procure aquela que contém a palavra "jobcompleted".
Clique na seta à esquerda para expandir a entrada.
Depois clique no botão Expandir campos aninhados no lado direito.
A entrada de registro JSON completa será exibida. Role para baixo e confira os diferentes campos.
Role de volta até o cabeçalho da entrada, clique no botão Entradas semelhantes e escolha Mostrar entradas semelhantes.
Isso configura a pesquisa com os termos corretos. Talvez seja necessário ativar o botão Mostrar consulta para vê-la.
Criar coletor
Agora que você tem os registros necessários, é hora de configurar um coletor.
Clique em Criar coletor no menu suspenso Mais ações.
Preencha os campos da seguinte forma:
Nome do coletor: JobComplete e clique em PRÓXIMA.
Selecione o serviço do coletor: conjunto de dados do BigQuery
Selecione o conjunto de dados do BigQuery (destino): bq_logs (o conjunto de dados que você já configurou)
Mantenha o restante das opções nas configurações padrão.
Clique em CRIAR COLETOR.
Todas as próximas entradas de registro do BigQuery serão exportadas para uma tabela no conjunto de dados bq_logs.
Clique em Verificar meu progresso para conferir o objetivo.
Crie um coletor
Tarefa 5: executar consultas de exemplo
Para preencher a nova tabela com alguns registros, execute algumas consultas de exemplo.
Acesse o Cloud Shell e adicione cada um dos seguintes comandos do BigQuery:
bq query --location=us --use_legacy_sql=false --use_cache=false \
'SELECT fullName, AVG(CL.numberOfYears) avgyears
FROM `qwiklabs-resources.qlbqsamples.persons_living`, UNNEST(citiesLived) as CL
GROUP BY fullname'
bq query --location=us --use_legacy_sql=false --use_cache=false \
'select month, avg(mean_temp) as avgtemp from `qwiklabs-resources.qlweather_geo.gsod`
where station_number = 947680
and year = 2010
group by month
order by month'
bq query --location=us --use_legacy_sql=false --use_cache=false \
'select CONCAT(departure_airport, "-", arrival_airport) as route, count(*) as numberflights
from `bigquery-samples.airline_ontime_data.airline_id_codes` ac,
`qwiklabs-resources.qlairline_ontime_data.flights` fl
where ac.code = fl.airline_code
and regexp_contains(ac.airline , r"Alaska")
group by 1
order by 2 desc
LIMIT 10'
Você vai receber os resultados de cada consulta retornada.
Clique em Verificar meu progresso para conferir o objetivo.
Execute consultas de exemplo
Tarefa 6: exibir os registros no BigQuery
Volte ao BigQuery (Menu de navegação > BigQuery).
Expanda o recurso que começa com o nome qwiklabs-gcp- e expanda o conjunto de dados bq_logs.
O nome pode variar, mas deve ser exibida uma tabela "cloudaudit_googleapis_com_data_access".
Observação: talvez seja necessário executar novamente as consultas de exemplo para que a tabela apareça.
Clique no nome da tabela. Ao inspecionar o esquema dela, é possível notar que ela conta com um grande número de campos.
Ao clicar em Prévia, é possível que os registros das últimas consultas executadas não sejam exibidos. Como esses registros são transmitidos para a tabela, é possível consultar os novos dados, mas eles ainda vão demorar algum tempo para aparecer na Prévia.
Se você quiser tornar a tabela mais utilizável, crie uma VISUALIZAÇÃO, que extrai um subconjunto de campos e realiza alguns cálculos a fim de derivar uma métrica para o tempo de consulta.
Clique em Escrever nova consulta. No editor de consultas do BigQuery, execute o seguinte SQL depois de substituir pelo nome do seu projeto (para copiar o ID do projeto com facilidade, acesse o painel Detalhes do laboratório no lado esquerdo da página do laboratório):
CREATE OR REPLACE VIEW
bq_logs.v_querylogs AS
SELECT
resource.labels.project_id,
protopayload_auditlog.authenticationInfo.principalEmail,
protopayload_auditlog.servicedata_v1_bigquery.jobCompletedEvent.job.jobConfiguration.query.query,
protopayload_auditlog.servicedata_v1_bigquery.jobCompletedEvent.job.jobConfiguration.query.statementType,
protopayload_auditlog.servicedata_v1_bigquery.jobCompletedEvent.job.jobStatus.error.message,
protopayload_auditlog.servicedata_v1_bigquery.jobCompletedEvent.job.jobStatistics.startTime,
protopayload_auditlog.servicedata_v1_bigquery.jobCompletedEvent.job.jobStatistics.endTime,
TIMESTAMP_DIFF(protopayload_auditlog.servicedata_v1_bigquery.jobCompletedEvent.job.jobStatistics.endTime, protopayload_auditlog.servicedata_v1_bigquery.jobCompletedEvent.job.jobStatistics.startTime, MILLISECOND)/1000 AS run_seconds,
protopayload_auditlog.servicedata_v1_bigquery.jobCompletedEvent.job.jobStatistics.totalProcessedBytes,
protopayload_auditlog.servicedata_v1_bigquery.jobCompletedEvent.job.jobStatistics.totalSlotMs,
ARRAY(SELECT as STRUCT datasetid, tableId FROM UNNEST(protopayload_auditlog.servicedata_v1_bigquery.jobCompletedEvent.job.jobStatistics.referencedTables)) as tables_ref,
protopayload_auditlog.servicedata_v1_bigquery.jobCompletedEvent.job.jobStatistics.totalTablesProcessed,
protopayload_auditlog.servicedata_v1_bigquery.jobCompletedEvent.job.jobStatistics.queryOutputRowCount,
severity
FROM
`<YOUR-PROJECT-ID>.bq_logs.cloudaudit_googleapis_com_data_access_*`
ORDER BY
startTime
Clique em Verificar meu progresso para conferir o objetivo.
Exiba os registros no BigQuery
Agora é hora de consultar a VISUALIZAÇÃO. Crie uma nova consulta e execute o seguinte comando:
SELECT * FROM bq_logs.v_querylogs
Percorra os resultados das consultas executadas.
Parabéns!
Você exportou os registros do BigQuery que estão no Cloud Logging para uma tabela do BigQuery e os analisou com SQL.
Esses treinamentos ajudam você a aproveitar as tecnologias do Google Cloud ao máximo. Nossas aulas incluem habilidades técnicas e práticas recomendadas para ajudar você a alcançar rapidamente o nível esperado e continuar sua jornada de aprendizado. Oferecemos treinamentos que vão do nível básico ao avançado, com opções de aulas virtuais, sob demanda e por meio de transmissões ao vivo para que você possa encaixá-las na correria do seu dia a dia. As certificações validam sua experiência e comprovam suas habilidades com as tecnologias do Google Cloud.
Manual atualizado em 31 de maio de 2024
Laboratório testado em 31 de maio de 2024
Copyright 2025 Google LLC. Todos os direitos reservados. Google e o logotipo do Google são marcas registradas da Google LLC. Todos os outros nomes de produtos e empresas podem ser marcas registradas das respectivas empresas a que estão associados.
Os laboratórios criam um projeto e recursos do Google Cloud por um período fixo
Os laboratórios têm um limite de tempo e não têm o recurso de pausa. Se você encerrar o laboratório, vai precisar recomeçar do início.
No canto superior esquerdo da tela, clique em Começar o laboratório
Usar a navegação anônima
Copie o nome de usuário e a senha fornecidos para o laboratório
Clique em Abrir console no modo anônimo
Fazer login no console
Faça login usando suas credenciais do laboratório. Usar outras credenciais pode causar erros ou gerar cobranças.
Aceite os termos e pule a página de recursos de recuperação
Não clique em Terminar o laboratório a menos que você tenha concluído ou queira recomeçar, porque isso vai apagar seu trabalho e remover o projeto
Este conteúdo não está disponível no momento
Você vai receber uma notificação por e-mail quando ele estiver disponível
Ótimo!
Vamos entrar em contato por e-mail se ele ficar disponível
Um laboratório por vez
Confirme para encerrar todos os laboratórios atuais e iniciar este
Use a navegação anônima para executar o laboratório
Para executar este laboratório, use o modo de navegação anônima ou uma janela anônima do navegador. Isso evita conflitos entre sua conta pessoal e a conta de estudante, o que poderia causar cobranças extras na sua conta pessoal.
Neste laboratório, você vai conferir os registros do BigQuery que estão no Cloud Logging, configurar um coletor a fim de exportá-los para o BigQuery e usar SQL para analisá-los.
Duração:
Configuração: 0 minutos
·
Tempo de acesso: 45 minutos
·
Tempo para conclusão: 45 minutos