
Before you begin
- Labs create a Google Cloud project and resources for a fixed time
- Labs have a time limit and no pause feature. If you end the lab, you'll have to restart from the beginning.
- On the top left of your screen, click Start lab to begin
Build and train a model
/ 30
Create an Artifact Registry repository for custom container images
/ 40
Define a pipeline using the KFP SDK
/ 30
Nos laboratórios com desafio, apresentamos uma situação e um conjunto de tarefas. Para concluí-las, em vez de seguir instruções detalhadas, você usará o que aprendeu nos laboratórios do curso. Um sistema automático de pontuação (mostrado nesta página) vai avaliar seu desempenho.
Nos laboratórios com desafio, não ensinamos novos conceitos do Google Cloud. O objetivo dessas tarefas é aprimorar aquilo que você já aprendeu, como a alteração de valores padrão ou a leitura e pesquisa de mensagens para corrigir seus próprios erros.
Para alcançar a pontuação de 100%, você precisa concluir todas as tarefas no tempo definido.
Este laboratório é recomendado para estudantes que se inscreveram no curso Build and Deploy Machine Learning Solutions on Vertex AI. Tudo pronto para começar o desafio?
Leia estas instruções. Os laboratórios são cronometrados e não podem ser pausados. O timer é iniciado quando você clica em Começar o laboratório e mostra por quanto tempo os recursos do Google Cloud vão ficar disponíveis.
Este laboratório prático permite que você realize as atividades em um ambiente real de nuvem, não em uma simulação ou demonstração. Você vai receber novas credenciais temporárias para fazer login e acessar o Google Cloud durante o laboratório.
Confira os requisitos para concluir o laboratório:
Recentemente, contrataram você para trabalhar na engenharia de machine learning de uma startup que tem um site de resenhas de filmes. Seu gerente pediu para você criar um modelo que classifica como positivo ou negativo o sentimento das resenhas de filmes feitas pelos usuários. Essas previsões vão ser usadas como uma entrada em sistemas que agregam avaliações de filmes e para exibir as principais críticas positivas e negativas no aplicativo do site.
O desafio: você tem apenas seis semanas para produzir um modelo com mais de 75% de precisão para melhorar a solução atual desenvolvida pela empresa. Além disso, após uma análise exploratória no data warehouse da startup, você descobre que ele contém apenas um pequeno conjunto de dados com 50 mil resenhas em texto que vão servir como base para criar uma solução com melhor desempenho.
Para criar e implantar rapidamente um modelo de machine learning de alto desempenho com dados limitados, você vai treinar e implantar um classificador de sentimentos personalizado BERT do TensorFlow. Ele vai realizar previsões on-line na plataforma Vertex AI do Google Cloud, que é nossa plataforma avançada de desenvolvimento de machine learning. Nela, é possível usar o AutoML e os componentes pré-criados de ML mais recentes para melhorar muito a produtividade de desempenho, a capacidade de escalonar o fluxo de trabalho e os processos de decisão com dados, além de acelerar o retorno do investimento.
Primeiro, você vai passar por um fluxo de trabalho experimental típico. Nele, você vai criar seu modelo usando componentes BERT pré-treinados do TF-Hub e camadas de classificação do tf.keras
para treinar e avaliar seu modelo em um notebook da Vertex. Em seguida, você vai empacotar o código do modelo em um contêiner do Docker para fazer o treinamento na Vertex AI do Google Cloud. Por último, você vai definir e executar um pipeline do Kubeflow no Vertex Pipelines que faz o treinamento e a implantação do seu modelo em um endpoint da Vertex que oferece previsões on-line para consultas.
No menu de navegação () do console do Google Cloud, clique em Vertex AI > Workbench.
Ache a instância
A interface do JupyterLab para sua instância do Workbench é aberta em uma nova guia do navegador.
No seu notebook, clique em Terminal.
Para instalar os pacotes necessários para o laboratório, use este código:
No Navegador de arquivos à esquerda, clique no item
Quando for perguntado qual kernel usar, selecione a opção Python 3 (ipykernel).
Leia a seção Configuração do notebook para instalar as bibliotecas necessárias e configurar o ambiente.
Todo o restante do código para importar e pré-processar o conjunto de dados foi fornecido para você. As próximas etapas estão descritas no arquivo do notebook. Ao longo das tarefas, volte a esta página do laboratório para verificar seu progresso e ver algumas dicas.
Nesta seção, você vai treinar seu modelo localmente usando o TensorFlow.
Preencha a seção #TODO
para adicionar um hub.KerasLayer
ao pré-processamento de texto BERT.
Preencha a seção #TODO
para adicionar um hub.KerasLayer
à codificação de texto BERT.
Preencha a seção #TODO
para salvar a classificação de sentimento BERT localmente no diretório ./bert-sentiment-classifier-local
.
Clique em Verificar meu progresso para conferir o objetivo.
#TODO
para criar um Artifact Registry do Docker usando a gcloud CLI. Saiba mais na documentação do gcloud artifacts repositories create.location
, repository-format
e description
. #TODO
para usar o Cloud Build na criação e envio do seu contêiner de modelos personalizado para o Artifact Registry. Saiba mais na documentação do gcloud builds submit.{MODEL_DIR}/cloudbuild.yaml
, definido acima, e inclua seu diretório de modelos. Clique em Verificar meu progresso para conferir o objetivo.
#TODO
para adicionar e configurar componentes CustomContainerTrainingJobOp
no seu pipeline.CustomContainerTrainingJob
. Clique em Verificar meu progresso para conferir o objetivo.
#TODO
para gerar previsões on-line usando o endpoint da Vertex.Parabéns! Neste laboratório, você aprendeu a criar e implantar um classificador de sentimentos BERT personalizado usando a Vertex AI. Você também aprendeu a usar o Cloud Build para criar e enviar seu contêiner de modelos personalizado para o Artifact Registry e definir um pipeline usando o SDK do KFP. Agora você já sabe criar e implantar seus próprios modelos personalizados usando a Vertex AI.
Este laboratório autoguiado faz parte do curso Build and Deploy Machine Learning Solutions on Vertex AI. Ao concluir o curso, você ganha o selo acima como reconhecimento pela sua conquista. Compartilhe o selo no seu currículo e nas redes sociais e use #GoogleCloudBadge para anunciar sua conquista.
Este curso com selo de habilidade faz parte do programa de aprendizado Data Scientist/Machine Learning Engineer do Google. Se já tiver concluído os outros cursos com selo de habilidade nesse programa de aprendizado, inscreva-se em uma das mais de 20 outras opções disponíveis no catálogo.
Esses treinamentos ajudam você a aproveitar as tecnologias do Google Cloud ao máximo. Nossas aulas incluem habilidades técnicas e práticas recomendadas para ajudar você a alcançar rapidamente o nível esperado e continuar sua jornada de aprendizado. Oferecemos treinamentos que vão do nível básico ao avançado, com opções de aulas virtuais, sob demanda e por meio de transmissões ao vivo para que você possa encaixá-las na correria do seu dia a dia. As certificações validam sua experiência e comprovam suas habilidades com as tecnologias do Google Cloud.
Manual atualizado em 8 de agosto de 2024
Laboratório testado em 8 de agosto de 2024
Copyright 2025 Google LLC. Todos os direitos reservados. Google e o logotipo do Google são marcas registradas da Google LLC. Todos os outros nomes de produtos e empresas podem ser marcas registradas das respectivas empresas a que estão associados.
Este conteúdo não está disponível no momento
Você vai receber uma notificação por e-mail quando ele estiver disponível
Ótimo!
Vamos entrar em contato por e-mail se ele ficar disponível
One lab at a time
Confirm to end all existing labs and start this one