Points de contrôle
Build and train a model
/ 30
Create an Artifact Registry repository for custom container images
/ 40
Define a pipeline using the KFP SDK
/ 30
Build and Deploy Machine Learning Solutions with Vertex AI : atelier challenge
- GSP354
- Présentation
- Préparation
- Scénario du challenge
- Tâche 1 : Ouvrir le notebook dans Vertex AI Workbench
- Tâche 2 : Configurer le notebook
- Tâche 3 : Créer et entraîner un modèle en local dans un notebook Vertex
- Tâche 4 : Créer un conteneur pour votre modèle et le transférer vers Artifact Registry avec Cloud Build
- Tâche 5 : Définir un pipeline à l'aide du SDK KFP
- Tâche 6 : Interroger le modèle déployé à l'aide de votre point de terminaison Vertex
- Félicitations !
GSP354
Présentation
Dans un atelier challenge, vous devez suivre un scénario et effectuer une série de tâches. Aucune instruction détaillée n'est fournie : vous devez utiliser les compétences acquises au cours des ateliers du cours correspondant pour déterminer comment procéder par vous-même. Vous saurez si vous avez exécuté correctement les différentes tâches grâce au score calculé automatiquement (affiché sur cette page).
Lorsque vous participez à un atelier challenge, vous n'étudiez pas de nouveaux concepts Google Cloud. Vous allez approfondir les compétences précédemment acquises. Par exemple, vous devrez modifier les valeurs par défaut ou encore examiner des messages d'erreur pour corriger vous-même les problèmes.
Pour atteindre le score de 100 %, vous devez mener à bien l'ensemble des tâches dans le délai imparti.
Cet atelier est recommandé aux participants inscrits au cours Build and Deploy Machine Learning Solutions on Vertex AI. Êtes-vous prêt pour le challenge ?
Préparation
Avant de cliquer sur le bouton "Démarrer l'atelier"
Lisez ces instructions. Les ateliers sont minutés, et vous ne pouvez pas les mettre en pause. Le minuteur, qui démarre lorsque vous cliquez sur Démarrer l'atelier, indique combien de temps les ressources Google Cloud resteront accessibles.
Cet atelier pratique vous permet de suivre vous-même les activités dans un véritable environnement cloud, et non dans un environnement de simulation ou de démonstration. Nous vous fournissons des identifiants temporaires pour vous connecter à Google Cloud le temps de l'atelier.
Pour réaliser cet atelier :
- vous devez avoir accès à un navigateur Internet standard (nous vous recommandons d'utiliser Chrome) ;
- vous disposez d'un temps limité ; une fois l'atelier commencé, vous ne pouvez pas le mettre en pause.
Scénario du challenge
Une start-up spécialisée dans les critiques de films vous a récemment embauché comme ingénieur en machine learning pour son site Web. Votre responsable vous a demandé de créer un modèle de machine learning pour classer les critiques des spectateurs comme positives ou négatives. Les systèmes de notation des films en aval utiliseront ces prédictions comme données d'entrée pour afficher la critique la plus favorable et celle la plus défavorable sur l'application de la start-up.
Votre défi consiste à faire passer en production en six semaines seulement un modèle avec un taux de précision supérieur à 75 %, pour améliorer une solution déjà lancée. Par ailleurs, après avoir examiné l'entrepôt de données de la start-up, vous avez constaté que vous ne disposiez que d'un petit ensemble de données de 50 000 critiques écrites pour créer une solution plus performante.
Votre challenge
Pour créer et déployer rapidement un modèle de machine learning hautes performances avec une quantité limitée de données, vous allez apprendre à entraîner et à déployer un classificateur de sentiments personnalisé TensorFlow BERT sur Vertex AI pour générer des prédictions en ligne. Vertex AI est la plate-forme de développement de machine learning nouvelle génération de Google Cloud. Elle vous permet d'exploiter les derniers composants de ML prédéfinis ainsi qu'AutoML pour améliorer de façon significative votre productivité lors du développement, faire évoluer votre workflow et les prises de décision basées sur vos données, mais aussi accélérer le retour sur investissement.
Tout d'abord, vous allez suivre un workflow d'expérimentation typique pour créer votre modèle à partir de composants BERT préentraînés provenant de TF-Hub et de couches de classification tf.keras
, avant de l'entraîner et de l'évaluer dans un notebook Vertex. Ensuite, vous allez empaqueter le code de votre modèle dans un conteneur Docker pour l'entraîner sur Google Cloud Vertex AI. Enfin, vous allez définir et exécuter sur Vertex Pipelines un pipeline Kubeflow qui va entraîner et déployer votre modèle sur un point de terminaison Vertex pour que vous puissiez l'interroger et ainsi obtenir des prédictions en ligne.
Tâche 1 : Ouvrir le notebook dans Vertex AI Workbench
-
Dans la console Google Cloud, accédez au menu de navigation et cliquez sur Vertex AI > Workbench.
-
Recherchez l'instance
, puis cliquez sur le bouton Ouvrir JupyterLab.
L'interface JupyterLab de votre instance Workbench s'ouvre dans un nouvel onglet de navigateur.
Tâche 2 : Configurer le notebook
-
Dans votre notebook, cliquez sur le terminal.
-
Installez les packages requis pour l'atelier :
-
Dans l'explorateur de fichiers à gauche, cliquez sur le fichier
. -
Lorsque vous êtes invité à choisir un kernel, sélectionnez le kernel Python 3 (ipykernel).
-
Parcourez la section Setup (Configuration) du notebook pour installer les bibliothèques requises et configurer votre environnement.
- Pour Project ID (ID du projet), utilisez
et pour Region (Région), utilisez .
- Pour Project ID (ID du projet), utilisez
Nous vous avons fourni le reste du code pour importer et prétraiter l'ensemble de données. Les étapes restantes figurent dans le fichier notebook. Reportez-vous à ce guide pour vérifier votre progression et obtenir quelques astuces.
Tâche 3 : Créer et entraîner un modèle en local dans un notebook Vertex
Dans cette section, vous allez entraîner votre modèle en local à l'aide de TensorFlow.
Créer et compiler un classificateur de sentiments TensorFlow BERT
-
Remplissez la section
#TODO
pour ajouter une couchehub.KerasLayer
vous permettant de prétraiter le texte avec BERT. -
Remplissez la section
#TODO
pour ajouter une couchehub.KerasLayer
vous permettant d'encoder le texte avec BERT. -
Remplissez la section
#TODO
pour enregistrer votre classificateur de sentiments BERT en local, de préférence dans le répertoire./bert-sentiment-classifier-local
.
Cliquez sur Vérifier ma progression pour valider l'objectif.
Tâche 4 : Créer un conteneur pour votre modèle et le transférer vers Artifact Registry avec Cloud Build
Créer un dépôt Artifact Registry pour les images de conteneurs personnalisés
- Remplissez la section
#TODO
pour créer un dépôt Docker Artifact Registry à l'aide de la gcloud CLI. Pour en savoir plus, consultez la documentation gcloud artifacts repositories create.
location
, repository-format
et description
. Créer votre image de conteneur et la transférer vers Artifact Registry avec Cloud Build
- Remplissez la section
#TODO
pour créer votre conteneur de modèle personnalisé et le transférer vers Artifact Registry à l'aide de Cloud Build. Pour en savoir plus, consultez la documentation gcloud builds submit.
{MODEL_DIR}/cloudbuild.yaml
(défini ci-dessus) et que vous avez inclus le répertoire de votre modèle. Cliquez sur Vérifier ma progression pour valider l'objectif.
Tâche 5 : Définir un pipeline à l'aide du SDK KFP
- Remplissez la section
#TODO
pour ajouter et configurer des composantsCustomContainerTrainingJobOp
pour votre pipeline.
CustomContainerTrainingJob
défini plus tôt. Cliquez sur Vérifier ma progression pour valider l'objectif.
Tâche 6 : Interroger le modèle déployé à l'aide de votre point de terminaison Vertex
- Remplissez la section
#TODO
pour générer des prédictions en ligne à l'aide de votre point de terminaison Vertex.
Félicitations !
Félicitations ! Dans cet atelier, vous avez découvert comment créer et déployer un classificateur de sentiments BERT personnalisé avec Vertex AI. Vous avez également appris à utiliser Cloud Build pour créer votre conteneur de modèle personnalisé et le transférer vers Artifact Registry, ainsi qu'à définir un pipeline à l'aide du SDK KFP. Vous pouvez maintenant créer et déployer vos propres modèles personnalisés avec Vertex AI.
Gagnez un badge de compétence
Cet atelier d'auto-formation fait partie du cours Build and Deploy Machine Learning Solutions on Vertex AI. Si vous terminez ce cours, vous obtiendrez le badge de compétence ci-dessus attestant de votre réussite. Ajoutez votre badge à votre CV et partagez-le sur les réseaux sociaux en utilisant le hashtag #GoogleCloudBadge.
Ce cours, qui ouvre droit à un badge de compétence, fait partie du parcours de formation Data Scientist/Machine Learning Engineer de Google. Si vous avez déjà complété les autres cours de ce parcours de formation, explorez le catalogue pour découvrir plus de vingt autres cours auxquels vous pouvez vous inscrire pour gagner un badge de compétence.
Formations et certifications Google Cloud
Les formations et certifications Google Cloud vous aident à tirer pleinement parti des technologies Google Cloud. Nos cours portent sur les compétences techniques et les bonnes pratiques à suivre pour être rapidement opérationnel et poursuivre votre apprentissage. Nous proposons des formations pour tous les niveaux, à la demande, en salle et à distance, pour nous adapter aux emplois du temps de chacun. Les certifications vous permettent de valider et de démontrer vos compétences et votre expérience en matière de technologies Google Cloud.
Dernière mise à jour du manuel : 8 août 2024
Dernier test de l'atelier : 8 août 2024
Copyright 2024 Google LLC Tous droits réservés. Google et le logo Google sont des marques de Google LLC. Tous les autres noms d'entreprises et de produits peuvent être des marques des entreprises auxquelles ils sont associés.