arrow_back

Build and Deploy Machine Learning Solutions with Vertex AI : atelier challenge

Testez vos connaissances et partagez-les avec notre communauté
done
Accédez à plus de 700 ateliers pratiques, badges de compétence et cours

Build and Deploy Machine Learning Solutions with Vertex AI : atelier challenge

Atelier 2 heures universal_currency_alt 5 crédits show_chart Intermédiaire
info Cet atelier peut intégrer des outils d'IA pour vous accompagner dans votre apprentissage.
Testez vos connaissances et partagez-les avec notre communauté
done
Accédez à plus de 700 ateliers pratiques, badges de compétence et cours

GSP354

Google Cloud – Ateliers adaptés au rythme de chacun

Présentation

Dans un atelier challenge, vous devez suivre un scénario et effectuer une série de tâches. Aucune instruction détaillée n'est fournie : vous devez utiliser les compétences acquises au cours des ateliers du cours correspondant pour déterminer comment procéder par vous-même. Vous saurez si vous avez exécuté correctement les différentes tâches grâce au score calculé automatiquement (affiché sur cette page).

Lorsque vous participez à un atelier challenge, vous n'étudiez pas de nouveaux concepts Google Cloud. Vous allez approfondir les compétences précédemment acquises. Par exemple, vous devrez modifier les valeurs par défaut ou encore examiner des messages d'erreur pour corriger vous-même les problèmes.

Pour atteindre le score de 100 %, vous devez mener à bien l'ensemble des tâches dans le délai imparti.

Cet atelier est recommandé aux participants inscrits au cours Build and Deploy Machine Learning Solutions on Vertex AI. Êtes-vous prêt pour le challenge ?

Préparation

Avant de cliquer sur le bouton "Démarrer l'atelier"

Lisez ces instructions. Les ateliers sont minutés, et vous ne pouvez pas les mettre en pause. Le minuteur, qui démarre lorsque vous cliquez sur Démarrer l'atelier, indique combien de temps les ressources Google Cloud resteront accessibles.

Cet atelier pratique vous permet de suivre vous-même les activités dans un véritable environnement cloud, et non dans un environnement de simulation ou de démonstration. Nous vous fournissons des identifiants temporaires pour vous connecter à Google Cloud le temps de l'atelier.

Pour réaliser cet atelier :

  • vous devez avoir accès à un navigateur Internet standard (nous vous recommandons d'utiliser Chrome) ;
Remarque : Ouvrez une fenêtre de navigateur en mode incognito/navigation privée pour effectuer cet atelier. Vous éviterez ainsi les conflits entre votre compte personnel et le temporaire étudiant, qui pourraient entraîner des frais supplémentaires facturés sur votre compte personnel.
  • vous disposez d'un temps limité ; une fois l'atelier commencé, vous ne pouvez pas le mettre en pause.
Remarque : Si vous possédez déjà votre propre compte ou projet Google Cloud, veillez à ne pas l'utiliser pour réaliser cet atelier afin d'éviter que des frais supplémentaires ne vous soient facturés.

Scénario du challenge

Une start-up spécialisée dans les critiques de films vous a récemment embauché comme ingénieur en machine learning pour son site Web. Votre responsable vous a demandé de créer un modèle de machine learning pour classer les critiques des spectateurs comme positives ou négatives. Les systèmes de notation des films en aval utiliseront ces prédictions comme données d'entrée pour afficher la critique la plus favorable et celle la plus défavorable sur l'application de la start-up.

Votre défi consiste à faire passer en production en six semaines seulement un modèle avec un taux de précision supérieur à 75 %, pour améliorer une solution déjà lancée. Par ailleurs, après avoir examiné l'entrepôt de données de la start-up, vous avez constaté que vous ne disposiez que d'un petit ensemble de données de 50 000 critiques écrites pour créer une solution plus performante.

Votre challenge

Pour créer et déployer rapidement un modèle de machine learning hautes performances avec une quantité limitée de données, vous allez apprendre à entraîner et à déployer un classificateur de sentiments personnalisé TensorFlow BERT sur Vertex AI pour générer des prédictions en ligne. Vertex AI est la plate-forme de développement de machine learning nouvelle génération de Google Cloud. Elle vous permet d'exploiter les derniers composants de ML prédéfinis ainsi qu'AutoML pour améliorer de façon significative votre productivité lors du développement, faire évoluer votre workflow et les prises de décision basées sur vos données, mais aussi accélérer le retour sur investissement.

Schéma de l'architecture de l'atelier

Tout d'abord, vous allez suivre un workflow d'expérimentation typique pour créer votre modèle à partir de composants BERT préentraînés provenant de TF-Hub et de couches de classification tf.keras, avant de l'entraîner et de l'évaluer dans un notebook Vertex. Ensuite, vous allez empaqueter le code de votre modèle dans un conteneur Docker pour l'entraîner sur Google Cloud Vertex AI. Enfin, vous allez définir et exécuter sur Vertex Pipelines un pipeline Kubeflow qui va entraîner et déployer votre modèle sur un point de terminaison Vertex pour que vous puissiez l'interroger et ainsi obtenir des prédictions en ligne.

Tâche 1 : Ouvrir le notebook dans Vertex AI Workbench

  1. Dans la console Google Cloud, accédez au menu de navigation et cliquez sur Vertex AI > Workbench.

  2. Recherchez l'instance , puis cliquez sur le bouton Ouvrir JupyterLab.

L'interface JupyterLab de votre instance Workbench s'ouvre dans un nouvel onglet de navigateur.

Tâche 2 : Configurer le notebook

  1. Dans votre notebook, cliquez sur le terminal.

  2. Installez les packages requis pour l'atelier :

pip3 install -U -r requirements.txt --user
  1. Dans l'explorateur de fichiers à gauche, cliquez sur le fichier .

  2. Lorsque vous êtes invité à choisir un kernel, sélectionnez le kernel Python 3 (ipykernel).

  3. Parcourez la section Setup (Configuration) du notebook pour installer les bibliothèques requises et configurer votre environnement.

    • Pour Project ID (ID du projet), utilisez et pour Region (Région), utilisez .

Nous vous avons fourni le reste du code pour importer et prétraiter l'ensemble de données. Les étapes restantes figurent dans le fichier notebook. Reportez-vous à ce guide pour vérifier votre progression et obtenir quelques astuces.

Tâche 3 : Créer et entraîner un modèle en local dans un notebook Vertex

Dans cette section, vous allez entraîner votre modèle en local à l'aide de TensorFlow.

Remarque : Cet atelier est une adaptation et un complément au tutoriel officiel sur la classification de texte à l'aide de TensorFlow BERT. Il permet d'utiliser les services Vertex AI. Consultez ce tutoriel pour apprendre à affiner des modèles BERT avec TensorFlow.

Créer et compiler un classificateur de sentiments TensorFlow BERT

  1. Remplissez la section #TODO pour ajouter une couche hub.KerasLayer vous permettant de prétraiter le texte avec BERT.

  2. Remplissez la section #TODO pour ajouter une couche hub.KerasLayer vous permettant d'encoder le texte avec BERT.

  3. Remplissez la section #TODO pour enregistrer votre classificateur de sentiments BERT en local, de préférence dans le répertoire ./bert-sentiment-classifier-local.

Cliquez sur Vérifier ma progression pour valider l'objectif.

Créer et entraîner le modèle

Tâche 4 : Créer un conteneur pour votre modèle et le transférer vers Artifact Registry avec Cloud Build

Créer un dépôt Artifact Registry pour les images de conteneurs personnalisés

  1. Remplissez la section #TODO pour créer un dépôt Docker Artifact Registry à l'aide de la gcloud CLI. Pour en savoir plus, consultez la documentation gcloud artifacts repositories create.
Remarque : Assurez-vous de spécifier les options location, repository-format et description.

Créer votre image de conteneur et la transférer vers Artifact Registry avec Cloud Build

  1. Remplissez la section #TODO pour créer votre conteneur de modèle personnalisé et le transférer vers Artifact Registry à l'aide de Cloud Build. Pour en savoir plus, consultez la documentation gcloud builds submit.
Remarque : Assurez-vous que l'option "config" renvoie vers le fichier {MODEL_DIR}/cloudbuild.yaml (défini ci-dessus) et que vous avez inclus le répertoire de votre modèle.

Cliquez sur Vérifier ma progression pour valider l'objectif.

Créer votre image de conteneur et la transférer vers Artifact Registry

Tâche 5 : Définir un pipeline à l'aide du SDK KFP

  1. Remplissez la section #TODO pour ajouter et configurer des composants CustomContainerTrainingJobOp pour votre pipeline.
Remarque : Les arguments seront identiques à ceux du composant CustomContainerTrainingJob défini plus tôt. Remarque : L'entraînement et le déploiement du modèle peuvent prendre entre 30 et 40 minutes.

Cliquez sur Vérifier ma progression pour valider l'objectif.

Définir un pipeline à l'aide du SDK KFP

Tâche 6 : Interroger le modèle déployé à l'aide de votre point de terminaison Vertex

  1. Remplissez la section #TODO pour générer des prédictions en ligne à l'aide de votre point de terminaison Vertex.

Félicitations !

Félicitations ! Dans cet atelier, vous avez découvert comment créer et déployer un classificateur de sentiments BERT personnalisé avec Vertex AI. Vous avez également appris à utiliser Cloud Build pour créer votre conteneur de modèle personnalisé et le transférer vers Artifact Registry, ainsi qu'à définir un pipeline à l'aide du SDK KFP. Vous pouvez maintenant créer et déployer vos propres modèles personnalisés avec Vertex AI.

Badge ML Vertex AI

Gagnez un badge de compétence

Cet atelier d'auto-formation fait partie du cours Build and Deploy Machine Learning Solutions on Vertex AI. Si vous terminez ce cours, vous obtiendrez le badge de compétence ci-dessus attestant de votre réussite. Ajoutez votre badge à votre CV et partagez-le sur les réseaux sociaux en utilisant le hashtag #GoogleCloudBadge.

Ce cours, qui ouvre droit à un badge de compétence, fait partie du parcours de formation Data Scientist/Machine Learning Engineer de Google. Si vous avez déjà complété les autres cours de ce parcours de formation, explorez le catalogue pour découvrir plus de vingt autres cours auxquels vous pouvez vous inscrire pour gagner un badge de compétence.

Formations et certifications Google Cloud

Les formations et certifications Google Cloud vous aident à tirer pleinement parti des technologies Google Cloud. Nos cours portent sur les compétences techniques et les bonnes pratiques à suivre pour être rapidement opérationnel et poursuivre votre apprentissage. Nous proposons des formations pour tous les niveaux, à la demande, en salle et à distance, pour nous adapter aux emplois du temps de chacun. Les certifications vous permettent de valider et de démontrer vos compétences et votre expérience en matière de technologies Google Cloud.

Dernière mise à jour du manuel : 8 août 2024

Dernier test de l'atelier : 8 août 2024

Copyright 2024 Google LLC Tous droits réservés. Google et le logo Google sont des marques de Google LLC. Tous les autres noms d'entreprises et de produits peuvent être des marques des entreprises auxquelles ils sont associés.

Ce contenu n'est pas disponible pour le moment

Nous vous préviendrons par e-mail lorsqu'il sera disponible

Parfait !

Nous vous contacterons par e-mail s'il devient disponible