
Before you begin
- Labs create a Google Cloud project and resources for a fixed time
- Labs have a time limit and no pause feature. If you end the lab, you'll have to restart from the beginning.
- On the top left of your screen, click Start lab to begin
Install packages and import libraries
/ 10
Be concise
/ 10
Be specific, and well-defined
/ 10
Ask one task at a time
/ 10
Watch out for hallucinations
/ 10
Using system instructions to guardrail the model from irrelevant responses
/ 10
Generative tasks lead to higher output variability
/ 10
Classification tasks reduces output variability
/ 10
Improve response quality by including examples
/ 20
Cet atelier présente le prompt engineering (ingénierie des requêtes) et les bonnes pratiques pour concevoir des requêtes efficaces afin d'améliorer la qualité des réponses générées par les LLM. Vous allez apprendre à créer des requêtes concises, spécifiques et bien définies, qui se concentrent sur une tâche à la fois. L'atelier aborde également des techniques avancées, comme la conversion de tâches génératives en tâches de classification et l'utilisation d'exemples pour améliorer la qualité des réponses. Pour en savoir plus, consultez la documentation officielle sur la conception de requêtes.
Gemini est une famille de modèles d'IA générative puissants développés par Google DeepMind, capables de comprendre et de générer plusieurs formes de contenu, comme du texte, du code, des images, du son et des vidéos.
L'API Gemini dans Vertex AI fournit une interface unifiée pour interagir avec les modèles Gemini. Elle permet aux développeurs d'intégrer facilement ces puissantes fonctionnalités d'IA dans leurs applications. Pour connaître les dernières actualités et les fonctionnalités spécifiques des versions les plus récentes, veuillez consulter la documentation officielle sur Gemini.
Avant de commencer cet atelier, vous devez :
Dans cet atelier, vous allez apprendre à effectuer les tâches suivantes :
Lisez ces instructions. Les ateliers sont minutés, et vous ne pouvez pas les mettre en pause. Le minuteur, qui démarre lorsque vous cliquez sur Démarrer l'atelier, indique combien de temps les ressources Google Cloud resteront accessibles.
Cet atelier pratique vous permet de suivre les activités dans un véritable environnement cloud, et non dans un environnement de simulation ou de démonstration. Des identifiants temporaires vous sont fournis pour vous permettre de vous connecter à Google Cloud le temps de l'atelier.
Pour réaliser cet atelier :
Cliquez sur le bouton Démarrer l'atelier. Si l'atelier est payant, une boîte de dialogue s'affiche pour vous permettre de sélectionner un mode de paiement. Sur la gauche, vous trouverez le panneau "Détails concernant l'atelier", qui contient les éléments suivants :
Cliquez sur Ouvrir la console Google Cloud (ou effectuez un clic droit et sélectionnez Ouvrir le lien dans la fenêtre de navigation privée si vous utilisez le navigateur Chrome).
L'atelier lance les ressources, puis ouvre la page "Se connecter" dans un nouvel onglet.
Conseil : Réorganisez les onglets dans des fenêtres distinctes, placées côte à côte.
Si nécessaire, copiez le nom d'utilisateur ci-dessous et collez-le dans la boîte de dialogue Se connecter.
Vous trouverez également le nom d'utilisateur dans le panneau "Détails concernant l'atelier".
Cliquez sur Suivant.
Copiez le mot de passe ci-dessous et collez-le dans la boîte de dialogue Bienvenue.
Vous trouverez également le mot de passe dans le panneau "Détails concernant l'atelier".
Cliquez sur Suivant.
Accédez aux pages suivantes :
Après quelques instants, la console Cloud s'ouvre dans cet onglet.
Dans la console Google Cloud, accédez au menu de navigation () et cliquez sur Vertex AI > Workbench.
Recherchez l'instance
L'interface JupyterLab de votre instance Workbench s'ouvre dans un nouvel onglet de navigateur.
Ouvrez le fichier
Dans la boîte de dialogue Select Kernel (Sélectionner le kernel), sélectionnez Python 3 dans la liste des kernels disponibles.
Parcourez les sections Getting Started (Premiers pas) et Import libraries (Importer des bibliothèques) du notebook.
Cliquez sur Vérifier ma progression pour valider l'objectif.
Le prompt engineering (ou ingénierie des requêtes) consiste à concevoir vos requêtes de sorte à obtenir la réponse que vous espériez. En "simplifiant" votre requête, vous réduisez le bruit et donc la possibilité que le LLM interprète mal son intention. Vous trouverez ci-dessous quelques conseils pour créer des requêtes "simples".
Dans cette section, vous découvrirez les bonnes pratiques de prompt engineering suivantes :
Cliquez sur Vérifier ma progression pour valider l'objectif.
Cliquez sur Vérifier ma progression pour valider l'objectif.
Cliquez sur Vérifier ma progression pour valider l'objectif.
Cliquez sur Vérifier ma progression pour valider l'objectif.
Comment réduire le risque d'obtenir des réponses hors sujet et des hallucinations ? Vous pouvez par exemple fournir des instructions système au LLM. Dans cette section, vous allez découvrir comment fonctionnent les instructions système et comment les utiliser pour réduire les hallucinations ou les réponses hors sujet pour un chatbot de voyage.
Cliquez sur Vérifier ma progression pour valider l'objectif.
Cliquez sur Vérifier ma progression pour valider l'objectif.
Cliquez sur Vérifier ma progression pour valider l'objectif.
Vous pouvez également améliorer la qualité des réponses en ajoutant des exemples à votre requête. Le LLM apprend en contexte à partir des exemples de réponses. En général, un à cinq exemples (appelés "shots") suffisent pour améliorer la qualité des réponses. Si vous incluez trop d'exemples, le modèle peut surajuster les données et réduire la qualité des réponses.
Comme pour l'entraînement classique de modèle, la qualité et la distribution des exemples sont très importantes. Choisissez des exemples représentatifs des scénarios que vous souhaitez que le modèle apprenne, et veillez à ce que la distribution des exemples (par exemple, le nombre d'exemples par classe dans le cas de la classification) corresponde à votre distribution réelle.
Cliquez sur Vérifier ma progression pour valider l'objectif.
Félicitations ! Dans cet atelier, vous avez découvert les bonnes pratiques pour le prompt engineering à l'aide de l'IA générative avec Google Gemini. Vous avez exploré des cas d'utilisation qui suivent les bonnes pratiques, à savoir être concis, utiliser une requête spécifique et bien définie, fournir des exemples et demander une tâche à la fois lors de l'utilisation de LLM pour générer des réponses.
Consultez les ressources suivantes pour en savoir plus sur Gemini :
Les formations et certifications Google Cloud vous aident à tirer pleinement parti des technologies Google Cloud. Nos cours portent sur les compétences techniques et les bonnes pratiques à suivre pour être rapidement opérationnel et poursuivre votre apprentissage. Nous proposons des formations pour tous les niveaux, à la demande, en salle et à distance, pour nous adapter aux emplois du temps de chacun. Les certifications vous permettent de valider et de démontrer vos compétences et votre expérience en matière de technologies Google Cloud.
Dernière mise à jour du manuel : 12 février 2025
Dernier test de l'atelier : 12 février 2025
Copyright 2025 Google LLC Tous droits réservés. Google et le logo Google sont des marques de Google LLC. Tous les autres noms d'entreprises et de produits peuvent être des marques des entreprises auxquelles ils sont associés.
Ce contenu n'est pas disponible pour le moment
Nous vous préviendrons par e-mail lorsqu'il sera disponible
Parfait !
Nous vous contacterons par e-mail s'il devient disponible
One lab at a time
Confirm to end all existing labs and start this one