Thu Ya Kyaw
Date d'abonnement : 2022
Date d'abonnement : 2022
Dans ce cours, vous découvrirez comment Gemini, un outil de collaboration Google Cloud optimisé par l'IA générative, vous aide à utiliser les produits et services Google pour développer, tester et gérer des applications. Avec l'assistance de Gemini, vous apprendrez à développer une application Web, à corriger les erreurs de l'application, à créer des tests et à interroger des données. À l'aide d'un atelier pratique, vous verrez en quoi Gemini améliore le cycle de vie du développement logiciel (SDLC, software development lifecycle). Duet AI a été rebaptisé Gemini, notre modèle nouvelle génération.
Ce cours présente Vertex AI Studio, un outil permettant de prototyper et de personnaliser des modèles d'IA générative. Au moyen de cours immersifs, de démonstrations attrayantes et d'un atelier pratique, vous allez découvrir le workflow d'IA générative et apprendre à utiliser Vertex AI Studio pour les applications multimodales Gemini, la conception de requêtes et le réglage de modèles. L'objectif est de vous permettre d'exploiter tout le potentiel de ces modèles dans vos projets avec Vertex AI Studio.
Suivez les cours Introduction to Generative AI, Introduction to Large Language Models et Introduction to Responsible AI, et obtenez un badge de compétence. Votre réussite au quiz final démontrera que vous comprenez les concepts de base relatifs à l'IA générative. Un badge de compétence est un badge numérique délivré par Google Cloud. Il atteste de votre expertise sur les produits et services Google Cloud. Partagez votre badge de compétence en rendant votre profil public et en l'ajoutant à votre profil sur les réseaux sociaux.
Ce cours de micro-apprentissage, qui s'adresse aux débutants, explique ce qu'est l'IA responsable, souligne son importance et décrit comment Google l'implémente dans ses produits. Il présente également les sept principes de l'IA de Google.
The Generative AI Explorer - Vertex Quest is a collection of labs on how to use Generative AI on Google Cloud. Through the labs, you will learn about how to use the models in the Vertex AI PaLM API family, including text-bison, chat-bison, and textembedding-gecko. You will also learn about prompt design, best practices, and how it can be used for ideation, text classification, text extraction, text summarization, and more. You will also learn how to tune a foundation model by training it via Vertex AI custom training and deploy it to a Vertex AI endpoint.
Ce cours offre un aperçu de l'architecture encodeur/décodeur, une architecture de machine learning performante souvent utilisée pour les tâches "seq2seq", telles que la traduction automatique, la synthèse de texte et les questions-réponses. Vous découvrirez quels sont les principaux composants de l'architecture encodeur/décodeur, et comment entraîner et exécuter ces modèles. Dans le tutoriel d'atelier correspondant, vous utiliserez TensorFlow pour coder une implémentation simple de cette architecture afin de générer un poème en partant de zéro.
Dans ce cours, vous allez apprendre à créer un modèle de sous-titrage d'images à l'aide du deep learning. Vous découvrirez les différents composants de ce type de modèle, comme l'encodeur et le décodeur, et comment l'entraîner et l'évaluer. À la fin du cours, vous serez en mesure de créer vos propres modèles de sous-titrage d'images et de les utiliser pour générer des sous-titres pour des images.
Ce cours présente les modèles de diffusion, une famille de modèles de machine learning qui s'est récemment révélée prometteuse dans le domaine de la génération d'images. Les modèles de diffusion trouvent leur origine dans la physique, et plus précisément dans la thermodynamique. Au cours des dernières années, ils ont gagné en popularité dans la recherche et l'industrie. Ils sont à la base de nombreux modèles et outils Google Cloud avancés de génération d'images. Ce cours vous présente les bases théoriques des modèles de diffusion, et vous explique comment les entraîner et les déployer sur Vertex AI.
Ce cours présente l'architecture Transformer et le modèle BERT (Bidirectional Encoder Representations from Transformers). Vous découvrirez quels sont les principaux composants de l'architecture Transformer, tels que le mécanisme d'auto-attention, et comment ils sont utilisés pour créer un modèle BERT. Vous verrez également les différentes tâches pour lesquelles le modèle BERT peut être utilisé, comme la classification de texte, les questions-réponses et l'inférence en langage naturel. Ce cours dure environ 45 minutes.
Ce cours présente le mécanisme d'attention, une technique efficace permettant aux réseaux de neurones de se concentrer sur des parties spécifiques d'une séquence d'entrée. Vous découvrirez comment fonctionne l'attention et comment l'utiliser pour améliorer les performances de diverses tâches de machine learning, dont la traduction automatique, la synthèse de texte et les réponses aux questions.
Ce cours de micro-apprentissage, qui s'adresse aux débutants, explique ce que sont les grands modèles de langage (LLM). Il inclut des cas d'utilisation et décrit comment améliorer les performances des LLM grâce au réglage des requêtes. Il présente aussi les outils Google qui vous aideront à développer votre propre application d'IA générative.
Ce cours de micro-apprentissage, qui s'adresse aux débutants, explique ce qu'est l'IA générative, décrit à quoi elle sert et souligne ce qui la distingue des méthodes de machine learning traditionnel. Il présente aussi les outils Google qui vous aideront à développer votre propre application d'IA générative.