
Before you begin
- Labs create a Google Cloud project and resources for a fixed time
- Labs have a time limit and no pause feature. If you end the lab, you'll have to restart from the beginning.
- On the top left of your screen, click Start lab to begin
Create an API Key
/ 30
Upload image to a bucket
/ 30
Analyzing the image's text with the Natural Language API
/ 40
Dans cet atelier, nous allons explorer la puissance du machine learning en utilisant plusieurs API basées sur cette technologie. Commençons par la méthode de détection de texte de l'API Cloud Vision, qui utilise la reconnaissance optique des caractères (OCR) pour extraire du texte à partir d'images. Nous verrons ensuite comment traduire ce texte avec l'API Translation et l'analyser avec l'API Natural Language.
Lisez ces instructions. Les ateliers sont minutés, et vous ne pouvez pas les mettre en pause. Le minuteur, qui démarre lorsque vous cliquez sur Démarrer l'atelier, indique combien de temps les ressources Google Cloud resteront accessibles.
Cet atelier pratique vous permet de suivre vous-même les activités dans un véritable environnement cloud, et non dans un environnement de simulation ou de démonstration. Nous vous fournissons des identifiants temporaires pour vous connecter à Google Cloud le temps de l'atelier.
Pour réaliser cet atelier :
Cliquez sur le bouton Démarrer l'atelier. Si l'atelier est payant, un pop-up s'affiche pour vous permettre de sélectionner un mode de paiement. Sur la gauche, vous trouverez le panneau Détails concernant l'atelier, qui contient les éléments suivants :
Cliquez sur Ouvrir la console Google Cloud (ou effectuez un clic droit et sélectionnez Ouvrir le lien dans la fenêtre de navigation privée si vous utilisez le navigateur Chrome).
L'atelier lance les ressources, puis ouvre la page Se connecter dans un nouvel onglet.
Conseil : Réorganisez les onglets dans des fenêtres distinctes, placées côte à côte.
Si nécessaire, copiez le nom d'utilisateur ci-dessous et collez-le dans la boîte de dialogue Se connecter.
Vous trouverez également le nom d'utilisateur dans le panneau Détails concernant l'atelier.
Cliquez sur Suivant.
Copiez le mot de passe ci-dessous et collez-le dans la boîte de dialogue Bienvenue.
Vous trouverez également le mot de passe dans le panneau Détails concernant l'atelier.
Cliquez sur Suivant.
Accédez aux pages suivantes :
Après quelques instants, la console Cloud s'ouvre dans cet onglet.
Cloud Shell est une machine virtuelle qui contient de nombreux outils pour les développeurs. Elle comprend un répertoire d'accueil persistant de 5 Go et s'exécute sur Google Cloud. Cloud Shell vous permet d'accéder via une ligne de commande à vos ressources Google Cloud.
Une fois connecté, vous êtes en principe authentifié et le projet est défini sur votre ID_PROJET. Le résultat contient une ligne qui déclare YOUR_PROJECT_ID (VOTRE_ID_PROJET) pour cette session :
gcloud
est l'outil de ligne de commande pour Google Cloud. Il est préinstallé sur Cloud Shell et permet la complétion par tabulation.
Cliquez sur Autoriser.
Vous devez à présent obtenir le résultat suivant :
Résultat :
Résultat :
Exemple de résultat :
gcloud
, dans Google Cloud, accédez au guide de présentation de la gcloud CLI.
Étant donné que vous allez utiliser curl
pour envoyer une requête à l'API Vision, vous devez générer une clé API à transmettre dans l'URL de la requête.
Cliquez sur + Créer des identifiants.
Dans le menu déroulant, sélectionnez Clé API :
Ensuite, copiez la clé que vous venez de générer, puis cliquez sur Fermer.
Enregistrez la clé API dans une variable d'environnement pour éviter d'avoir à insérer sa valeur dans chaque requête.
Exécutez la commande suivante dans Cloud Shell en remplaçant <your_api_key>
par la clé que vous venez de copier :
Cliquez sur Vérifier ma progression pour vérifier la tâche exécutée.
Vous disposez de deux méthodes pour envoyer une image à l'API Vision pour analyse : envoyer une chaîne d'image encodée en base64 ou transmettre l'URL d'un fichier stocké dans Cloud Storage. Dans cet atelier, vous allez créer un bucket Cloud Storage pour stocker vos images.
Dans la console, accédez au menu de navigation > Cloud Storage, et sélectionnez Créer un bucket.
Attribuez un nom unique au bucket :
Ensuite, cliquez sur Choisissez comment contrôler l'accès aux objets.
Décochez la case Appliquer la protection contre l'accès public sur ce bucket.
Sélectionnez Ultraprécis sous "Contrôle des accès", puis cliquez sur Créer.
Vous autoriserez ensuite la consultation publique du fichier tout en maintenant privé l'accès au bucket.
Sélectionnez Modifier l'accès.
Cliquez sur Ajouter une entrée et définissez les paramètres suivants :
Vous constatez à présent que l'accès au fichier est public.
Maintenant que le fichier est dans votre bucket, vous êtes prêt à envoyer une requête à l'API Vision en transmettant à cette dernière l'URL de l'image.
Cliquez sur Vérifier ma progression pour vérifier la tâche exécutée.
ocr-request.json
, puis ajoutez-y le code ci-dessous en remplaçant my-bucket-name par le nom du bucket que vous avez créé. Vous pouvez créer le fichier à l'aide de l'un de vos éditeurs de ligne de commande préférés (nano
, vim
, emacs
). Vous pouvez également cliquer sur l'icône en forme de crayon pour ouvrir l'éditeur de code dans Cloud Shell :ocr-request.json
:Vous allez utiliser la fonctionnalité TEXT_DETECTION de l'API Cloud Vision. Elle exécutera une reconnaissance optique des caractères (OCR) sur l'image pour en extraire le texte.
curl
:La première partie de la réponse doit se présenter sous la forme suivante :
La méthode OCR parvient à extraire beaucoup de texte de l'image.
La première donnée que vous récupérez de textAnnotations
est l'intégralité du bloc de texte que l'API a trouvé dans l'image. Ce bloc inclut les éléments suivants :
Ensuite, vous obtenez un objet pour chaque mot (encadré) trouvé dans le texte.
L'idée est à présent de traduire le texte extrait en anglais. L'étape suivante est donc la traduction.
curl
suivante pour enregistrer la réponse dans un fichier ocr-response.json
afin de pouvoir y faire référence ultérieurement :L'API Translation peut traduire dans plus de 100 langues. Elle peut également détecter la langue du texte d'entrée. Pour traduire le texte français en anglais, transmettez le texte ainsi que le code de la langue cible (en-US) à l'API Translation.
translation-request.json
, puis ajoutez-y les éléments suivants :q
est l'endroit où vous transmettrez la chaîne à traduire.
Enregistrez le fichier.
Exécutez cette commande Bash dans Cloud Shell pour extraire le texte de l'image de l'étape précédente et le copier dans un nouveau fichier translation-request.json
(commande tout-en-un) :
translation-response.json
:Le panneau est désormais traduit en anglais.
Dans la réponse :
translatedText
contient la traduction du texte ;detectedSourceLanguage
est fr
(code de langue ISO correspondant au français).L'API Translation accepte plus de 100 langues, dont la liste complète figure sur la page Langues acceptées.
Outre la traduction du texte de notre image, vous souhaiterez peut-être en approfondir l'analyse. C'est là que l'API Natural Language s'avère utile. Passons à l'étape suivante.
L'API Natural Language facilite la compréhension de texte en extrayant des entités, en analysant les sentiments et la syntaxe, et en classant le texte en catégories. Utilisez la méthode analyzeEntities
pour voir quelles entités l'API Natural Language peut trouver dans le texte de votre image.
nl-request.json
avec les éléments suivants :Dans la requête, vous donnez à l'API Natural Language des informations sur le texte que vous envoyez :
type : les valeurs de type acceptées sont PLAIN_TEXT
ou HTML
.
content : indiquez le texte à envoyer à l'API Natural Language pour analyse. L'API Natural Language permet également l'envoi de fichiers stockés dans Cloud Storage pour le traitement de texte. Pour envoyer un fichier à partir de Cloud Storage, remplacez content
par gcsContentUri
et utilisez la valeur de l'URI du fichier texte dans Cloud Storage.
encodingType : indique à l'API le type d'encodage de texte à utiliser lors du traitement du texte. L'API l'utilisera pour calculer l'emplacement, dans le texte, des entités spécifiques.
Le fichier nl-request.json
contient maintenant le texte anglais, soit la traduction du texte de l'image d'origine. Il est temps de l'analyser.
analyzeEntities
de l'API Natural Language avec cette requête curl
:En faisant défiler la réponse, vous pouvez voir les entités que l'API Natural Language a trouvées :
Pour les entités ayant une page Wikipédia, l'API fournit des métadonnées, y compris l'URL de cette page, ainsi que le MID
de l'entité concernée. Le mid
est un ID qui renvoie vers cette entité dans le Knowledge Graph de Google. Pour plus d'informations, vous pouvez appeler l'API Knowledge Graph, et lui envoyer cet ID. Pour toutes les entités, l'API Natural Language indique là où l'entité apparaît dans le texte (mentions
), le type
de l'entité, ainsi que sa saillance (salience
: une plage de 0 à 1 indiquant l'importance de l'entité vis-à-vis de l'ensemble du texte). Outre l'anglais, l'API Natural Language accepte les langues indiquées sur la page Langues acceptées.
En observant cette image, il est relativement facile d'identifier les entités importantes. Toutefois, si votre bibliothèque comportait des milliers d'images, la tâche serait beaucoup plus complexe. La reconnaissance optique des caractères, la traduction et le traitement du langage naturel peuvent faciliter l'extraction du sens de grands ensembles d'images.
Cliquez sur Vérifier ma progression pour vérifier la tâche exécutée.
Vous avez appris à utiliser tour à tour trois API de machine learning différentes : la méthode de reconnaissance optique des caractères de l'API Vision a extrait le texte d'une image, puis l'API Translation a traduit ce texte en anglais et l'API Natural Language a trouvé les entités de ce texte.
Cet atelier d'auto-formation fait partie des quêtes Integrate with Machine Learning APIs et Intro to ML: Image Processing. Une quête est une série d'ateliers associés qui constituent un parcours de formation. Si vous terminez une quête, vous obtenez un badge attestant de votre réussite. Vous pouvez rendre publics les badges que vous recevez et ajouter leur lien dans votre CV en ligne ou sur vos comptes de réseaux sociaux. Inscrivez-vous à n'importe quelle quête contenant cet atelier pour obtenir immédiatement les crédits associés. Découvrez toutes les quêtes disponibles dans le catalogue Google Cloud Skills Boost.
Suivez un autre atelier sur les API de machine learning :
Les formations et certifications Google Cloud vous aident à tirer pleinement parti des technologies Google Cloud. Nos cours portent sur les compétences techniques et les bonnes pratiques à suivre pour être rapidement opérationnel et poursuivre votre apprentissage. Nous proposons des formations pour tous les niveaux, à la demande, en salle et à distance, pour nous adapter aux emplois du temps de chacun. Les certifications vous permettent de valider et de démontrer vos compétences et votre expérience en matière de technologies Google Cloud.
Dernière modification du manuel : 6 octobre 2023
Dernier test de l'atelier : 6 octobre 2023
Copyright 2025 Google LLC Tous droits réservés. Google et le logo Google sont des marques de Google LLC. Tous les autres noms d'entreprises et de produits peuvent être des marques des entreprises auxquelles ils sont associés.
Ce contenu n'est pas disponible pour le moment
Nous vous préviendrons par e-mail lorsqu'il sera disponible
Parfait !
Nous vous contacterons par e-mail s'il devient disponible
One lab at a time
Confirm to end all existing labs and start this one