Chargement...
Aucun résultat.

    Testez vos connaissances et partagez-les avec notre communauté
    done
    Accédez à plus de 700 ateliers pratiques, badges de compétence et cours

    Créer une application sans serveur qui permet de produire des fichiers PDF à l'aide de Cloud Run

    Atelier 1 heure universal_currency_alt 5 crédits show_chart Intermédiaire
    info Cet atelier peut intégrer des outils d'IA pour vous accompagner dans votre apprentissage.
    Testez vos connaissances et partagez-les avec notre communauté
    done
    Accédez à plus de 700 ateliers pratiques, badges de compétence et cours

    GSP644

    Google Cloud – Ateliers adaptés au rythme de chacun

    Logo Pet Theory

    Présentation

    Il y a 12 ans, Lily a créé une chaîne de cliniques vétérinaires appelée Pet Theory. Actuellement, Pet Theory envoie des factures au format DOCX à ses clients, mais de nombreux clients se sont plaints de ne pas pouvoir les ouvrir. Afin d'améliorer la satisfaction client, Lily a demandé à Patrick, du service informatique, d'étudier une alternative pour améliorer la situation actuelle.

    L'équipe de développement de Pet Theory étant composée d'une seule personne, elle est désireuse d'investir dans une solution rentable qui ne nécessite pas beaucoup de maintenance. Après avoir analysé les différentes options de traitement, Patrick décide d'utiliser Cloud Run.

    Cloud Run est sans serveur, ce qui permet d'éliminer toute la gestion de l'infrastructure et de se concentrer sur la création de l'application sans se soucier des coûts. En tant que produit Google sans serveur, il peut faire l'objet d'un scaling à zéro instance, ce qui signifie qu'il n'entraîne aucuns frais lorsqu'il n'est pas utilisé. Il vous permet également d'utiliser des packages binaires personnalisés basés sur des conteneurs, ce qui signifie qu'il est désormais possible de créer des artefacts isolés et cohérents.

    Dans cet atelier, vous allez créer une application Web de conversion en PDF sur Cloud Run, qui convertit automatiquement les fichiers stockés dans Cloud Storage en PDF stockés dans des dossiers séparés.

    Architecture

    Ce schéma présente les services que vous allez utiliser et la manière dont ils se connectent les uns aux autres :

    Schéma de l'architecture

    Objectifs

    Dans cet atelier, vous allez apprendre à :

    • Convertir une application Node.js vers un conteneur
    • Créer des conteneurs avec Google Cloud Build
    • Créer un service Cloud Run qui convertit des fichiers en PDF dans le cloud
    • Utiliser le traitement des événements avec Cloud Storage

    Prérequis

    Il s'agit d'un atelier de niveau intermédiaire recommandé aux personnes qui maîtrisent déjà la console et les environnements de shell. Connaître Firebase est utile, mais n'est pas obligatoire. Avant de commencer cet atelier, il est recommandé d'avoir suivi les ateliers Google Cloud Skills Boost suivants :

    Lorsque vous êtes prêt, faites défiler la page vers le bas et suivez les indications pour passer à la configuration de l'environnement de votre atelier.

    Préparation

    Avant de cliquer sur le bouton "Démarrer l'atelier"

    Lisez ces instructions. Les ateliers sont minutés, et vous ne pouvez pas les mettre en pause. Le minuteur, qui démarre lorsque vous cliquez sur Démarrer l'atelier, indique combien de temps les ressources Google Cloud resteront accessibles.

    Cet atelier pratique vous permet de suivre vous-même les activités dans un véritable environnement cloud, et non dans un environnement de simulation ou de démonstration. Nous vous fournissons des identifiants temporaires pour vous connecter à Google Cloud le temps de l'atelier.

    Pour réaliser cet atelier :

    • vous devez avoir accès à un navigateur Internet standard (nous vous recommandons d'utiliser Chrome) ;
    Remarque : Ouvrez une fenêtre de navigateur en mode incognito/navigation privée pour effectuer cet atelier. Vous éviterez ainsi les conflits entre votre compte personnel et le temporaire étudiant, qui pourraient entraîner des frais supplémentaires facturés sur votre compte personnel.
    • vous disposez d'un temps limité ; une fois l'atelier commencé, vous ne pouvez pas le mettre en pause.
    Remarque : Si vous possédez déjà votre propre compte ou projet Google Cloud, veillez à ne pas l'utiliser pour réaliser cet atelier afin d'éviter que des frais supplémentaires ne vous soient facturés.

    Démarrer l'atelier et se connecter à la console Google Cloud

    1. Cliquez sur le bouton Démarrer l'atelier. Si l'atelier est payant, un pop-up s'affiche pour vous permettre de sélectionner un mode de paiement. Sur la gauche, vous trouverez le panneau Détails concernant l'atelier, qui contient les éléments suivants :

      • Le bouton Ouvrir la console Google Cloud
      • Le temps restant
      • Les identifiants temporaires que vous devez utiliser pour cet atelier
      • Des informations complémentaires vous permettant d'effectuer l'atelier
    2. Cliquez sur Ouvrir la console Google Cloud (ou effectuez un clic droit et sélectionnez Ouvrir le lien dans la fenêtre de navigation privée si vous utilisez le navigateur Chrome).

      L'atelier lance les ressources, puis ouvre la page Se connecter dans un nouvel onglet.

      Conseil : Réorganisez les onglets dans des fenêtres distinctes, placées côte à côte.

      Remarque : Si la boîte de dialogue Sélectionner un compte s'affiche, cliquez sur Utiliser un autre compte.
    3. Si nécessaire, copiez le nom d'utilisateur ci-dessous et collez-le dans la boîte de dialogue Se connecter.

      {{{user_0.username | "Username"}}}

      Vous trouverez également le nom d'utilisateur dans le panneau Détails concernant l'atelier.

    4. Cliquez sur Suivant.

    5. Copiez le mot de passe ci-dessous et collez-le dans la boîte de dialogue Bienvenue.

      {{{user_0.password | "Password"}}}

      Vous trouverez également le mot de passe dans le panneau Détails concernant l'atelier.

    6. Cliquez sur Suivant.

      Important : Vous devez utiliser les identifiants fournis pour l'atelier. Ne saisissez pas ceux de votre compte Google Cloud. Remarque : Si vous utilisez votre propre compte Google Cloud pour cet atelier, des frais supplémentaires peuvent vous être facturés.
    7. Accédez aux pages suivantes :

      • Acceptez les conditions d'utilisation.
      • N'ajoutez pas d'options de récupération ni d'authentification à deux facteurs (ce compte est temporaire).
      • Ne vous inscrivez pas à des essais gratuits.

    Après quelques instants, la console Cloud s'ouvre dans cet onglet.

    Remarque : Pour afficher un menu contenant la liste des produits et services Google Cloud, cliquez sur le menu de navigation en haut à gauche. Icône du menu de navigation

    Activer Cloud Shell

    Cloud Shell est une machine virtuelle qui contient de nombreux outils pour les développeurs. Elle comprend un répertoire d'accueil persistant de 5 Go et s'exécute sur Google Cloud. Cloud Shell vous permet d'accéder via une ligne de commande à vos ressources Google Cloud.

    1. Cliquez sur Activer Cloud Shell Icône Activer Cloud Shell en haut de la console Google Cloud.

    Une fois connecté, vous êtes en principe authentifié et le projet est défini sur votre ID_PROJET. Le résultat contient une ligne qui déclare YOUR_PROJECT_ID (VOTRE_ID_PROJET) pour cette session :

    Your Cloud Platform project in this session is set to YOUR_PROJECT_ID

    gcloud est l'outil de ligne de commande pour Google Cloud. Il est préinstallé sur Cloud Shell et permet la complétion par tabulation.

    1. (Facultatif) Vous pouvez lister les noms des comptes actifs à l'aide de cette commande :
    gcloud auth list
    1. Cliquez sur Autoriser.

    2. Vous devez à présent obtenir le résultat suivant :

    Résultat :

    ACTIVE: * ACCOUNT: student-01-xxxxxxxxxxxx@qwiklabs.net To set the active account, run: $ gcloud config set account `ACCOUNT`
    1. (Facultatif) Vous pouvez lister les ID de projet à l'aide de cette commande :
    gcloud config list project

    Résultat :

    [core] project = <ID_Projet>

    Exemple de résultat :

    [core] project = qwiklabs-gcp-44776a13dea667a6 Remarque : Pour consulter la documentation complète sur gcloud, dans Google Cloud, accédez au guide de présentation de la gcloud CLI.

    Tâche 1 : Comprendre la tâche

    Pet Theory voudrait convertir ses factures en PDF pour avoir l'assurance que les clients puissent les ouvrir. L'équipe veut réaliser cette conversion automatiquement pour minimiser la charge de travail de Lisa, la responsable des services administratifs.

    Ruby, la consultante en informatique de Pet Theory, reçoit un message de Patrick, du service informatique...

    Patrick

    Patrick, Administrateur informatique

    Bonjour Ruby,

    J'ai fait quelques recherches et j'ai trouvé que LibreOffice est efficace pour convertir de nombreux formats de fichiers différents en PDF.

    Serait-il possible de faire fonctionner LibreOffice dans le cloud sans avoir à entretenir les serveurs ?

    Patrick

    RubyRuby, Consultante en logiciels

    Bonjour Patrick,

    Je pense que j'ai ce qu'il faut pour ce genre de situation.

    Je viens de regarder sur YouTube une vidéo très intéressante de Next 2019 sur Cloud Run. Il semble que nous puissions faire fonctionner LibreOffice dans un environnement sans serveur avec Cloud Run. Aucune maintenance du serveur n'est nécessaire !

    Je vais vous envoyer des ressources qui vous aideront à le mettre en place.

    Ruby

    Aidez Patrick à mettre en place et à déployer Cloud Run.

    Tâche 2 : Activer l'API Cloud Run

    1. Ouvrez le menu de navigation (Icône du menu de navigation), puis cliquez sur API et services > Bibliothèque. Dans la barre de recherche, saisissez "Cloud Run" et sélectionnez l'API Cloud Run Admin dans la liste des résultats.

    2. Cliquez sur Activer, puis appuyez deux fois sur le bouton "Retour" de votre navigateur. La page doit se présenter comme suit :

    Résultat de l&#39;API Cloud Run

    Tâche 3 : Déployer un service Cloud Run simple

    Ruby a développé un prototype de Cloud Run et aimerait que Patrick le déploie sur Google Cloud. Aidez maintenant Patrick à mettre en place le service PDF Cloud Run pour Pet Theory.

    1. Ouvrez une nouvelle session Cloud Shell et exécutez la commande suivante pour cloner le dépôt de Pet Theory :

      git clone https://github.com/rosera/pet-theory.git
    2. Changez ensuite votre répertoire de travail actuel en lab03 :

      cd pet-theory/lab03
    3. Modifiez package.json avec l'éditeur de code Cloud Shell ou votre éditeur de texte préféré. Dans la section "scripts", ajoutez "start": "node index.js",, comme indiqué ci-dessous :

      ... "scripts": { "start": "node index.js", "test": "echo \"Error: no test specified\" && exit 1" }, ...
    4. Exécutez maintenant les commandes suivantes dans Cloud Shell pour installer les packages que votre script de conversion utilisera :

      npm install express npm install body-parser npm install child_process npm install @google-cloud/storage
    5. Ouvrez maintenant le fichier lab03/index.js et vérifiez le code.

      L'application sera déployée comme un service Cloud Run qui accepte les POST HTTP. Si la requête POST est une notification Pub/Sub concernant un fichier importé, le service écrit les détails du fichier dans le journal. Sinon, le service renvoie simplement la chaîne "OK".

    6. Examinez le fichier nommé lab03/Dockerfile.

      Le fichier ci-dessus est ce qu'on appelle un fichier manifeste. Il fournit à la commande Docker une recette permettant de construire une image. Chaque ligne commence par une commande qui indique à Docker comment traiter les informations suivantes :

      • La première ligne indique que l'image de base doit utiliser le nœud comme modèle pour l'image à créer.
      • La dernière ligne indique la commande à exécuter, qui dans ce cas fait référence à "npm start".
    7. Pour construire et déployer l'API REST, utilisez Google Cloud Build. Exécutez cette commande pour lancer le processus de compilation :

      gcloud builds submit \ --tag gcr.io/$GOOGLE_CLOUD_PROJECT/pdf-converter

      La commande construit un conteneur avec votre code et le place dans l'Artifact Registry de votre projet.

    8. Revenez à la console Cloud, ouvrez le menu de navigation et sélectionnez Artifact Registry > Images. Vous devriez voir votre conteneur hébergé :

      Artifact Registry affichant le convertisseur PDF

    Tester la tâche terminée

    Cliquez sur Vérifier ma progression pour vérifier que vous avez correctement effectué la tâche ci-dessus.

    Créer une API REST simple
    1. Retournez à votre onglet d'éditeur de code et dans Cloud Shell, exécutez la commande suivante pour déployer votre application :

      gcloud run deploy pdf-converter \ --image gcr.io/$GOOGLE_CLOUD_PROJECT/pdf-converter \ --platform managed \ --region {{{ project_0.default_region | Region }}} \ --no-allow-unauthenticated \ --max-instances=1
    2. Une fois le déploiement terminé, un message de ce type s'affiche :

      Service [pdf-converter] revision [pdf-converter-00001] has been deployed and is serving 100 percent of traffic at https://pdf-converter-[hash].a.run.app
    3. Créez la variable d'environnement $SERVICE_URL pour l'application afin de pouvoir y accéder facilement :

      SERVICE_URL=$(gcloud beta run services describe pdf-converter --platform managed --region {{{ project_0.default_region | Lab Region }}} --format="value(status.url)") echo $SERVICE_URL

    Tester la tâche terminée

    Cliquez sur Vérifier ma progression pour vérifier que vous avez correctement effectué la tâche ci-dessus.

    Créer une révision pour Cloud Run
    1. Effectuez une requête POST anonyme à votre nouveau service :

      curl -X POST $SERVICE_URL Remarque :
      Cela entraînera un message d'erreur indiquant "Your client does not have permission to get the URL" ("Votre client n'a pas la permission d'obtenir l'URL"). En effet, vous ne voulez pas que le service puisse être appelé par des utilisateurs anonymes.
    2. Essayez maintenant d'appeler le service en tant qu'utilisateur autorisé :

      curl -X POST -H "Authorization: Bearer $(gcloud auth print-identity-token)" $SERVICE_URL

      Si vous obtenez la réponse "OK", vous avez correctement déployé un service Cloud Run. Félicitations !

    Tâche 4 : Déclencher votre service Cloud Run lorsqu'un nouveau fichier est importé

    Maintenant que le service Cloud Run a été correctement déployé, Ruby aimerait que Patrick crée une zone de préproduction pour les données à convertir. Le bucket Cloud Storage va utiliser un déclencheur d'événement pour notifier l'application lorsqu'un fichier a été importé et doit être traité.

    1. Exécutez la commande suivante afin de créer un bucket dans Cloud Storage pour les documents importés :

      gsutil mb gs://$GOOGLE_CLOUD_PROJECT-upload
    2. Et un autre bucket pour les PDF traités :

      gsutil mb gs://$GOOGLE_CLOUD_PROJECT-processed
    3. Revenez maintenant à l'onglet de la console Cloud, ouvrez le menu de navigation et sélectionnez Cloud Storage. Vérifiez que les buckets ont été créés (il y aura également d'autres buckets utilisés par la plate-forme).

    Tester la tâche terminée

    Cliquez sur Vérifier ma progression pour vérifier que vous avez correctement effectué la tâche ci-dessus.

    Créer deux buckets Cloud Storage
    1. Dans Cloud Shell, exécutez la commande suivante pour indiquer à Cloud Storage d'envoyer une notification Pub/Sub chaque fois qu'un nouveau fichier a fini d'être importé dans le bucket docs :

      gsutil notification create -t new-doc -f json -e OBJECT_FINALIZE gs://$GOOGLE_CLOUD_PROJECT-upload

      Les notifications seront étiquetées avec le sujet "new-doc".

    Tester la tâche terminée

    Cliquez sur Vérifier ma progression pour vérifier que vous avez correctement effectué la tâche ci-dessus.

    Créer un sujet Pub/Sub pour gérer les notifications provenant du bucket de stockage
    1. Créez ensuite un compte de service que Pub/Sub utilisera pour déclencher les services Cloud Run :

      gcloud iam service-accounts create pubsub-cloud-run-invoker --display-name "PubSub Cloud Run Invoker"
    2. Donnez au nouveau compte de service l'autorisation d'appeler le service de convertisseur PDF :

      gcloud beta run services add-iam-policy-binding pdf-converter \ --member=serviceAccount:pubsub-cloud-run-invoker@$GOOGLE_CLOUD_PROJECT.iam.gserviceaccount.com \ --role=roles/run.invoker \ --platform managed \ --region {{{ project_0.default_region | Lab Region }}}
    3. Recherchez votre numéro de projet en exécutant cette commande :

      gcloud projects list --filter="PROJECT_ID={{{ project_0.project_id | PROJECT_ID }}}"

      Vous utiliserez la valeur du numéro de projet dans la prochaine commande.

      PROJECT_ID: {{{ project_0.project_id | PROJECT_ID }}} NAME: {{{ project_0.project_id | PROJECT_ID }}} PROJECT_NUMBER: 103480415252
    4. Créez une variable d'environnement PROJECT_NUMBER.

      PROJECT_NUMBER=$(gcloud projects list --filter="PROJECT_ID={{{ project_0.project_id | PROJECT_ID }}}" --format=json | jq -r .[0].projectNumber)
    5. Enfin, créez un abonnement Pub/Sub pour que le convertisseur PDF puisse fonctionner à chaque fois qu'un message est publié sur le thème "new-doc".

      gcloud beta pubsub subscriptions create pdf-conv-sub \ --topic new-doc \ --push-endpoint=$SERVICE_URL \ --push-auth-service-account=pubsub-cloud-run-invoker@$GOOGLE_CLOUD_PROJECT.iam.gserviceaccount.com

    Tester la tâche terminée

    Cliquez sur Vérifier ma progression pour vérifier que vous avez correctement effectué la tâche ci-dessus.

    Créer un abonnement Pub/Sub

    Tâche 5 : Vérifier si le service Cloud Run est déclenché lorsque les fichiers sont importés dans Cloud Storage

    Pour vérifier que l'application fonctionne comme prévu, Ruby demande à Patrick d'importer quelques données de test dans le bucket de stockage nommé, puis d'accéder à Cloud Logging.

    1. Copiez quelques fichiers de test dans votre bucket d'importation :

      gsutil -m cp gs://spls/gsp644/* gs://$GOOGLE_CLOUD_PROJECT-upload
    2. Une fois l'importation terminée, revenez à l'onglet de la console Cloud, ouvrez le menu de navigation et sélectionnez Logging dans la section "Opérations".

    3. Dans le menu déroulant Ressource, appliquez le filtre Révision dans Cloud Run, puis cliquez sur Appliquer. Cliquez ensuite sur Exécuter la requête.

    4. Dans les résultats de la requête, recherchez une entrée de journal qui commence par file:, puis cliquez dessus. Elle affiche un vidage des données du fichier que Pub/Sub envoie à votre service Cloud Run lorsqu'un nouveau fichier est importé.

    5. Pouvez-vous trouver le nom du fichier que vous avez importé dans cet objet ?

      Résultats de la requête

      Remarque :
      Si vous ne voyez aucune entrée de journal qui commence par "file", essayez de cliquer sur le bouton permettant de "charger des journaux plus récents" vers le bas de la page.
    6. Retournez ensuite à l'onglet de l'éditeur de code et exécutez la commande suivante dans Cloud Shell pour nettoyer votre répertoire upload en supprimant les fichiers qu'il contient :

      gsutil -m rm gs://$GOOGLE_CLOUD_PROJECT-upload/*

    Tâche 6 : Conteneurs

    Patrick doit convertir des factures en attente en PDF pour que tous les clients puissent les ouvrir. Il envoie un e-mail à Ruby pour obtenir de l'aide...

    Patrick

    Patrick, Administrateur informatique

    Bonjour Ruby

    Sur la base de vos conclusions, je pense que nous pouvons automatiser ce processus et passer à l'utilisation du format PDF comme format de facture.

    J'ai passé un peu de temps hier à coder une solution et j'ai construit un script Node.js pour faire ce dont nous avons besoin. Pourriez-vous y jeter un coup d'œil ?

    Patrick

    Patrick envoie à Ruby le fragment de code qu'il a écrit pour produire un PDF à partir d'un fichier :

    const {promisify} = require('util'); const exec = promisify(require('child_process').exec); const cmd = 'libreoffice --headless --convert-to pdf --outdir ' + `/tmp "/tmp/${fileName}"`; const { stdout, stderr } = await exec(cmd); if (stderr) { throw stderr; }

    Ruby répond à Patrick…

    Ruby

    Ruby, Consultante en logiciels

    Bonjour Patrick

    Cloud Run utilise des conteneurs, nous devons donc fournir votre application dans ce format. Pour l'étape suivante, nous devons créer un manifeste Dockerfile pour l'application.

    Votre code utilise LibreOffice. Pourriez-vous m'envoyer la commande d'installation de ce logiciel ? Je vais devoir l'inclure dans le conteneur.

    Ruby

    Patrick

    Patrick, Administrateur informatique

    Bonjour Ruby

    Génial, voici comment j'installe habituellement LibreOffice sur les serveurs du bureau :

    apt-get update -y && apt-get install -y libreoffice && apt-get clean

    N'hésitez pas à me contacter si vous avez d'autres questions.

    Patrick

    La construction du conteneur nécessitera l'intégration d'un certain nombre de composants :

    Composants : index.js, OfficeLibre, Express, body-parser, child_process et @google-cloud/storage

    Mettre à jour le fichier manifeste

    Une fois tous les fichiers identifiés, le fichier manifeste peut maintenant être créé. Aidez Ruby à mettre en place et à déployer le conteneur.

    Le package pour LibreOffice n'était pas inclus dans le conteneur auparavant, ce qui signifie qu'il doit maintenant être ajouté. Patrick a déjà fourni les commandes qu'il utilise pour construire son application, Ruby les ajoutera en tant que commande RUN dans le Dockerfile.

    1. Ouvrez le manifeste Dockerfile et ajoutez la ligne de commande RUN apt-get update -y && apt-get install -y libreoffice && apt-get clean comme indiqué ci-dessous :

      FROM {{{ project_0.startup_script.node_version | NODE_VERSION }}} RUN apt-get update -y \ && apt-get install -y libreoffice \ && apt-get clean WORKDIR /usr/src/app COPY package.json package*.json ./ RUN npm install --only=production COPY . . CMD [ "npm", "start" ]

    Déployer la nouvelle version du service de convertisseur PDF

    1. Ouvrez le fichier index.js et ajoutez les exigences de package suivantes en haut du fichier :

      const {promisify} = require('util'); const {Storage} = require('@google-cloud/storage'); const exec = promisify(require('child_process').exec); const storage = new Storage();
    2. Remplacez app.post('/', async (req, res) par le code suivant :

      app.post('/', async (req, res) => { try { const file = decodeBase64Json(req.body.message.data); await downloadFile(file.bucket, file.name); const pdfFileName = await convertFile(file.name); await uploadFile(process.env.PDF_BUCKET, pdfFileName); await deleteFile(file.bucket, file.name); } catch (ex) { console.log(`Error: ${ex}`); } res.set('Content-Type', 'text/plain'); res.send('\n\nOK\n\n'); })
    3. Ajoutez maintenant le code suivant qui traite les documents LibreOffice au bas du fichier :

      async function downloadFile(bucketName, fileName) { const options = {destination: `/tmp/${fileName}`}; await storage.bucket(bucketName).file(fileName).download(options); } async function convertFile(fileName) { const cmd = 'libreoffice --headless --convert-to pdf --outdir /tmp ' + `"/tmp/${fileName}"`; console.log(cmd); const { stdout, stderr } = await exec(cmd); if (stderr) { throw stderr; } console.log(stdout); pdfFileName = fileName.replace(/\.\w+$/, '.pdf'); return pdfFileName; } async function deleteFile(bucketName, fileName) { await storage.bucket(bucketName).file(fileName).delete(); } async function uploadFile(bucketName, fileName) { await storage.bucket(bucketName).upload(`/tmp/${fileName}`); }
    4. Assurez-vous que votre fichier index.js ressemble à ce qui suit :

      Remarque :
      Pour éviter les erreurs de formatage, nous vous recommandons de remplacer tout le code contenu dans votre fichier index.js par cet exemple de code.
      const {promisify} = require('util'); const {Storage} = require('@google-cloud/storage'); const exec = promisify(require('child_process').exec); const storage = new Storage(); const express = require('express'); const bodyParser = require('body-parser'); const app = express(); app.use(bodyParser.json()); const port = process.env.PORT || 8080; app.listen(port, () => { console.log('Listening on port', port); }); app.post('/', async (req, res) => { try { const file = decodeBase64Json(req.body.message.data); await downloadFile(file.bucket, file.name); const pdfFileName = await convertFile(file.name); await uploadFile(process.env.PDF_BUCKET, pdfFileName); await deleteFile(file.bucket, file.name); } catch (ex) { console.log(`Error: ${ex}`); } res.set('Content-Type', 'text/plain'); res.send('\n\nOK\n\n'); }) function decodeBase64Json(data) { return JSON.parse(Buffer.from(data, 'base64').toString()); } async function downloadFile(bucketName, fileName) { const options = {destination: `/tmp/${fileName}`}; await storage.bucket(bucketName).file(fileName).download(options); } async function convertFile(fileName) { const cmd = 'libreoffice --headless --convert-to pdf --outdir /tmp ' + `"/tmp/${fileName}"`; console.log(cmd); const { stdout, stderr } = await exec(cmd); if (stderr) { throw stderr; } console.log(stdout); pdfFileName = fileName.replace(/\.\w+$/, '.pdf'); return pdfFileName; } async function deleteFile(bucketName, fileName) { await storage.bucket(bucketName).file(fileName).delete(); } async function uploadFile(bucketName, fileName) { await storage.bucket(bucketName).upload(`/tmp/${fileName}`); }
    • La logique principale est hébergée dans ces fonctions :
    const file = decodeBase64Json(req.body.message.data); await downloadFile(file.bucket, file.name); const pdfFileName = await convertFile(file.name); await uploadFile(process.env.PDF_BUCKET, pdfFileName); await deleteFile(file.bucket, file.name);

    Chaque fois qu'un fichier a été importé, ce service est déclenché. Il effectue ces tâches, une par ligne de la fonction ci-dessus :

    • Il extrait les détails du fichier de la notification Pub/Sub.
    • Il télécharge le fichier du Cloud Storage sur le disque dur local. Il ne s'agit pas d'un disque physique, mais d'une section de mémoire virtuelle qui se comporte comme un disque.
    • Il convertit le fichier téléchargé en PDF.
    • Il importe le fichier PDF sur Cloud Storage. La variable d'environnement process.env.PDF_BUCKET contient le nom du bucket Cloud Storage dans lequel enregistrer des PDF. Vous attribuerez une valeur à cette variable lorsque vous déploierez le service ci-dessous.
    • Il supprime le fichier original de Cloud Storage.

    Le reste du fichier index.js implémente les fonctions appelées par ce code de haut niveau.

    Il est temps de déployer le service, et de définir la variable d'environnement PDF_BUCKET. Il est aussi conseillé d'octroyer à LibreOffice 2 Go de RAM pour travailler (consultez la ligne avec l'option --memory).

    1. Exécutez la commande suivante pour créer le conteneur :

      gcloud builds submit \ --tag gcr.io/$GOOGLE_CLOUD_PROJECT/pdf-converter
    Remarque :
    Saisissez Y si une fenêtre s'affiche pour vous demander d'activer l'API Cloud Build.

    Tester la tâche terminée

    Cliquez sur Vérifier ma progression pour vérifier que vous avez correctement effectué la tâche ci-dessus.

    Créer un autre build de l'API REST
    1. Déployez maintenant la dernière version de votre application :

      gcloud run deploy pdf-converter \ --image gcr.io/$GOOGLE_CLOUD_PROJECT/pdf-converter \ --platform managed \ --region {{{ project_0.default_region | Lab Region }}} \ --memory=2Gi \ --no-allow-unauthenticated \ --max-instances=1 \ --set-env-vars PDF_BUCKET=$GOOGLE_CLOUD_PROJECT-processed

    Avec la partie LibreOffice du conteneur, cette compilation prendra plus de temps que la précédente. C'est le bon moment pour marquer une pause.

    Cliquez sur Vérifier ma progression pour valider l'objectif.

    Créer une révision

    Tâche 7 : Tester le service de convertisseur PDF

    1. Une fois les commandes de déploiement terminées, assurez-vous que le service a été déployé correctement en exécutant :

      curl -X POST -H "Authorization: Bearer $(gcloud auth print-identity-token)" $SERVICE_URL
    2. Si vous obtenez la réponse "OK", vous avez réussi à déployer le service Cloud Run mis à jour. LibreOffice peut convertir de nombreux types de fichiers en PDF : DOCX, XLSX, JPG, PNG, GIF, etc.

    3. Exécutez la commande suivante pour importer quelques fichiers d'exemple :

      gsutil -m cp gs://spls/gsp644/* gs://$GOOGLE_CLOUD_PROJECT-upload
    4. Revenez à la console Cloud, ouvrez le menu de navigation, puis cliquez sur Cloud Storage. Ouvrez le bucket -upload et cliquez sur le bouton Actualiser plusieurs fois pour voir comment les fichiers sont supprimés, un par un, au fur et à mesure qu'ils sont convertis en PDF.

    5. Cliquez ensuite sur Buckets dans le menu de gauche, et sur le bucket dont le nom se termine par "-processed". Il doit contenir les versions PDF de tous les fichiers. N'hésitez pas à ouvrir les fichiers PDF pour vous assurer qu'ils ont été correctement convertis :

      Remarque :
      Si vous ne voyez pas tous les fichiers PDF convertis dans le bucket -processed, réexécutez la commande.

    Félicitations !

    Pet Theory dispose désormais d'un système pour convertir ses archives d'anciens fichiers en PDF. En important simplement les anciens fichiers dans le bucket "upload", le service de convertisseur PDF les convertit et les enregistre en PDF dans le bucket "processed".

    Poursuivez votre apprentissage en suivant le cours Serverless Cloud Run Development. Vous découvrirez un scénario métier fondé sur une entreprise fictive et aiderez les protagonistes à migrer vers une technologie sans serveur.

    Formations et certifications Google Cloud

    Les formations et certifications Google Cloud vous aident à tirer pleinement parti des technologies Google Cloud. Nos cours portent sur les compétences techniques et les bonnes pratiques à suivre pour être rapidement opérationnel et poursuivre votre apprentissage. Nous proposons des formations pour tous les niveaux, à la demande, en salle et à distance, pour nous adapter aux emplois du temps de chacun. Les certifications vous permettent de valider et de démontrer vos compétences et votre expérience en matière de technologies Google Cloud.

    Dernière mise à jour du manuel : 28 mai 2024

    Dernier test de l'atelier : 28 mai 2024

    Copyright 2024 Google LLC Tous droits réservés. Google et le logo Google sont des marques de Google LLC. Tous les autres noms d'entreprises et de produits peuvent être des marques des entreprises auxquelles ils sont associés.

    Ce contenu n'est pas disponible pour le moment

    Nous vous préviendrons par e-mail lorsqu'il sera disponible

    Parfait !

    Nous vous contacterons par e-mail s'il devient disponible