arrow_back

Cloud Storage

Testez vos connaissances et partagez-les avec notre communauté

Cloud Storage

Atelier 1 heure 30 minutes universal_currency_alt 5 crédits show_chart Débutant
info Cet atelier peut intégrer des outils d'IA pour vous accompagner dans votre apprentissage.
Testez vos connaissances et partagez-les avec notre communauté

Présentation

Cloud Storage est une ressource fondamentale de Google Cloud offrant de nombreuses fonctionnalités avancées. Dans cet atelier, vous découvrirez de nombreuses fonctionnalités de Cloud Storage qui pourront vous servir dans vos conceptions. Vous apprendrez également à naviguer dans Cloud Storage à l'aide de la console et de l'outil gsutil.

Objectifs

Dans cet atelier, vous allez apprendre à effectuer les tâches suivantes :

  • Créer et utiliser des buckets

  • Limiter l'accès en définissant des listes de contrôle d'accès

  • Utiliser vos propres clés de chiffrement

  • Mettre en œuvre un contrôle des versions

  • Synchroniser des répertoires

  • Partager un bucket entre plusieurs projets grâce à IAM

Configuration de Qwiklabs

Pour chaque atelier, nous vous attribuons un nouveau projet Google Cloud et un nouvel ensemble de ressources pour une durée déterminée, sans frais.

  1. Connectez-vous à Qwiklabs dans une fenêtre de navigation privée.

  2. Vérifiez le temps imparti pour l'atelier (par exemple : 01:15:00) : vous devez pouvoir le terminer dans ce délai.
    Une fois l'atelier lancé, vous ne pouvez pas le mettre en pause. Si nécessaire, vous pourrez le redémarrer, mais vous devrez tout reprendre depuis le début.

  3. Lorsque vous êtes prêt, cliquez sur Démarrer l'atelier.

  4. Notez vos identifiants pour l'atelier (Nom d'utilisateur et Mot de passe). Ils vous serviront à vous connecter à Google Cloud Console.

  5. Cliquez sur Ouvrir la console Google.

  6. Cliquez sur Utiliser un autre compte, puis copiez-collez les identifiants de cet atelier lorsque vous y êtes invité.
    Si vous utilisez d'autres identifiants, des messages d'erreur s'afficheront ou des frais seront appliqués.

  7. Acceptez les conditions d'utilisation et ignorez la page concernant les ressources de récupération des données.

Tâche 1 : Préparation

Créer un bucket Cloud Storage

  1. Dans le menu de navigation (), cliquez sur Cloud Storage > Browser (Navigateur).
  1. Cliquez sur Create bucket (Créer un bucket).
  2. Configurez les paramètres suivants et conservez les valeurs par défaut dans les autres champs :
Property (Propriété) Value (Valeur : saisissez la valeur ou sélectionnez l'option spécifiée)
Name (Nom) Saisissez un nom unique
Location type (Type d'emplacement) Multi-region (Multirégional)
Enforce public access prevention on this bucket (Appliquer la protection contre l'accès public sur ce bucket) Décochée
Access control (Contrôle des accès) Fine-grained (Ultraprécis) [autorisation au niveau de l'objet en plus de vos autorisations au niveau du bucket]
  1. Notez le nom du bucket. Il sera utilisé plus tard dans cet atelier sous la forme [BUCKET_NAME_1].
  2. Cliquez sur Create (Créer).

Cliquez sur Check my progress (Vérifier ma progression) pour vérifier l'objectif. Créer un bucket Cloud Storage

Télécharger un exemple de fichier avec CURL et créer deux copies

  1. Dans Cloud Console, cliquez sur Activer Cloud Shell ().

  2. Cliquez sur Continue (Continuer) si vous y êtes invité.

  3. Stockez [BUCKET_NAME_1] dans une variable d'environnement :

export BUCKET_NAME_1=<saisissez le nom de votre premier bucket ici>
  1. Vérifiez-le à l'aide de la commande echo :

echo $BUCKET_NAME_1
  1. Exécutez la commande suivante pour télécharger un exemple de fichier (il s'agit d'un fichier HTML de documentation Hadoop accessible publiquement) :

curl \ https://hadoop.apache.org/docs/current/\ hadoop-project-dist/hadoop-common/\ ClusterSetup.html > setup.html
  1. Pour créer des copies du fichier, exécutez les commandes suivantes :

cp setup.html setup2.html cp setup.html setup3.html

Tâche 2 : Listes de contrôle d'accès (LCA)

Copier le fichier dans le bucket et configurer la liste de contrôle d'accès

  1. Exécutez la commande suivante pour copier le premier fichier dans le bucket :

gsutil cp setup.html gs://$BUCKET_NAME_1/
  1. Pour obtenir la liste d'accès attribuée par défaut au fichier setup.html, exécutez la commande suivante :

gsutil acl get gs://$BUCKET_NAME_1/setup.html > acl.txt cat acl.txt
  1. Pour rendre la liste d'accès privée et vérifier les résultats, exécutez les commandes suivantes :

gsutil acl set private gs://$BUCKET_NAME_1/setup.html gsutil acl get gs://$BUCKET_NAME_1/setup.html > acl2.txt cat acl2.txt
  1. Pour mettre à jour la liste d'accès et rendre le fichier accessible publiquement, exécutez les commandes suivantes :

gsutil acl ch -u AllUsers:R gs://$BUCKET_NAME_1/setup.html gsutil acl get gs://$BUCKET_NAME_1/setup.html > acl3.txt cat acl3.txt

Cliquez sur Check my progress (Vérifier ma progression) pour vérifier l'objectif. Rendre un fichier lisible publiquement

Examiner le fichier dans Cloud Console

  1. Dans Cloud Console, accédez au menu de navigation (), puis cliquez sur Cloud Storage > Browser (Navigateur).

  2. Cliquez sur [BUCKET_NAME_1].

  3. Vérifiez que l'option Public access (Accès public) du fichier setup.html contient un lien public.

Supprimer le fichier local et le copier de nouveau à partir de Cloud Storage

  1. Revenez dans Cloud Shell. Si nécessaire, cliquez sur Activate Cloud Shell (Activer Cloud Shell) ().

  2. Exécutez la commande suivante pour supprimer le fichier de configuration :

rm setup.html
  1. Pour vérifier que le fichier a bien été supprimé, exécutez la commande suivante :

ls
  1. Pour copier de nouveau le fichier à partir du bucket, exécutez la commande suivante :

gsutil cp gs://$BUCKET_NAME_1/setup.html setup.html

Tâche 3 : Clés de chiffrement fournies par le client (CSEK)

Générer une clé de chiffrement fournie par le client (CSEK, Customer-Supplied Encryption Key)

Pour l'étape suivante, vous avez besoin d'une clé AES-256 encodée en base64.

  1. Exécutez la commande suivante pour créer une clé :

python3 -c 'import base64; import os; print(base64.encodebytes(os.urandom(32)))'

Résultat (ne pas copier ; ceci est un exemple de résultat) :

b'tmxElCaabWvJqR7uXEWQF39DhWTcDvChzuCmpHe6sb0=\n'
  1. Copiez la valeur de la clé générée en supprimant b' et \n' du résultat de la commande. La clé doit être sous la forme tmxElCaabWvJqR7uXEWQF39DhWTcDvChzuCmpHe6sb0=.

Modifier le fichier .boto

Les paramètres de contrôle du chiffrement se trouvent dans un fichier de configuration gsutil nommé .boto.

  1. Pour afficher et ouvrir le fichier .boto, exécutez les commandes suivantes :

ls -al nano .boto
  1. Recherchez la ligne contenant #encryption_key=.
En bas de l'éditeur nano, vous disposez de raccourcis pour parcourir rapidement les fichiers. Utilisez le raccourci Where is (Où se trouve) pour localiser rapidement la ligne contenant #encryption_key=.
  1. Supprimez le caractère # pour annuler la mise en commentaire de la ligne, puis collez la valeur de la clé précédemment générée à la fin de la ligne.

Exemple (ne pas copier ; ceci est un exemple) :

Avant : # encryption_key= Après : encryption_key=tmxElCaabWvJqR7uXEWQF39DhWTcDvChzuCmpHe6sb0=
  1. Appuyez sur Ctrl+O, puis sur Entrée pour enregistrer le fichier .boto. Appuyez ensuite sur Ctrl+X pour quitter nano.

Importer les fichiers "setup" restants (chiffrés) et vérifier les résultats dans Cloud Console

  1. Pour importer les fichiers setup.html restants, exécutez les commandes suivantes :

gsutil cp setup2.html gs://$BUCKET_NAME_1/ gsutil cp setup3.html gs://$BUCKET_NAME_1/
  1. Revenez à Cloud Console.
  2. Cliquez sur [BUCKET_NAME_1]. Les fichiers setup2.html et setup3.html indiquent qu'ils sont chiffrés par le client.

Cliquez sur Check my progress (Vérifier ma progression) pour vérifier l'objectif. Clés de chiffrement fournies par le client (CSEK)

Supprimer les fichiers locaux, copier de nouveaux fichiers et vérifier le chiffrement

  1. Pour supprimer vos fichiers locaux, exécutez la commande suivante dans Cloud Shell :

rm setup*
  1. Pour copier de nouveau les fichiers à partir du bucket, exécutez la commande suivante :

gsutil cp gs://$BUCKET_NAME_1/setup* ./
  1. Vérifiez que les opérations ont réussi en exécutant les commandes cat suivantes qui permettent de lire les fichiers chiffrés :

cat setup.html cat setup2.html cat setup3.html

Tâche 4 : Effectuer une rotation des clés de chiffrement fournies par le client (CSEK)

Déplacer la clé de chiffrement CSEK actuelle vers la clé de déchiffrement

  1. Exécutez la commande suivante pour ouvrir le fichier .boto :

nano .boto
  1. Ajoutez le caractère # au début de la ligne "encryption_key" actuelle pour la mettre en commentaire.
En bas de l'éditeur nano, vous disposez de raccourcis pour parcourir rapidement les fichiers. Utilisez le raccourci Where is (Où se trouve) pour localiser rapidement la ligne contenant #encryption_key=.
  1. Supprimez le caractère # pour annuler la mise en commentaire de la ligne "decryption_key1". Copiez ensuite la clé actuelle de la ligne "encryption_key" et collez-la dans la ligne "decryption_key1".

Résultat (ne pas copier ; ceci est un exemple de résultat) :

Avant : encryption_key=2dFWQGnKhjOcz4h0CudPdVHLG2g+OoxP8FQOIKKTzsg= # decryption_key1= Après : # encryption_key=2dFWQGnKhjOcz4h0CudPdVHLG2g+OoxP8FQOIKKTzsg= decryption_key1=2dFWQGnKhjOcz4h0CudPdVHLG2g+OoxP8FQOIKKTzsg=
  1. Appuyez sur Ctrl+O, puis sur Entrée pour enregistrer le fichier .boto. Appuyez ensuite sur Ctrl+X pour quitter nano.

Générer une autre clé de chiffrement fournie par le client et l'ajouter au fichier .boto

  1. Exécutez la commande suivante pour générer une nouvelle clé :

python3 -c 'import base64; import os; print(base64.encodebytes(os.urandom(32)))'
  1. Copiez la valeur de la clé générée en supprimant b' et \n' du résultat de la commande. La clé doit être sous la forme tmxElCaabWvJqR7uXEWQF39DhWTcDvChzuCmpHe6sb0=.

  2. Pour ouvrir le fichier .boto, exécutez la commande suivante :

nano .boto
  1. Annulez la mise en commentaire du chiffrement, puis collez la nouvelle valeur de clé pour encryption_key=.

Résultat (ne pas copier ; ceci est un exemple de résultat) :

Avant : # encryption_key=2dFWQGnKhjOcz4h0CudPdVHLG2g+OoxP8FQOIKKTzsg= Après : encryption_key=HbFK4I8CaStcvKKIx6aNpdTse0kTsfZNUjFpM+YUEjY=
  1. Appuyez sur Ctrl+O, puis sur Entrée pour enregistrer le fichier .boto. Appuyez ensuite sur Ctrl+X pour quitter nano.

Réécrire la clé pour le premier fichier et mettre en commentaire l'ancienne clé de déchiffrement

Lorsque vous réécrivez un fichier chiffré, vous pouvez le déchiffrer avec la clé "decryption_key1" définie précédemment et le chiffrer à l'aide de la nouvelle clé "encryption_key".

Vous allez réécrire la clé pour le fichier setup2.html, mais pas pour le fichier setup3.html. De cette manière, vous pourrez observer ce qui se passe si vous n'effectuez pas une rotation correcte de vos clés.

  1. Exécutez la commande suivante :

gsutil rewrite -k gs://$BUCKET_NAME_1/setup2.html
  1. Pour ouvrir le fichier .boto, exécutez la commande suivante :

nano .boto
  1. Ajoutez le caractère # au début de la ligne "decryption_key1" actuelle pour la remettre en commentaire.

Résultat (ne pas copier ; ceci est un exemple de résultat) :

Avant : decryption_key1=2dFWQGnKhjOcz4h0CudPdVHLG2g+OoxP8FQOIKKTzsg= Après : # decryption_key1=2dFWQGnKhjOcz4h0CudPdVHLG2g+OoxP8FQOIKKTzsg=
  1. Appuyez sur Ctrl+O, puis sur Entrée pour enregistrer le fichier .boto. Appuyez ensuite sur Ctrl+X pour quitter nano.

Télécharger les fichiers setup2.html et setup3.html

  1. Pour télécharger le fichier setup2.html, exécutez la commande suivante :

gsutil cp gs://$BUCKET_NAME_1/setup2.html recover2.html
  1. Pour télécharger le fichier setup3.html, exécutez la commande suivante :

gsutil cp gs://$BUCKET_NAME_1/setup3.html recover3.html

Tâche 5 : Activer la gestion du cycle de vie

Afficher la stratégie actuellement définie pour le cycle de vie du bucket

  1. Exécutez la commande suivante pour afficher la stratégie de cycle de vie actuellement définie :

gsutil lifecycle get gs://$BUCKET_NAME_1

Créer un fichier de stratégie de cycle de vie au format JSON

  1. Pour créer un fichier nommé life.json, exécutez la commande suivante :

nano life.json
  1. Collez la valeur suivante dans le fichier life.json :

{ "rule": [ { "action": {"type": "Delete"}, "condition": {"age": 31} } ] }
  1. Appuyez sur Ctrl+O et Entrée pour enregistrer le fichier, puis sur Ctrl+X pour quitter nano.

Définir et examiner la stratégie

  1. Pour définir la stratégie, exécutez la commande suivante :

gsutil lifecycle set life.json gs://$BUCKET_NAME_1
  1. Pour examiner la stratégie, exécutez la commande suivante :

gsutil lifecycle get gs://$BUCKET_NAME_1

Cliquez sur Check my progress (Vérifier ma progression) pour vérifier l'objectif. Activer la gestion du cycle de vie

Tâche 6 : Activer la gestion des versions

Afficher l'état de la gestion des versions pour le bucket et activer la gestion des versions

  1. Exécutez la commande suivante pour afficher l'état actuel de la gestion des versions du bucket :

gsutil versioning get gs://$BUCKET_NAME_1
  1. Pour activer la gestion des versions, exécutez la commande suivante :

gsutil versioning set on gs://$BUCKET_NAME_1
  1. Pour vérifier que la gestion des versions a bien été activée, exécutez la commande suivante :

gsutil versioning get gs://$BUCKET_NAME_1

Cliquez sur Check my progress (Vérifier ma progression) pour vérifier l'objectif. Activer la gestion des versions

Créer plusieurs versions de l'exemple de fichier dans le bucket

  1. Vérifiez la taille de l'exemple de fichier :

ls -al setup.html
  1. Ouvrez le fichier setup.html :

nano setup.html
  1. Supprimez cinq lignes du fichier setup.html (peu importe lesquelles) afin de modifier sa taille.

  2. Appuyez sur Ctrl+O et Entrée pour enregistrer le fichier, puis sur Ctrl+X pour quitter nano.

  3. Copiez le fichier dans le bucket avec l'option de gestion des versions "-v" :

gsutil cp -v setup.html gs://$BUCKET_NAME_1
  1. Ouvrez le fichier setup.html :

nano setup.html
  1. Supprimez cinq autres lignes du fichier setup.html afin de modifier sa taille.

  2. Appuyez sur Ctrl+O et Entrée pour enregistrer le fichier, puis sur Ctrl+X pour quitter nano.

  3. Copiez le fichier dans le bucket avec l'option de gestion des versions "-v" :

gsutil cp -v setup.html gs://$BUCKET_NAME_1

Lister toutes les versions du fichier

  1. Pour lister toutes les versions du fichier, exécutez la commande suivante :

gsutil ls -a gs://$BUCKET_NAME_1/setup.html
  1. Sélectionnez et copiez le nom de la version originale du fichier (la première listée). Elle sera désignée sous le nom [VERSION_NAME] lors de la prochaine étape.
Assurez-vous de copier le chemin d'accès complet du fichier, en commençant par gs://
  1. Stockez la valeur de cette version dans la variable d'environnement [VERSION_NAME].

export VERSION_NAME=<saisissez le nom de la VERSION ici>
  1. Vérifiez-le à l'aide de la commande echo :

echo $VERSION_NAME

Résultat (ne pas copier ; ceci est un exemple de résultat) :

gs://BUCKET_NAME_1/setup.html#1584457872853517

Télécharger la version d'origine du fichier (la plus ancienne) et vérifier la récupération du fichier

  1. Téléchargez la version originale du fichier :

gsutil cp $VERSION_NAME recovered.txt
  1. Pour vérifier que le fichier a bien été récupéré, exécutez les commandes suivantes :

ls -al setup.html ls -al recovered.txt

Tâche 7 : Synchroniser un répertoire avec un bucket

Créer un répertoire imbriqué et le synchroniser avec un bucket

Créez une structure de répertoire imbriqué pour observer ce qui se passe lorsque vous copiez le répertoire vers un bucket de manière récursive.

  1. Exécutez les commandes suivantes :

mkdir firstlevel mkdir ./firstlevel/secondlevel cp setup.html firstlevel cp setup.html firstlevel/secondlevel
  1. Pour synchroniser le répertoire "firstlevel" de la VM avec votre bucket, exécutez la commande suivante :

gsutil rsync -r ./firstlevel gs://$BUCKET_NAME_1/firstlevel

Examiner les résultats

  1. Dans Cloud Console, accédez au menu de navigation (), puis cliquez sur Cloud Storage > Browser (Navigateur).

  2. Cliquez sur [BUCKET_NAME_1]. Observez les sous-dossiers présents dans le bucket.

  3. Cliquez sur /firstlevel, puis sur /secondlevel.

  4. Comparez les résultats de Cloud Console avec ceux obtenus à l'aide de la commande suivante :

gsutil ls -r gs://$BUCKET_NAME_1/firstlevel
  1. Quittez Cloud Shell :

exit

Tâche 8 : Partager des ressources entre plusieurs projets

Basculer vers le deuxième projet

  1. Ouvrez un nouvel onglet de navigation privée.

  2. Accédez à la page console.cloud.google.com.

  3. Dans la barre de titre, cliquez sur la liste déroulante qui permet de sélectionner un projet.

  4. Cliquez sur All (Tous), puis sélectionnez le deuxième projet fourni dans la boîte de dialogue "Connection details" (Informations de connexion) de Qwiklabs. Notez que l'ID du projet est un nom unique parmi tous les projets Google Cloud. L'ID du deuxième projet sera désigné sous le nom [PROJECT_ID_2] dans la suite de cet atelier.

Préparer le bucket

  1. Dans Cloud Console, accédez au menu de navigation (), puis cliquez sur Cloud Storage > Browser (Navigateur).
  2. Cliquez sur Create bucket (Créer un bucket).
  3. Configurez les paramètres suivants et conservez les valeurs par défaut dans les autres champs :
Property (Propriété) Value (Valeur : saisissez la valeur ou sélectionnez l'option spécifiée)
Name (Nom) Saisissez un nom unique
Location type (Type d'emplacement) Multi-region (Multirégional)
Access control (Contrôle des accès) Fine-grained (Ultraprécis) [autorisation au niveau de l'objet en plus de vos autorisations au niveau du bucket]
  1. Notez le nom du bucket. Il sera désigné sous le nom [BUCKET_NAME_2] lors des prochaines étapes.

  2. Cliquez sur Create (Créer).

Importer un fichier texte dans le bucket

  1. Importez un fichier dans [BUCKET_NAME_2]. N'importe quel exemple de fichier ou fichier texte conviendra.

  2. Notez le nom du fichier (appelé [FILE_NAME]). Il vous sera utile lors des prochaines étapes.

Créer un compte de service IAM

  1. Dans Cloud Console, accédez au menu de navigation () et cliquez sur IAM & admin > Service accounts (IAM et administration > Comptes de service).
  2. Cliquez sur Create service account (Créer un compte de service).
  3. Sur la page d'informations du compte de service, pour Service account name (Nom du compte de service), indiquez cross-project-storage.
  4. Cliquez sur Create and continue (Créer et continuer).
  5. Sur la page d'autorisations de compte de service, indiquez le rôle Cloud Storage > Storage Object Viewer (Lecteur des objets de l'espace de stockage).
  6. Cliquez sur Continue (Continuer), puis sur OK.
  7. Cliquez sur le compte de service cross-project-storage pour ajouter la clé JSON.
  8. Dans l'onglet Keys (Clés), cliquez sur le menu déroulant Add key (Ajouter une clé) et sélectionnez Create new key (Créer une clé).
  9. Sélectionnez le type de clé JSON, puis cliquez sur Create (Créer). Un fichier de clé JSON est téléchargé sur votre ordinateur. Dans les étapes suivantes, vous devrez localiser ce fichier pour l'importer dans la VM.
  10. Cliquez sur Close (Fermer).
  11. Sur votre disque dur, remplacez le nom du fichier de clé JSON par credentials.json.
  12. Dans le panneau supérieur, rebasculez vers le projet [PROJECT_ID_1].

Cliquez sur Check my progress (Vérifier ma progression) pour vérifier l'objectif. Créer les ressources du deuxième projet

Créer une VM

  1. Dans le menu de navigation (), cliquez sur Compute Engine > VM instances (Instances de VM).
  2. Cliquez sur Create Instance (Créer une instance).
  3. Configurez les paramètres suivants et conservez les valeurs par défaut dans les autres champs :
Property (Propriété) Value (Valeur : saisissez la valeur ou sélectionnez l'option spécifiée)
Name (Nom) crossproject
Region (Région) europe-west1
Zone europe-west1-d
Series (Série) N1
Type de machine n1-standard-1
Boot disk (Disque de démarrage) Debian GNU/Linux 11 (bullseye)
  1. Cliquez sur Create (Créer).

Ouvrir une session SSH sur la VM

  1. Dans crossproject, cliquez sur SSH pour lancer un terminal et vous y connecter.
  1. Stockez [BUCKET_NAME_2] dans une variable d'environnement :

export BUCKET_NAME_2=<saisissez le nom de votre deuxième bucket ici>
  1. Vérifiez-le à l'aide de la commande echo :

echo $BUCKET_NAME_2
  1. Stockez [FILE_NAME] dans une variable d'environnement :

export FILE_NAME=<saisissez le nom du fichier ici>
  1. Vérifiez-le à l'aide de la commande echo :

echo $FILE_NAME
  1. Listez les fichiers présents dans [PROJECT_ID_2] :

gsutil ls gs://$BUCKET_NAME_2/

Résultat (ne pas copier ; ceci est un exemple de résultat) :

AccessDeniedException: 403 404513585876-compute@developer.gserviceaccount.com does not have storage.objects.list access to the Google Cloud Storage bucket.

Autoriser la VM

  1. Pour importer le fichier credentials.json dans le terminal SSH de la VM, cliquez sur l'icône en forme de roue dentée () dans l'angle supérieur droit, puis sur Upload file (Importer le fichier).

  2. Sélectionnez le fichier credentials.json, puis importez-le.

  3. Dans la fenêtre "File Transfer" (Transfert de fichiers), cliquez sur Close (Fermer).

  4. Vérifiez que le fichier JSON a bien été importé dans la VM :

ls

Résultat (ne pas copier ; ceci est un exemple de résultat) :

credentials.json
  1. Saisissez la commande suivante dans le terminal pour autoriser la VM à utiliser l'API Google Cloud :

gcloud auth activate-service-account --key-file credentials.json

Vérifier l'accès

  1. Exécutez de nouveau cette commande :

gsutil ls gs://$BUCKET_NAME_2/
  1. Exécutez de nouveau cette commande :

gsutil cat gs://$BUCKET_NAME_2/$FILE_NAME
  1. Essayez de copier le fichier credentials.json dans le bucket :

gsutil cp credentials.json gs://$BUCKET_NAME_2/

Résultat (ne pas copier ; ceci est un exemple de résultat) :

Copying file://credentials.json [Content-Type=application/json]... AccessDeniedException: 403 cross-project-storage@qwiklabs-gcp-02-c638e3daa975.iam.gserviceaccount.com does not have storage.objects.create access to the Google Cloud Storage object.

Modifier le rôle

  1. Dans le panneau supérieur, rebasculez vers le projet [PROJECT_ID_2].
  2. Dans Cloud Console, accédez au menu de navigation () et cliquez sur IAM & admin > IAM (IAM et administration > IAM).
  3. Cliquez sur l'icône en forme de crayon à côté du compte de service cross-project-storage (vous devrez peut-être faire défiler la page vers la droite pour la voir).
  4. Cliquez sur le rôle Storage Object Viewer (Lecteur des objets de l'espace de stockage), puis sur Cloud Storage > Storage Object Admin (Administrateur des objets de l'espace de stockage).
  5. Cliquez sur Save (Enregistrer). Si vous ne cliquez pas sur Save (Enregistrer), la modification n'est pas prise en compte.

Cliquez sur Check my progress (Vérifier ma progression) pour vérifier l'objectif. Créer et vérifier les ressources du premier projet

Vérifier le changement d'accès

  1. Revenez au terminal SSH de crossproject.

  2. Copiez le fichier credentials.json dans le bucket :

gsutil cp credentials.json gs://$BUCKET_NAME_2/

Résultat (ne pas copier ; ceci est un exemple de résultat) :

Copying file://credentials.json [Content-Type=application/json]... - [1 files][ 2.3 KiB/ 2.3 KiB] Operation completed over 1 objects/2.3 KiB.

Tâche 9 : Récapitulatif

Dans cet atelier, vous avez appris à créer et utiliser des buckets et des objets. Vous avez également découvert les fonctionnalités suivantes de Cloud Storage :

  • Clés de chiffrement fournies par le client (CSEK)
  • Utilisation de vos propres clés de chiffrement
  • Rotation des clés
  • Liste de contrôle d'accès (LCA)
  • Configuration d'une liste de contrôle d'accès en mode privé, puis passage en mode public
  • Gestion du cycle de vie
  • Création d'une stratégie de suppression des objets au bout de 31 jours
  • Gestion des versions
  • Création d'une version et restauration d'une version précédente
  • Synchronisation de répertoires
  • Synchronisation récursive d'un répertoire de VM avec un bucket
  • Partage de ressources entre plusieurs projets à l'aide d'IAM
  • Utilisation d'IAM pour permettre à l'ensemble des projets d'accéder aux ressources

Terminer l'atelier

Une fois l'atelier terminé, cliquez sur Terminer l'atelier. Google Cloud Skills Boost supprime les ressources que vous avez utilisées, puis efface le compte.

Si vous le souhaitez, vous pouvez noter l'atelier. Sélectionnez un nombre d'étoiles, saisissez un commentaire, puis cliquez sur Envoyer.

Le nombre d'étoiles correspond à votre degré de satisfaction :

  • 1 étoile = très insatisfait(e)
  • 2 étoiles = insatisfait(e)
  • 3 étoiles = ni insatisfait(e), ni satisfait(e)
  • 4 étoiles = satisfait(e)
  • 5 étoiles = très satisfait(e)

Si vous ne souhaitez pas donner votre avis, vous pouvez fermer la boîte de dialogue.

Pour soumettre des commentaires, suggestions ou corrections, veuillez accéder à l'onglet Assistance.

Copyright 2020 Google LLC Tous droits réservés. Google et le logo Google sont des marques de Google LLC. Tous les autres noms d'entreprises et de produits peuvent être des marques des entreprises auxquelles ils sont associés.

Before you begin

  1. Labs create a Google Cloud project and resources for a fixed time
  2. Labs have a time limit and no pause feature. If you end the lab, you'll have to restart from the beginning.
  3. On the top left of your screen, click Start lab to begin

Ce contenu n'est pas disponible pour le moment

Nous vous préviendrons par e-mail lorsqu'il sera disponible

Parfait !

Nous vous contacterons par e-mail s'il devient disponible

One lab at a time

Confirm to end all existing labs and start this one

Use private browsing to run the lab

Use an Incognito or private browser window to run this lab. This prevents any conflicts between your personal account and the Student account, which may cause extra charges incurred to your personal account.