arrow_back

ETL-Verarbeitung in Google Cloud mit Dataflow und BigQuery (Python)

Anmelden Teilnehmen
Testen und teilen Sie Ihr Wissen mit unserer Community.
done
Sie erhalten Zugriff auf über 700 praxisorientierte Labs, Skill-Logos und Kurse

ETL-Verarbeitung in Google Cloud mit Dataflow und BigQuery (Python)

Lab 1 Stunde universal_currency_alt 5 Guthabenpunkte show_chart Mittelstufe
info Dieses Lab kann KI-Tools enthalten, die den Lernprozess unterstützen.
Testen und teilen Sie Ihr Wissen mit unserer Community.
done
Sie erhalten Zugriff auf über 700 praxisorientierte Labs, Skill-Logos und Kurse

GSP290

Logo: Google Cloud-Labs zum selbstbestimmten Lernen

Übersicht

In Google Cloud können Sie Datenpipelines erstellen, die mithilfe von Python-Code Daten aus öffentlich verfügbaren Datasets aufnehmen und mithilfe dieser Google Cloud-Dienste nach BigQuery übertragen:

  • Cloud Storage
  • Dataflow
  • BigQuery

In diesem Lab erstellen Sie mit diesen Diensten eine eigene Datenpipeline, inklusive eigenem Design und Implementierungsdetails, damit Ihr Prototyp die Anforderungen erfüllt. Öffnen Sie unbedingt die Python-Dateien und lesen Sie die Kommentare, wenn Sie dazu aufgefordert werden.

Aufgaben

Aufgaben in diesem Lab:

  • Dataflow-Pipelines (Python) zur Datenaufnahme erstellen und ausführen
  • Dataflow-Pipelines (Python) zur Datentransformation und -anreicherung erstellen und ausführen

Einrichtung und Anforderungen

Vor dem Klick auf „Start Lab“ (Lab starten)

Lesen Sie diese Anleitung. Labs sind zeitlich begrenzt und können nicht pausiert werden. Der Timer beginnt zu laufen, wenn Sie auf Lab starten klicken, und zeigt Ihnen, wie lange die Ressourcen für das Lab verfügbar sind.

In diesem praxisorientierten Lab können Sie die Lab-Aktivitäten in einer echten Cloud-Umgebung selbst durchführen – nicht in einer Simulations- oder Demo-Umgebung. Dazu erhalten Sie neue, temporäre Anmeldedaten, mit denen Sie für die Dauer des Labs auf Google Cloud zugreifen können.

Für dieses Lab benötigen Sie Folgendes:

  • Einen Standardbrowser (empfohlen wird Chrome)
Hinweis: Nutzen Sie den privaten oder Inkognitomodus, um dieses Lab durchzuführen. So wird verhindert, dass es zu Konflikten zwischen Ihrem persönlichen Konto und dem Teilnehmerkonto kommt und zusätzliche Gebühren für Ihr persönliches Konto erhoben werden.
  • Zeit für die Durchführung des Labs – denken Sie daran, dass Sie ein begonnenes Lab nicht unterbrechen können.
Hinweis: Wenn Sie über ein persönliches Google Cloud-Konto oder -Projekt verfügen, verwenden Sie es nicht für dieses Lab. So werden zusätzliche Kosten für Ihr Konto vermieden.

Lab starten und bei der Google Cloud Console anmelden

  1. Klicken Sie auf Lab starten. Wenn Sie für das Lab bezahlen müssen, wird ein Pop-up-Fenster geöffnet, in dem Sie Ihre Zahlungsmethode auswählen können. Auf der linken Seite befindet sich der Bereich Details zum Lab mit diesen Informationen:

    • Schaltfläche Google Cloud Console öffnen
    • Restzeit
    • Temporäre Anmeldedaten für das Lab
    • Ggf. weitere Informationen für dieses Lab
  2. Klicken Sie auf Google Cloud Console öffnen (oder klicken Sie mit der rechten Maustaste und wählen Sie Link in Inkognitofenster öffnen aus, wenn Sie Chrome verwenden).

    Im Lab werden Ressourcen aktiviert. Anschließend wird ein weiterer Tab mit der Seite Anmelden geöffnet.

    Tipp: Ordnen Sie die Tabs nebeneinander in separaten Fenstern an.

    Hinweis: Wird das Dialogfeld Konto auswählen angezeigt, klicken Sie auf Anderes Konto verwenden.
  3. Kopieren Sie bei Bedarf den folgenden Nutzernamen und fügen Sie ihn in das Dialogfeld Anmelden ein.

    {{{user_0.username | "Username"}}}

    Sie finden den Nutzernamen auch im Bereich Details zum Lab.

  4. Klicken Sie auf Weiter.

  5. Kopieren Sie das folgende Passwort und fügen Sie es in das Dialogfeld Willkommen ein.

    {{{user_0.password | "Password"}}}

    Sie finden das Passwort auch im Bereich Details zum Lab.

  6. Klicken Sie auf Weiter.

    Wichtig: Sie müssen die für das Lab bereitgestellten Anmeldedaten verwenden. Nutzen Sie nicht die Anmeldedaten Ihres Google Cloud-Kontos. Hinweis: Wenn Sie Ihr eigenes Google Cloud-Konto für dieses Lab nutzen, können zusätzliche Kosten anfallen.
  7. Klicken Sie sich durch die nachfolgenden Seiten:

    • Akzeptieren Sie die Nutzungsbedingungen.
    • Fügen Sie keine Wiederherstellungsoptionen oder Zwei-Faktor-Authentifizierung hinzu (da dies nur ein temporäres Konto ist).
    • Melden Sie sich nicht für kostenlose Testversionen an.

Nach wenigen Augenblicken wird die Google Cloud Console in diesem Tab geöffnet.

Hinweis: Wenn Sie sich eine Liste der Google Cloud-Produkte und ‑Dienste ansehen möchten, klicken Sie oben links auf das Navigationsmenü. Symbol für Navigationsmenü

Cloud Shell aktivieren

Cloud Shell ist eine virtuelle Maschine, auf der Entwicklertools installiert sind. Sie bietet ein Basisverzeichnis mit 5 GB nichtflüchtigem Speicher und läuft auf Google Cloud. Mit Cloud Shell erhalten Sie Befehlszeilenzugriff auf Ihre Google Cloud-Ressourcen.

  1. Klicken Sie oben in der Google Cloud Console auf Cloud Shell aktivieren Symbol für Cloud Shell-Aktivierung.

Wenn Sie verbunden sind, sind Sie bereits authentifiziert und das Projekt ist auf Ihre Project_ID, eingestellt. Die Ausgabe enthält eine Zeile, in der die Project_ID für diese Sitzung angegeben ist:

Ihr Cloud-Projekt in dieser Sitzung ist festgelegt als {{{project_0.project_id | "PROJECT_ID"}}}

gcloud ist das Befehlszeilentool für Google Cloud. Das Tool ist in Cloud Shell vorinstalliert und unterstützt die Tab-Vervollständigung.

  1. (Optional) Sie können den aktiven Kontonamen mit diesem Befehl auflisten:
gcloud auth list
  1. Klicken Sie auf Autorisieren.

Ausgabe:

ACTIVE: * ACCOUNT: {{{user_0.username | "ACCOUNT"}}} Um das aktive Konto festzulegen, führen Sie diesen Befehl aus: $ gcloud config set account `ACCOUNT`
  1. (Optional) Sie können die Projekt-ID mit diesem Befehl auflisten:
gcloud config list project

Ausgabe:

[core] project = {{{project_0.project_id | "PROJECT_ID"}}} Hinweis: Die vollständige Dokumentation für gcloud finden Sie in Google Cloud in der Übersicht zur gcloud CLI.

Aufgabe 1: Dataflow API neu aktivieren

Damit Sie Zugriff auf die erforderliche API haben, starten Sie die Verbindung zur Dataflow API neu.

Wichtig: Führen Sie die Schritte 1–4 unten auch aus, wenn die API bereits aktiviert ist. Deaktivieren Sie die API und aktivieren Sie sie wieder, um sie neu zu starten.
  1. Geben Sie in der Cloud Console oben in der Suchleiste „Dataflow API“ ein. Klicken Sie auf das Ergebnis für Dataflow API.

  2. Klicken Sie auf Verwalten.

  3. Klicken Sie auf API deaktivieren.

Wenn Sie zur Bestätigung aufgefordert werden, klicken Sie auf Deaktivieren.

  1. Klicken Sie auf Aktivieren.

Wenn die API wieder aktiviert ist, wird auf der Seite die Option zur Deaktivierung angezeigt.

Abgeschlossene Aufgabe testen

Klicken Sie auf Fortschritt prüfen.

Dataflow API deaktivieren und wieder aktivieren

Aufgabe 2: Starter-Code herunterladen

  1. Führen Sie den folgenden Befehl in Cloud Shell aus, um Dataflow-Python-Beispiele aus dem GCP-GitHub „Professional Services“ abzurufen:
gsutil -m cp -R gs://spls/gsp290/dataflow-python-examples .
  1. Legen Sie in Cloud Shell eine Variable fest, die Ihrer Projekt-ID entspricht:
export PROJECT={{{ project_0.project_id }}} gcloud config set project $PROJECT

Aufgabe 3: Cloud Storage-Bucket erstellen

  • Erstellen Sie mit dem Befehl „make bucket“ in Cloud Shell einen neuen regionalen Bucket in der -Region Ihres Projekts:
gsutil mb -c regional -l {{{ project_0.default_region }}} gs://$PROJECT

Abgeschlossene Aufgabe testen

Klicken Sie auf Fortschritt prüfen.

Cloud Storage-Bucket erstellen

Aufgabe 4: Dateien in Ihren Bucket kopieren

  • Kopieren Sie in Cloud Shell mit dem Befehl gsutil Dateien in den gerade erstellten Cloud Storage-Bucket:
gsutil cp gs://spls/gsp290/data_files/usa_names.csv gs://$PROJECT/data_files/ gsutil cp gs://spls/gsp290/data_files/head_usa_names.csv gs://$PROJECT/data_files/

Abgeschlossene Aufgabe testen

Klicken Sie auf Fortschritt prüfen.

Dateien in Ihren Bucket kopieren

Aufgabe 5: BigQuery-Dataset erstellen

  • Erstellen Sie in Cloud Shell unter „BigQuery Dataset“ ein Dataset namens lake. In dieses Dataset werden all Ihre Tabellen in BigQuery geladen:
bq mk lake

Abgeschlossene Aufgabe testen

Klicken Sie auf Fortschritt prüfen.

BigQuery-Dataset erstellen (Name: lake)

Aufgabe 6: Dataflow-Pipeline erstellen

In diesem Abschnitt erstellen Sie einen Dataflow, für den nur Anfügungen zulässig sind und der Daten in die BigQuery-Tabelle aufnimmt. Sie können sich mit dem integrierten Code-Editor den Code in der Google Cloud Console anzeigen lassen und diesen bearbeiten.

Diagramm der Dataflow-Pipeline nur für Anfügungen

Cloud Shell-Code-Editor öffnen

  1. Öffnen Sie den Quellcode und klicken Sie dafür auf das Symbol Editor öffnen in Cloud Shell:

Symbol „Editor öffnen“

  1. Wenn Sie dazu aufgefordert werden, klicken Sie auf In neuem Fenster öffnen. Damit wird der Code-Editor in einem neuen Fenster eingeblendet. Im Cloud Shell-Editor haben Sie die Möglichkeit, Dateien in der Cloud Shell-Umgebung zu bearbeiten. Vom Editor können Sie durch Klicken auf Terminal öffnen zu Cloud Shell zurückkehren.

Aufgabe 7: Datenaufnahme mit einer Dataflow-Pipeline

Sie erstellen nun eine Dataflow-Pipeline mit einer TextIO-Quelle und einem BigQuery-Ziel, um Dateien in BigQuery aufzunehmen. Dazu führen Sie die folgenden Schritte aus:

  • Nehmen Sie die Dateien aus Cloud Storage auf.
  • Filtern Sie die Kopfzeile in den Dateien heraus.
  • Konvertieren Sie die gelesenen Zeilen in Wörterbuchobjekte.
  • Geben Sie die Zeilen an BigQuery aus.

Aufgabe 8: Python-Code der Pipeline überprüfen

Rufen Sie im Code-Editor die Option dataflow-python-examples > dataflow_python_examples auf und öffnen Sie die Datei data_ingestion.py. Lesen Sie die Kommentare, in denen die Funktion des Codes erklärt wird. Mit diesem Code wird in das Dataset lake eine Tabelle in BigQuery eingefügt.

Code-Editor

Aufgabe 9: Apache Beam-Pipeline ausführen

  1. Gehen Sie für diesen Schritt zu Ihrer Cloud Shell-Sitzung zurück. Nun müssen Sie die erforderlichen Python-Bibliotheken einrichten.

Der Dataflow-Job in diesem Lab erfordert Python 3.8. Damit Sie mit der richtigen Version arbeiten, werden die Dataflow-Prozesse in einem Python 3.8-Docker-Container ausgeführt.

  1. Führen Sie in Cloud Shell den folgenden Befehl aus, um einen Python-Container zu starten:
docker run -it -e PROJECT=$PROJECT -v $(pwd)/dataflow-python-examples:/dataflow python:3.8 /bin/bash

Mit diesem Befehl wird ein Docker-Container mit der neuesten stabilen Version von Python 3.8 abgerufen und eine Befehlsshell für die nächsten Befehle im Container ausgeführt. Das Flag -v stellt den Quellcode als Volume für den Container bereit. Dadurch können wir ihn im Cloud Shell-Editor bearbeiten und weiterhin darauf im ausgeführten Container zugreifen.

  1. Wenn das Abrufen des Containers abgeschlossen ist und die Ausführung in Cloud Shell beginnt, installieren Sie apache-beam in diesem ausgeführten Container mit dem folgenden Befehl:
pip install apache-beam[gcp]==2.59.0
  1. Als Nächstes ändern Sie im ausgeführten Container in Cloud Shell die Verzeichnisse in jene, mit denen Sie den Quellcode verknüpft haben:
cd dataflow/

Aufnahme-Dataflow-Pipeline in der Cloud ausführen

  1. Mit folgendem Befehl fahren Sie die erforderlichen Worker hoch und nach Abschluss wieder herunter:
python dataflow_python_examples/data_ingestion.py \ --project=$PROJECT --region={{{ project_0.default_region }}} \ --runner=DataflowRunner \ --machine_type=e2-standard-2 \ --staging_location=gs://$PROJECT/test \ --temp_location gs://$PROJECT/test \ --input gs://$PROJECT/data_files/head_usa_names.csv \ --save_main_session
  1. Gehen Sie zur Cloud Console zurück und klicken Sie im Navigationsmenü auf Dataflow, um den Status Ihres Jobs aufzurufen.

Navigationsmenü > Dataflow

  1. Klicken Sie auf den Namen des Jobs, um sich den Fortschritt anzeigen zu lassen. Sobald Erfolgreich als Jobstatus angezeigt wird, können Sie den nächsten Schritt ausführen. Diese Dataflow-Pipeline benötigt ca. fünf Minuten, um zu starten, die Aufgabe auszuführen und dann herunterzufahren.

  2. Rufen Sie BigQuery (Navigationsmenü > BigQuery) auf, um zu überprüfen, ob Ihre Daten angezeigt werden.

Navigationsmenü > BigQuery

  1. Klicken Sie auf Ihren Projektnamen, um die Tabelle usa_names unter dem Dataset lake anzuzeigen.

usa_names table

  1. Klicken Sie auf die Tabelle und gehen Sie zum Tab Vorschau, um sich Beispiele zu den Daten aus usa_names anzeigen zu lassen.
Hinweis: Wenn Sie die Tabelle usa_names nicht sehen, aktualisieren Sie die Seite oder rufen Sie die Tabellen mit der klassischen BigQuery-Benutzeroberfläche auf.

Abgeschlossene Aufgabe testen

Klicken Sie auf Fortschritt prüfen.

Dataflow-Pipeline für Datenaufnahme erstellen

Aufgabe 10: Datentransformation

Sie erstellen nun eine Dataflow-Pipeline mit einer TextIO-Quelle und einem BigQuery-Ziel, um Dateien in BigQuery aufzunehmen. Dazu führen Sie die folgenden Schritte aus:

  • Nehmen Sie die Dateien aus Cloud Storage auf.
  • Konvertieren Sie die gelesenen Zeilen in Wörterbuchobjekte.
  • Wandeln Sie die Daten, die das Jahr enthalten, in ein Format um, das BigQuery als Datum versteht.
  • Geben Sie die Zeilen an BigQuery aus.

Python-Code der Transformationspipeline überprüfen

Öffnen Sie im Code-Editor die Datei data_transformation.py. Lesen Sie die Kommentare, in denen die Funktion des Codes erklärt wird.

Aufgabe 11: Dataflow-Transformationspipeline ausführen

Sie führen die Dataflow-Pipeline in der Cloud aus. Damit fahren Sie die erforderlichen Worker hoch und nach Abschluss wieder herunter.

  1. Führen Sie dafür die folgenden Befehle aus:
python dataflow_python_examples/data_transformation.py \ --project=$PROJECT \ --region={{{ project_0.default_region }}} \ --runner=DataflowRunner \ --machine_type=e2-standard-2 \ --staging_location=gs://$PROJECT/test \ --temp_location gs://$PROJECT/test \ --input gs://$PROJECT/data_files/head_usa_names.csv \ --save_main_session
  1. Klicken Sie im Navigationsmenü auf Dataflow und dann auf den Namen dieses Jobs, um dessen Status aufzurufen. Diese Dataflow-Pipeline benötigt ca. fünf Minuten, um zu starten, die Aufgabe auszuführen und dann herunterzufahren.

  2. Sobald der Jobstatus in Dataflow Erfolgreich lautet, gehen Sie zu BigQuery, um zu überprüfen, ob Ihre Daten dargestellt wurden.

  3. Die Tabelle usa_names_transformed sollte unter dem Dataset lake angezeigt werden.

  4. Klicken Sie auf die Tabelle und gehen Sie zum Tab Vorschau, um Beispiele zu den Daten aus usa_names_transformed aufzurufen.

Hinweis: Wenn Sie die Tabelle usa_names_transformed nicht sehen, aktualisieren Sie die Seite oder rufen Sie die Tabellen mit der klassischen BigQuery-Benutzeroberfläche auf.

Abgeschlossene Aufgabe testen

Klicken Sie auf Fortschritt prüfen.

Dataflow-Pipeline für Datentransformation erstellen

Aufgabe 12: Datenanreicherung

Sie erstellen nun eine Dataflow-Pipeline mit einer TextIO-Quelle und einem BigQuery-Ziel, um Dateien in BigQuery aufzunehmen. Dazu führen Sie die folgenden Schritte aus:

  • Nehmen Sie die Dateien aus Cloud Storage auf.
  • Filtern Sie die Kopfzeile in den Dateien heraus.
  • Konvertieren Sie die gelesenen Zeilen in Wörterbuchobjekte.
  • Geben Sie die Zeilen an BigQuery aus.

Aufgabe 13: Python-Code der Pipeline zur Datenanreicherung überprüfen

  1. Öffnen Sie im Code-Editor die Datei data_enrichment.py.

  2. Lesen Sie die Kommentare, in denen die Funktion des Codes erklärt wird. Wenn Sie diesen Code ausführen, werden die Daten in BigQuery dargestellt.

Die Zeile 83 sieht aktuell in etwa so aus:

values = [x.decode('utf8') for x in csv_row]
  1. Ändern Sie diese folgendermaßen:
values = [x for x in csv_row]
  1. Wenn Sie diese Zeile bearbeitet haben, müssen Sie die aktualisierte Datei speichern. Klicken Sie dazu im Drop-down-Menü Datei des Editors auf Speichern.

Aufgabe 14: Dataflow-Pipeline zur Datenanreicherung ausführen

Hier führen Sie die Dataflow-Pipeline in der Cloud aus.

  1. Führen Sie in Cloud Shell den folgenden Befehl aus, um die erforderlichen Worker hochzufahren und nach Abschluss herunterzufahren:
python dataflow_python_examples/data_enrichment.py \ --project=$PROJECT \ --region={{{ project_0.default_region }}} \ --runner=DataflowRunner \ --machine_type=e2-standard-2 \ --staging_location=gs://$PROJECT/test \ --temp_location gs://$PROJECT/test \ --input gs://$PROJECT/data_files/head_usa_names.csv \ --save_main_session
  1. Klicken Sie im Navigationsmenü auf Dataflow, um den Status Ihres Jobs anzuzeigen. Diese Dataflow-Pipeline benötigt ca. fünf Minuten, um zu starten, die Aufgabe auszuführen und dann herunterzufahren.

  2. Sobald der Jobstatus in Dataflow Erfolgreich lautet, rufen Sie BigQuery auf, um zu überprüfen, ob Ihre Daten eingefügt wurden.

Die Tabelle usa_names_enriched sollte unter dem Dataset lake angezeigt werden.

  1. Klicken Sie auf die Tabelle und gehen Sie zum Tab Vorschau, um Beispiele zu den Daten aus usa_names_enriched aufzurufen.
Hinweis: Wenn Sie die Tabelle usa_names_enriched nicht sehen, aktualisieren Sie die Seite oder rufen Sie die Tabellen mit der klassischen BigQuery-Benutzeroberfläche auf.

Ausgeführte Aufgabe zur Datenanreicherung testen

Klicken Sie auf Fortschritt prüfen.

Dataflow-Pipeline für Datenanreicherung erstellen

Aufgabe 15: Data Lake zu Mart und den Python-Code der Pipeline überprüfen

Als Nächstes erstellen Sie eine Dataflow-Pipeline, mit der Daten aus zwei BigQuery-Datenquellen gelesen und die Datenquellen dann verknüpft werden. Dabei führen Sie insbesondere Folgendes aus:

  • Nehmen Sie Dateien aus zwei BigQuery-Quellen auf.
  • Verbinden Sie die beiden Datenquellen miteinander.
  • Filtern Sie die Kopfzeile in den Dateien heraus.
  • Konvertieren Sie die gelesenen Zeilen in Wörterbuchobjekte.
  • Geben Sie die Zeilen an BigQuery aus.

Öffnen Sie im Code-Editor die Datei data_lake_to_mart.py. Lesen Sie die Kommentare, in denen die Funktion des Codes erklärt wird. Mit diesem Code werden zwei Tabellen verknüpft und deren Daten in BigQuery eingefügt.

Aufgabe 16: Durch Ausführung der Apache Beam-Pipeline die Daten verknüpfen und die Ergebnistabelle in BigQuery erstellen

Führen Sie jetzt die Dataflow-Pipeline in der Cloud aus.

  1. Führen Sie in Cloud Shell den folgenden Codeblock aus, um die erforderlichen Worker hochzufahren und nach Abschluss herunterzufahren:
python dataflow_python_examples/data_lake_to_mart.py \ --worker_disk_type="compute.googleapis.com/projects//zones//diskTypes/pd-ssd" \ --max_num_workers=4 \ --project=$PROJECT \ --runner=DataflowRunner \ --machine_type=e2-standard-2 \ --staging_location=gs://$PROJECT/test \ --temp_location gs://$PROJECT/test \ --save_main_session \ --region={{{ project_0.default_region }}}
  1. Gehen Sie zu Navigationsmenü > Dataflow und klicken Sie auf den Namen dieses neuen Jobs, um den Status aufzurufen. Diese Dataflow-Pipeline benötigt ca. fünf Minuten, um zu starten, die Aufgabe auszuführen und dann herunterzufahren.

  2. Sobald der Jobstatus in Dataflow Erfolgreich lautet, rufen Sie BigQuery auf, um zu überprüfen, ob Ihre Daten dargestellt wurden.

Die Tabelle orders_denormalized_sideinput sollte unter dem Dataset lake angezeigt werden.

  1. Klicken Sie auf die Tabelle und rufen Sie den Tab Vorschau auf, um Beispiele zu den Daten aus orders_denormalized_sideinputlake anzeigen zu lassen.
Hinweis: Wenn Sie die Tabelle orders_denormalized_sideinput nicht sehen, aktualisieren Sie die Seite oder rufen Sie die Tabellen mit der klassischen BigQuery-Benutzeroberfläche auf.

Ausgeführte JOIN-Aufgabe testen

Klicken Sie auf Fortschritt prüfen.

Dataflow-Pipeline für Data Lake zu Mart erstellen

Testen Sie Ihr Wissen

Im Folgenden stellen wir Ihnen einige Multiple-Choice-Fragen, um Ihr bisher erworbenes Wissen zu testen und zu festigen. Beantworten Sie die Fragen so gut Sie können.

Das wars! Sie haben das Lab erfolgreich abgeschlossen.

Sie haben Python-Code mithilfe von Dataflow ausgeführt, um Daten in BigQuery aufzunehmen und die Daten zu transformieren.

Weitere Informationen

Wenn Sie sich noch gründlicher informieren möchten, sehen Sie sich die offiziellen Dokumentationen zu folgenden Themen an:

Google Cloud-Schulungen und -Zertifizierungen

In unseren Schulungen erfahren Sie alles zum optimalen Einsatz unserer Google Cloud-Technologien und können sich entsprechend zertifizieren lassen. Unsere Kurse vermitteln technische Fähigkeiten und Best Practices, damit Sie möglichst schnell mit Google Cloud loslegen und Ihr Wissen fortlaufend erweitern können. Wir bieten On-Demand-, Präsenz- und virtuelle Schulungen für Anfänger wie Fortgeschrittene an, die Sie individuell in Ihrem eigenen Zeitplan absolvieren können. Mit unseren Zertifizierungen weisen Sie nach, dass Sie Experte im Bereich Google Cloud-Technologien sind.

Anleitung zuletzt am 11. Februar 2024 aktualisiert

Lab zuletzt am 12. Oktober 2023 getestet

© 2024 Google LLC. Alle Rechte vorbehalten. Google und das Google-Logo sind Marken von Google LLC. Alle anderen Unternehmens- und Produktnamen können Marken der jeweils mit ihnen verbundenen Unternehmen sein.

Diese Inhalte sind derzeit nicht verfügbar

Bei Verfügbarkeit des Labs benachrichtigen wir Sie per E-Mail

Sehr gut!

Bei Verfügbarkeit kontaktieren wir Sie per E-Mail