
Before you begin
- Labs create a Google Cloud project and resources for a fixed time
- Labs have a time limit and no pause feature. If you end the lab, you'll have to restart from the beginning.
- On the top left of your screen, click Start lab to begin
Create a Cloud Storage bucket
/ 50
Run an Example Pipeline Remotely
/ 50
Apache Beam SDK は、データ パイプライン用のオープンソースのプログラミング モデルです。Google Cloud では、Apache Beam プログラムを使用してパイプラインを定義し、Dataflow を使用してパイプラインを実行できます。
このラボでは、(Apache Beam SDK for Python を使用して)Dataflow 用の Python 開発環境をセットアップし、サンプルの Dataflow パイプラインを実行します。
このラボでは、次の方法について学びます。
こちらの手順をお読みください。ラボの時間は記録されており、一時停止することはできません。[ラボを開始] をクリックするとスタートするタイマーは、Google Cloud のリソースを利用できる時間を示しています。
このハンズオンラボでは、シミュレーションやデモ環境ではなく、実際のクラウド環境を使ってご自身でラボのアクティビティを行うことができます。そのため、ラボの受講中に Google Cloud にログインおよびアクセスするための、新しい一時的な認証情報が提供されます。
このラボを完了するためには、下記が必要です。
[ラボを開始] ボタンをクリックします。ラボの料金をお支払いいただく必要がある場合は、表示されるダイアログでお支払い方法を選択してください。 左側の [ラボの詳細] ペインには、以下が表示されます。
[Google Cloud コンソールを開く] をクリックします(Chrome ブラウザを使用している場合は、右クリックして [シークレット ウィンドウで開く] を選択します)。
ラボでリソースがスピンアップし、別のタブで [ログイン] ページが表示されます。
ヒント: タブをそれぞれ別のウィンドウで開き、並べて表示しておきましょう。
必要に応じて、下のユーザー名をコピーして、[ログイン] ダイアログに貼り付けます。
[ラボの詳細] ペインでもユーザー名を確認できます。
[次へ] をクリックします。
以下のパスワードをコピーして、[ようこそ] ダイアログに貼り付けます。
[ラボの詳細] ペインでもパスワードを確認できます。
[次へ] をクリックします。
その後次のように進みます。
その後、このタブで Google Cloud コンソールが開きます。
Cloud Shell は、開発ツールと一緒に読み込まれる仮想マシンです。5 GB の永続ホーム ディレクトリが用意されており、Google Cloud で稼働します。Cloud Shell を使用すると、コマンドラインで Google Cloud リソースにアクセスできます。
接続した時点で認証が完了しており、プロジェクトに各自の PROJECT_ID が設定されます。出力には、このセッションの PROJECT_ID を宣言する次の行が含まれています。
gcloud
は Google Cloud のコマンドライン ツールです。このツールは、Cloud Shell にプリインストールされており、タブ補完がサポートされています。
[承認] をクリックします。
出力は次のようになります。
出力:
出力:
出力例:
gcloud
ドキュメントの全文については、gcloud CLI の概要ガイドをご覧ください。
必要な API にアクセスできることを確認するには、Dataflow API への接続をリセットします。
Cloud コンソールの上部の検索バーに「Dataflow API」と入力します。検索結果の「Dataflow API」をクリックします。
[管理] をクリックします。
[API を無効にする] をクリックします。
確認を求められたら、[無効にする] をクリックします。
API が再度有効になると、ページに無効にするオプションが表示されます。
Dataflow を使用してパイプラインを実行すると、結果が Cloud Storage バケットに保存されます。このタスクでは、後のタスクで実行するパイプラインの結果を保存するための Cloud Storage バケットを作成します。
us
[作成] をクリックします。
[公開アクセスの防止] というメッセージが表示されたら、[確認] をクリックします。
完了したタスクをテストする
[進行状況を確認] をクリックして、実行したタスクを確認します。タスクが正常に完了すると、評価スコアが付与されます。
Python3.9
Docker イメージを実行します。このコマンドによって、Docker コンテナと Python 3.9 の最新の安定バージョンが pull され、コマンドシェルが開き、コンテナ内で次のコマンドが実行されます。
依存関係に関連する警告がいくつか表示されます。このラボでは、それらの警告は無視しても問題ありません。
wordcount.py
をローカルで実行します。次のようなメッセージが表示される場合があります。
このメッセージは無視しても問題ありません。
OUTPUT_FILE
の名前を取得できます。OUTPUT_FILE
の名前をコピーし、cat
でその内容を表示します。結果として、ファイル内の各単語とその出現回数が表示されます。
wordcount.py
をリモートで実行してみましょう。出力に次のメッセージが表示されるまで待ちます。
ラボの手順を続行します。
最初は、wordcount ジョブの [ステータス] が [実行中] と表示されているはずです。
ステータスが [完了] になったら処理が完了しています。
完了したタスクをテストする
[進行状況を確認] をクリックして、実行したタスクを確認します。タスクが正常に完了すると、評価スコアが付与されます。
Cloud コンソールで、ナビゲーション メニュー > [Cloud Storage] の順にクリックします。
バケットの名前をクリックします。バケットに results および staging ディレクトリがあることを確認できます。
results フォルダをクリックすると、ジョブで作成された出力ファイルを確認できます。
ファイルをクリックして、中に記載されている単語数を確認します。
今回のラボで学習した内容の理解を深めていただくために、以下の多岐選択問題を用意しました。正解を目指して頑張ってください。
(Apache Beam SDK for Python を使用して)Dataflow 用の Python 開発環境をセットアップする方法を学習し、サンプルの Dataflow パイプラインを実行しました。
このラボは Qwik Start と呼ばれるラボシリーズの一部です。これらのラボでは、Google Cloud で利用できる多くの機能を体験できます。Google Cloud Skills Boost カタログで「Qwik Start」を検索し、興味のあるラボを探してみてください。
このラボの基になった書籍『Data Science on the Google Cloud Platform(O'Reilly Media, Inc)』を入手することもできます。
Google Cloud トレーニングと認定資格を通して、Google Cloud 技術を最大限に活用できるようになります。必要な技術スキルとベスト プラクティスについて取り扱うクラスでは、学習を継続的に進めることができます。トレーニングは基礎レベルから上級レベルまであり、オンデマンド、ライブ、バーチャル参加など、多忙なスケジュールにも対応できるオプションが用意されています。認定資格を取得することで、Google Cloud テクノロジーに関するスキルと知識を証明できます。
マニュアルの最終更新日: 2024 年 2 月 4 日
ラボの最終テスト日: 2023 年 5 月 4 日
Copyright 2025 Google LLC All rights reserved. Google および Google のロゴは Google LLC の商標です。その他すべての企業名および商品名はそれぞれ各社の商標または登録商標です。
このコンテンツは現在ご利用いただけません
利用可能になりましたら、メールでお知らせいたします
ありがとうございます。
利用可能になりましたら、メールでご連絡いたします
One lab at a time
Confirm to end all existing labs and start this one