
Before you begin
- Labs create a Google Cloud project and resources for a fixed time
- Labs have a time limit and no pause feature. If you end the lab, you'll have to restart from the beginning.
- On the top left of your screen, click Start lab to begin
Disable and re-enable the Dataflow API
/ 20
Create a BigQuery Dataset (name: taxirides)
/ 20
Create a table in BigQuery Dataset
/ 20
Create a Cloud Storage bucket
/ 20
Run the Pipeline
/ 20
このラボでは、Google の Dataflow テンプレートの一つを使用してストリーミング パイプラインを作成する方法を学習します。具体的には、Pub/Sub to BigQuery テンプレートを使用して、Pub/Sub トピックから JSON 形式のメッセージを読み取り、BigQuery テーブルに push します。このテンプレートに関するドキュメントは、Google 提供のテンプレートの使用に関するガイドでご確認いただけます。
BigQuery データセットとテーブルを作成するには、Cloud Shell コマンドラインまたは Cloud コンソールを使用します。いずれかの方法を選択して、ラボの作業を進めてください。両方の方法を試したい場合は、このラボを 2 回行ってください。
こちらの説明をお読みください。ラボには時間制限があり、一時停止することはできません。タイマーは、Google Cloud のリソースを利用できる時間を示しており、[ラボを開始] をクリックするとスタートします。
このハンズオンラボでは、シミュレーションやデモ環境ではなく実際のクラウド環境を使って、ラボのアクティビティを行います。そのため、ラボの受講中に Google Cloud にログインおよびアクセスするための、新しい一時的な認証情報が提供されます。
このラボを完了するためには、下記が必要です。
[ラボを開始] ボタンをクリックします。ラボの料金をお支払いいただく必要がある場合は、表示されるダイアログでお支払い方法を選択してください。 左側の [ラボの詳細] ペインには、以下が表示されます。
[Google Cloud コンソールを開く] をクリックします(Chrome ブラウザを使用している場合は、右クリックして [シークレット ウィンドウで開く] を選択します)。
ラボでリソースがスピンアップし、別のタブで [ログイン] ページが表示されます。
ヒント: タブをそれぞれ別のウィンドウで開き、並べて表示しておきましょう。
必要に応じて、下のユーザー名をコピーして、[ログイン] ダイアログに貼り付けます。
[ラボの詳細] ペインでもユーザー名を確認できます。
[次へ] をクリックします。
以下のパスワードをコピーして、[ようこそ] ダイアログに貼り付けます。
[ラボの詳細] ペインでもパスワードを確認できます。
[次へ] をクリックします。
その後次のように進みます。
その後、このタブで Google Cloud コンソールが開きます。
Cloud Shell は、開発ツールと一緒に読み込まれる仮想マシンです。5 GB の永続ホーム ディレクトリが用意されており、Google Cloud で稼働します。Cloud Shell を使用すると、コマンドラインで Google Cloud リソースにアクセスできます。
Google Cloud コンソールの上部にある「Cloud Shell をアクティブにする」アイコン をクリックします。
ウィンドウで次の操作を行います。
接続した時点で認証が完了しており、プロジェクトに各自の Project_ID、
gcloud
は Google Cloud のコマンドライン ツールです。このツールは、Cloud Shell にプリインストールされており、タブ補完がサポートされています。
出力:
出力:
gcloud
ドキュメントの全文については、gcloud CLI の概要ガイドをご覧ください。
必要な API にアクセスできることを確認するには、Dataflow API に接続し直します。
Cloud コンソールの上部の検索バーに「Dataflow API」と入力します。検索結果の「Dataflow API」をクリックします。
[管理] をクリックします。
[API を無効にする] をクリックします。
確認を求められたら、[無効にする] をクリックします。
API が再度有効になると、ページに無効にするオプションが表示されます。
完了したタスクをテストする
[進行状況を確認] をクリックして、実行したタスクを確認します。
まず BigQuery のデータセットとテーブルを作成します。
bq
コマンドライン ツールを使用します。Cloud コンソールを使用してこれらの手順を完了する場合は、タスク 3 までスキップしてください。taxirides
というデータセットを作成します。出力は次のようになります。
完了したタスクをテストする
[進行状況を確認] をクリックして、実行したタスクを確認します。BigQuery データセットが正常に作成されている場合は、評価スコアが表示されます。
これでデータセットが作成されました。次のステップでこれを使用して、BigQuery テーブルをインスタンス化します。
出力は次のようになります。
完了したタスクをテストする
[進行状況を確認] をクリックして、実行したタスクを確認します。BigQuery データセットにテーブルが正常に作成されている場合は、評価スコアが表示されます。
一見すると、bq mk
コマンドは少し複雑に見えますが、BigQuery コマンドラインのドキュメントを参照するとその内容を理解できます。たとえば、スキーマについては次のような説明が記載されています。
[FIELD]
:[DATA_TYPE]
, [FIELD]
:[DATA_TYPE]
形式の列定義のカンマ区切りリスト。この例では、後者のカンマ区切りのリストを使用します。
テーブルをインスタンス化できたら、次はバケットを作成します。
プロジェクト ID をバケット名として使用し、グローバルに一意の名前を確保します。
完了したタスクをテストする
[進行状況を確認] をクリックして、実行したタスクを確認します。Cloud Storage バケットが正常に作成されている場合は、評価スコアが表示されます。
バケットを作成したら、「パイプラインを実行する」セクションまで下にスクロールします。
左側のメニューの [ビッグデータ] セクションで [BigQuery] をクリックします。
次に [完了] をクリックします。
[エクスプローラ] でプロジェクト名の横にあるその他アイコンをクリックし、[データセットを作成] をクリックします。
データセット ID として「taxirides
」を入力します。
[データのロケーション] で、[US(米国の複数のリージョン)] を選択します。
その他のデフォルト設定はすべてそのままにし、[データセットを作成] をクリックします。
完了したタスクをテストする
[進行状況を確認] をクリックして、実行したタスクを確認します。BigQuery データセットが正常に作成されている場合は、評価スコアが表示されます。
コンソールの左側にあるプロジェクト ID の下に taxirides
データセットが表示されます。
taxirides
データセットの横にあるその他アイコンをクリックし、[開く] を選択します。
コンソールの右側にある [テーブルを作成] を選択します。
[送信先] > [テーブル] に「realtime
」と入力します。
[スキーマ] で、[テキストとして編集] スライダーを切り替えて次のように入力します。
コンソールは次のようになります。
完了したタスクをテストする
[進行状況を確認] をクリックして、実行したタスクを確認します。BigQuery データセットにテーブルが正常に作成されている場合は、評価スコアが表示されます。
Cloud コンソールに戻り、[Cloud Storage] > [バケット] > [作成] に移動します。
プロジェクト ID をバケット名として使用し、グローバルに一意の名前を確保します。
その他のデフォルト設定はそのままにして、[作成] をクリックします。
完了したタスクをテストする
[進行状況を確認] をクリックして、実行したタスクを確認します。Cloud Storage バケットが正常に作成されている場合は、評価スコアが表示されます。
Dataflow テンプレートをデプロイします。
Google Cloud コンソールのナビゲーション メニューで [Dataflow] > [ジョブ] をクリックすると Dataflow ジョブが表示されます。
詳しくは、ドキュメントをご覧ください。
完了したタスクをテストする
[進行状況を確認] をクリックして、実行したタスクを確認します。Dataflow パイプラインが正常に実行されている場合は、評価スコアが表示されます。
リソースがビルドされ、使用できる状態になります。
それでは、ナビゲーション メニューにある [BigQuery] をクリックして、BigQuery に書き込まれたデータを見てみましょう。
クエリは、標準 SQL を使用して送信できます。
問題やエラーが発生した場合は、クエリを再実行してください(パイプラインの起動には数分かかります)。
これで Pub/Sub トピックから 1,000 件のタクシー乗車データが pull され、BigQuery テーブルに push されました。実際に確認したように、テンプレートは Dataflow ジョブを実行するための実用的で使いやすい方法です。Dataflow ドキュメントの Google 提供のテンプレートの使用に関するガイドで、他の Google テンプレートについてもぜひご確認ください。
今回のラボで学習した内容の理解を深めていただくため、以下の多肢選択問題を用意しました。正解を目指して頑張ってください。
Pub/Sub to BigQuery Dataflow テンプレートを使用してストリーミング パイプラインを作成しました。このパイプラインは、Pub/Sub トピックから JSON 形式のメッセージを読み取り、BigQuery テーブルに push します。
このラボは Qwik Start と呼ばれるラボシリーズの一部です。これらのラボでは、Google Cloud で利用できる多くの機能を体験できます。Google Cloud Skills Boost カタログで「Qwik Start」を検索し、興味のあるラボを探してみてください。
Google Cloud トレーニングと認定資格を通して、Google Cloud 技術を最大限に活用できるようになります。必要な技術スキルとベスト プラクティスについて取り扱うクラスでは、学習を継続的に進めることができます。トレーニングは基礎レベルから上級レベルまであり、オンデマンド、ライブ、バーチャル参加など、多忙なスケジュールにも対応できるオプションが用意されています。認定資格を取得することで、Google Cloud テクノロジーに関するスキルと知識を証明できます。
マニュアルの最終更新日: 2024 年 2 月 4 日
ラボの最終テスト日: 2023 年 11 月 10 日
Copyright 2025 Google LLC. All rights reserved. Google および Google のロゴは Google LLC の商標です。その他すべての企業名および商品名はそれぞれ各社の商標または登録商標です。
このコンテンツは現在ご利用いただけません
利用可能になりましたら、メールでお知らせいたします
ありがとうございます。
利用可能になりましたら、メールでご連絡いたします
One lab at a time
Confirm to end all existing labs and start this one