チェックポイント
Run a simple Dataflow job
/ 25
Run a simple Dataproc job
/ 25
Use the Google Cloud Speech API
/ 25
Use the Cloud Natural Language API
/ 25
Prepare Data for ML APIs on Google Cloud: チャレンジラボ
GSP323
概要
チャレンジラボでは、シナリオと一連のタスクが提供されます。手順ガイドに沿って進める形式ではなく、コース内のラボで習得したスキルを駆使して、ご自身でタスクを完了していただきます。タスクが適切に完了したかどうかは、このページに表示される自動スコアリング システムで確認できます。
チャレンジラボは、Google Cloud の新しいコンセプトについて学習するためのものではありません。デフォルト値を変更する、エラー メッセージを読み調査を行ってミスを修正するなど、習得したスキルを応用する能力が求められます。
100% のスコアを達成するには、制限時間内に全タスクを完了する必要があります。
このラボは、「Prepare Data for ML APIs on Google Cloud」スキルバッジに登録している受講者を対象としています。準備が整ったらチャレンジを開始しましょう。
テスト対象トピック:
- 簡単な Dataproc ジョブを作成する
- 簡単な DataFlow ジョブを作成する
- Google 機械学習に基づく 2 つの API タスクを実行する
設定
[ラボを開始] ボタンをクリックする前に
こちらの手順をお読みください。ラボの時間は記録されており、一時停止することはできません。[ラボを開始] をクリックするとスタートするタイマーは、Google Cloud のリソースを利用できる時間を示しています。
このハンズオンラボでは、シミュレーションやデモ環境ではなく、実際のクラウド環境を使ってご自身でラボのアクティビティを行うことができます。そのため、ラボの受講中に Google Cloud にログインおよびアクセスするための、新しい一時的な認証情報が提供されます。
このラボを完了するためには、下記が必要です。
- 標準的なインターネット ブラウザ(Chrome を推奨)
- ラボを完了するために十分な時間を確保してください。ラボをいったん開始すると一時停止することはできません。
ラボを開始して Google Cloud コンソールにログインする方法
-
[ラボを開始] ボタンをクリックします。ラボの料金をお支払いいただく必要がある場合は、表示されるポップアップでお支払い方法を選択してください。 左側の [ラボの詳細] パネルには、以下が表示されます。
- [Google Cloud コンソールを開く] ボタン
- 残り時間
- このラボで使用する必要がある一時的な認証情報
- このラボを行うために必要なその他の情報(ある場合)
-
[Google Cloud コンソールを開く] をクリックします(Chrome ブラウザを使用している場合は、右クリックして [シークレット ウィンドウでリンクを開く] を選択します)。
ラボでリソースが起動し、別のタブで [ログイン] ページが表示されます。
ヒント: タブをそれぞれ別のウィンドウで開き、並べて表示しておきましょう。
注: [アカウントの選択] ダイアログが表示されたら、[別のアカウントを使用] をクリックします。 -
必要に応じて、下のユーザー名をコピーして、[ログイン] ダイアログに貼り付けます。
{{{user_0.username | "Username"}}} [ラボの詳細] パネルでも [ユーザー名] を確認できます。
-
[次へ] をクリックします。
-
以下のパスワードをコピーして、[ようこそ] ダイアログに貼り付けます。
{{{user_0.password | "Password"}}} [ラボの詳細] パネルでも [パスワード] を確認できます。
-
[次へ] をクリックします。
重要: ラボで提供された認証情報を使用する必要があります。Google Cloud アカウントの認証情報は使用しないでください。 注: このラボでご自身の Google Cloud アカウントを使用すると、追加料金が発生する場合があります。 -
その後次のように進みます。
- 利用規約に同意してください。
- 一時的なアカウントなので、復元オプションや 2 要素認証プロセスは設定しないでください。
- 無料トライアルには登録しないでください。
その後、このタブで Google Cloud コンソールが開きます。
プロジェクトの権限を確認する
Google Cloud で作業を開始する前に、Identity and Access Management(IAM)内で適切な権限がプロジェクトに付与されていることを確認する必要があります。
-
Google Cloud コンソールのナビゲーション メニューで、[IAM と管理] > [IAM] を選択します。
-
Compute Engine のデフォルトのサービス アカウント
{project-number}-compute@developer.gserviceaccount.com
が存在し、編集者
とサーバー管理者
のロールが割り当てられていることを確認します。アカウントの接頭辞はプロジェクト番号で、ナビゲーション メニュー > [Cloud の概要] > [ダッシュボード] から確認できます。
サーバー管理者
のロールがない場合は、以下の手順に沿って必要なロールを割り当てます。- Google Cloud コンソールのナビゲーション メニューで、[Cloud の概要] > [ダッシュボード] をクリックします。
- プロジェクト番号(例:
729328892908
)をコピーします。 - ナビゲーション メニューで、[IAM と管理] > [IAM] を選択します。
- ロールの表の上部で、[プリンシパル別に表示] の下にある [アクセス権を付与] をクリックします。
- [新しいプリンシパル] に次のように入力します。
-
{project-number}
はプロジェクト番号に置き換えてください。 - [ロール] で [ストレージ管理者] を選択します。
- [保存] をクリックします。
チャレンジ シナリオ
あなたは Jooli Inc. のジュニア データ エンジニアです。最近 Google Cloud と複数のデータサービスに関するトレーニングを受けました。あなたは、新しく習得したスキルのデモを行うことを求められています。チームから、次のタスクの実施を求められました。
これらのタスクのスキルや知識があるという前提のため、手順ガイドは提供されません。
タスク 1. 簡単な Dataflow ジョブを実行する
このタスクでは、[Process Data in Bulk (batch)] にある Dataflow バッチ テンプレート「Text Files on Cloud Storage to BigQuery」を使用して、Cloud Storage バケット(gs://cloud-training/gsp323/lab.csv
)からデータを転送します。次の表に、Dataflow ジョブを正しく構成するために必要な値を示します。
次のことが完了していることを確認する必要があります。
-
というテーブルを含む という名前の BigQuery データセットを作成します。 -
という Cloud Storage バケットを作成します。
フィールド | 値 |
---|---|
Cloud Storage 入力ファイル | gs://cloud-training/gsp323/lab.csv |
BigQuery スキーマ ファイルの Cloud Storage のロケーション | gs://cloud-training/gsp323/lab.schema |
BigQuery 出力テーブル |
|
BigQuery 読み込みプロセスで使用する一時ディレクトリ |
|
一時的なロケーション |
|
[オプション パラメータ] > [Cloud Storage 内の JavaScript UDF パス] | gs://cloud-training/gsp323/lab.js |
[オプション パラメータ] > [JavaScript UDF 名] | transform |
[オプション パラメータ] > [マシンタイプ] | e2-standard-2 |
ジョブが終了するまで待ってから進行状況を確認します。
[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。
タスク 2. 簡単な Dataproc ジョブを実行する
このタスクでは、Dataproc を使用して Spark ジョブのサンプルを実行します。
ジョブを実行する前に、クラスタノードの 1 つにログインし、/data.txt ファイルを hdfs にコピーします(コマンド hdfs dfs -cp gs://cloud-training/gsp323/data.txt /data.txt
を使用)。
以下の値を使用して Dataproc ジョブを実行します。
フィールド | 値 |
---|---|
リージョン |
|
ジョブタイプ | Spark |
メインクラスまたは JAR | org.apache.spark.examples.SparkPageRank |
JAR ファイル | file:///usr/lib/spark/examples/jars/spark-examples.jar |
引数 | /data.txt |
1 時間あたりの再起動回数の上限 | 1 |
Dataproc クラスタ | Compute Engine |
リージョン |
|
マシンシリーズ | E2 |
マネージャー ノード | [マシンタイプ] を e2-standard-2 に設定します |
ワーカーノード | [マシンタイプ] を e2-standard-2 に設定します |
最大ワーカーノード | 2 |
メインディスクのサイズ | 100 GB |
内部 IP のみ | [すべてのインスタンスが内部 IP アドレスのみを持つように構成します] の選択を解除する |
ジョブが終了するまで待ってから進行状況を確認します。
[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。
タスク 3. Google Cloud Speech-to-Text API を使用する
- Google Cloud Speech-to-Text API を使用して、音声ファイル
gs://cloud-training/gsp323/task3.flac
を分析します。ファイルを分析した後、結果ファイルをにアップロードします。
[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。
タスク 4. Cloud Natural Language API を使用する
- Cloud Natural Language API を使用して、Odin に関するテキストからの文を分析します。 分析対象のテキストは「Old Norse texts portray Odin as one-eyed and long-bearded, frequently wielding a spear named Gungnir and wearing a cloak and a broad hat.」です。テキストを分析した後、結果ファイルを
にアップロードします。
[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。
お疲れさまでした
これで完了です。このラボでは、簡単な Dataflow ジョブと Dataproc ジョブを実行し、Google Cloud Speech-to-Text API と Cloud Natural Language API を使用してスキルを確認しました。
このセルフペース ラボは、「Prepare Data for ML APIs on Google Cloud」スキルバッジ コースの一部です。このスキルバッジを完了すると成果が認められて、上のようなバッジが贈られます。獲得したバッジを履歴書やソーシャル プラットフォームに記載し、#GoogleCloudBadge を使用して成果を公表しましょう。
このスキルバッジは、Google Cloud のデータ アナリストとデータ エンジニア向け学習プログラムの一部です。
Google Cloud トレーニングと認定資格
Google Cloud トレーニングと認定資格を通して、Google Cloud 技術を最大限に活用できるようになります。必要な技術スキルとベスト プラクティスについて取り扱うクラスでは、学習を継続的に進めることができます。トレーニングは基礎レベルから上級レベルまであり、オンデマンド、ライブ、バーチャル参加など、多忙なスケジュールにも対応できるオプションが用意されています。認定資格を取得することで、Google Cloud テクノロジーに関するスキルと知識を証明できます。
マニュアルの最終更新日: 2024 年 3 月 25 日
ラボの最終テスト日: 2024 年 1 月 15 日
Copyright 2024 Google LLC All rights reserved. Google および Google のロゴは Google LLC の商標です。その他すべての企業名および商品名はそれぞれ各社の商標または登録商標です。