arrow_back

Dataplex でデータ品質を評価する

ログイン 参加
知識をテストして、コミュニティで共有しましょう
done
700 を超えるハンズオンラボ、スキルバッジ、コースへのアクセス

Dataplex でデータ品質を評価する

ラボ 1時間 30分 universal_currency_alt クレジット: 1 show_chart 入門
info このラボでは、学習をサポートする AI ツールが組み込まれている場合があります。
知識をテストして、コミュニティで共有しましょう
done
700 を超えるハンズオンラボ、スキルバッジ、コースへのアクセス

GSP1158

Google Cloud セルフペース ラボ

概要

Dataplex は、データレイク、データ ウェアハウス、データマートに分散したデータの一元的な検出、管理、モニタリング、統制を実現し、大規模な分析を支援するインテリジェントなデータ ファブリックです。

Dataplex の有用な機能は、BigQuery テーブルや Cloud Storage ファイルなどの Dataplex アセットに対してデータ品質チェックを定義して実行できることです。Dataplex のデータ品質タスクを使用すると、データ プロダクション パイプラインの一部であるデータの検証、一連の基準に対するデータ品質の定期的なモニタリング、規制要件に対応するためのデータ品質レポートの作成によって、データ品質チェックを日常のワークフローに統合することができます。

このラボでは、カスタムのデータ品質仕様ファイルを作成し、それを使用して BigQuery データに対するデータ品質ジョブを定義および実行することにより、Dataplex を使用してデータ品質を評価する方法を学習します。

演習内容

  • Dataplex のレイク、ゾーン、アセットを作成する
  • BigQuery テーブルに対してクエリを実行してデータ品質を確認する
  • データ品質仕様ファイルを作成してアップロードする
  • データ品質ジョブを定義して実行する
  • データ品質ジョブの結果を確認する

設定と要件

[ラボを開始] ボタンをクリックする前に

こちらの手順をお読みください。ラボの時間は記録されており、一時停止することはできません。[ラボを開始] をクリックするとスタートするタイマーは、Google Cloud のリソースを利用できる時間を示しています。

このハンズオンラボでは、シミュレーションやデモ環境ではなく、実際のクラウド環境を使ってご自身でラボのアクティビティを行うことができます。そのため、ラボの受講中に Google Cloud にログインおよびアクセスするための、新しい一時的な認証情報が提供されます。

このラボを完了するためには、下記が必要です。

  • 標準的なインターネット ブラウザ(Chrome を推奨)
注: このラボの実行には、シークレット モードまたはシークレット ブラウジング ウィンドウを使用してください。これにより、個人アカウントと受講者アカウント間の競合を防ぎ、個人アカウントに追加料金が発生することを防ぎます。
  • ラボを完了するために十分な時間を確保してください。ラボをいったん開始すると一時停止することはできません。
注: すでに個人の Google Cloud アカウントやプロジェクトをお持ちの場合でも、このラボでは使用しないでください。アカウントへの追加料金が発生する可能性があります。

ラボを開始して Google Cloud コンソールにログインする方法

  1. [ラボを開始] ボタンをクリックします。ラボの料金をお支払いいただく必要がある場合は、表示されるポップアップでお支払い方法を選択してください。 左側の [ラボの詳細] パネルには、以下が表示されます。

    • [Google Cloud コンソールを開く] ボタン
    • 残り時間
    • このラボで使用する必要がある一時的な認証情報
    • このラボを行うために必要なその他の情報(ある場合)
  2. [Google Cloud コンソールを開く] をクリックします(Chrome ブラウザを使用している場合は、右クリックして [シークレット ウィンドウでリンクを開く] を選択します)。

    ラボでリソースが起動し、別のタブで [ログイン] ページが表示されます。

    ヒント: タブをそれぞれ別のウィンドウで開き、並べて表示しておきましょう。

    注: [アカウントの選択] ダイアログが表示されたら、[別のアカウントを使用] をクリックします。
  3. 必要に応じて、下のユーザー名をコピーして、[ログイン] ダイアログに貼り付けます。

    {{{user_0.username | "Username"}}}

    [ラボの詳細] パネルでも [ユーザー名] を確認できます。

  4. [次へ] をクリックします。

  5. 以下のパスワードをコピーして、[ようこそ] ダイアログに貼り付けます。

    {{{user_0.password | "Password"}}}

    [ラボの詳細] パネルでも [パスワード] を確認できます。

  6. [次へ] をクリックします。

    重要: ラボで提供された認証情報を使用する必要があります。Google Cloud アカウントの認証情報は使用しないでください。 注: このラボでご自身の Google Cloud アカウントを使用すると、追加料金が発生する場合があります。
  7. その後次のように進みます。

    • 利用規約に同意してください。
    • 一時的なアカウントなので、復元オプションや 2 要素認証プロセスは設定しないでください。
    • 無料トライアルには登録しないでください。

その後、このタブで Google Cloud コンソールが開きます。

注: Google Cloud のプロダクトやサービスのリストを含むメニューを表示するには、左上のナビゲーション メニューをクリックします。ナビゲーション メニュー アイコン

Cloud Shell をアクティブにする

Cloud Shell は、開発ツールと一緒に読み込まれる仮想マシンです。5 GB の永続ホーム ディレクトリが用意されており、Google Cloud で稼働します。Cloud Shell を使用すると、コマンドラインで Google Cloud リソースにアクセスできます。

  1. Google Cloud コンソールの上部にある「Cloud Shell をアクティブにする」アイコン 「Cloud Shell をアクティブにする」アイコン をクリックします。

接続した時点で認証が完了しており、プロジェクトに各自の PROJECT_ID が設定されます。出力には、このセッションの PROJECT_ID を宣言する次の行が含まれています。

Your Cloud Platform project in this session is set to YOUR_PROJECT_ID

gcloud は Google Cloud のコマンドライン ツールです。このツールは、Cloud Shell にプリインストールされており、タブ補完がサポートされています。

  1. (省略可)次のコマンドを使用すると、有効なアカウント名を一覧表示できます。
gcloud auth list
  1. [承認] をクリックします。

  2. 出力は次のようになります。

出力:

ACTIVE: * ACCOUNT: student-01-xxxxxxxxxxxx@qwiklabs.net To set the active account, run: $ gcloud config set account `ACCOUNT`
  1. (省略可)次のコマンドを使用すると、プロジェクト ID を一覧表示できます。
gcloud config list project

出力:

[core] project = <project_ID>

出力例:

[core] project = qwiklabs-gcp-44776a13dea667a6 注: Google Cloud における gcloud ドキュメントの全文については、gcloud CLI の概要ガイドをご覧ください。

Dataproc API を有効にする

  1. Google Cloud コンソールの上部の検索バーに「Cloud Dataproc API」と入力します。

  2. [マーケットプレイス] の下に表示された検索結果の Cloud Dataproc API をクリックします。

  3. [有効にする] をクリックします。

タスク 1. Dataplex でレイク、ゾーン、アセットを作成する

データ品質タスクを定義して実行するには、まず Dataplex リソースを作成する必要があります。

このタスクでは、e コマースの顧客情報を保存するための新しい Dataplex レイクを作成し、そのレイクに未加工ゾーンを追加してから、事前に作成された BigQuery データセットをそのゾーン内の新しいアセットとしてアタッチします。

レイクを作成する

  1. Google Cloud コンソールのナビゲーション メニューナビゲーション メニュー)で、[分析] > [Dataplex] に移動します。

新しい Dataplex エクスペリエンスへようこそ」というメッセージが表示されたら、[閉じる] をクリックします。

  1. [レイクの管理] で [管理] をクリックします。

  2. [レイクを作成] をクリックします。

  3. 必要な情報を入力して新しいレイクを作成します。

プロパティ
表示名 Ecommerce Lake
ID デフォルト値のままにします。
リージョン

上記以外はデフォルト値のままにします。

  1. [作成] をクリックします。

レイクが作成されるまで 3 分ほどかかる場合があります。

ゾーンをレイクに追加する

  1. [管理] タブでレイクの名前をクリックします。

  2. [ゾーンを追加] をクリックします。

  3. 必要な情報を入力して新しいゾーンを作成します。

プロパティ
表示名 Customer Contact Raw Zone
ID デフォルト値のままにします。
タイプ 未加工ゾーン
データのロケーション リージョン

上記以外はデフォルト値のままにします。

たとえば、[検出の設定] の下の [メタデータの検出を有効にする] はデフォルトで有効になっており、許可されたユーザーはこのゾーン内のデータを検出できます。

  1. [作成] をクリックします。

ゾーンが作成されるまで 2 分ほどかかる場合があります。

ゾーンのステータスが [有効] になったら、次のタスクを行うことができます。

アセットをゾーンにアタッチする

  1. [ゾーン] タブでゾーンの名前をクリックします。

  2. [アセット] タブで [アセットを追加] をクリックします。

  3. [アセットを追加] をクリックします。

  4. 必要な情報を入力して新しいアセットをアタッチします。

プロパティ
タイプ BigQuery データセット
表示名 Contact Info
ID デフォルト値のままにします。
データセット .customers

上記以外はデフォルト値のままにします。

  1. [完了] をクリックします。

  2. [続行] をクリックします。

  3. [検出の設定] で [継承] を選択して、検出の設定をゾーンレベルから継承し、[続行] をクリックします。

  4. [送信] をクリックします。

[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。 Dataplex でレイク、ゾーン、アセットを作成する

タスク 2. BigQuery テーブルに対してクエリを実行してデータ品質を確認する

前のタスクで、このラボ用に事前に作成された customers という名前の BigQuery データセットから新しい Dataplex アセットを作成しました。このデータセットには、contact_info という名前のテーブルがあり、架空の e コマース企業の顧客の未加工連絡先情報が含まれています。

このタスクでは、このテーブルに対してクエリを実行し、データ品質ジョブにチェックとして含めることができる潜在的なデータ品質の問題を特定します。また、後のタスクでデータ品質ジョブの結果を保存するために使用できる、別の事前作成データセットも特定します。

  1. Google Cloud コンソールのナビゲーション メニューナビゲーション メニュー)で、[BigQuery] > [SQL ワークスペース] に移動します。

  2. [エクスプローラ] ペインで、プロジェクト ID の横にある矢印を開き、内容を一覧表示します。

このゾーンを管理するために Dataplex によって作成された customer_contact_raw_zone データセットに加えて、このラボ用に事前に作成された 2 つの BigQuery データセットがあります。

  • customers
  • customers_dq_dataset

customers という名前のデータセットには、contact_info という名前のテーブルが 1 つあり、顧客の連絡先情報が含まれています(お客様 ID、名前、メールなど)。このラボ全体を通して、データ品質の問題についてはこのテーブルを確認します。

customers_dq_dataset という名前のデータセットにはテーブルは含まれていません。後のタスクでデータ品質ジョブを定義するときに、このデータセットを、データ品質ジョブの結果を含む新しいテーブルの宛先として使用します。

BigQuery データセットのリスト

  1. SQL エディタで、[クエリを新規作成] をクリックします。次のクエリを貼り付けて、[実行] をクリックします。
SELECT * FROM `{{{project_0.project_id}}}.customers.contact_info` ORDER BY id LIMIT 50

このクエリは、元のテーブルからレコードを 50 件選択し、結果のお客様 ID ごとにレコードを並べ替えます。

  1. [結果] ペインの結果をスクロールして確認します。

レコードの中には、お客様 ID がなかったり、メールが正しくないものがあり、顧客の注文を管理するのが難しくなる場合があるのでご注意ください。

contact-info テーブル内の不完全なデータ

[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。 BigQuery テーブルに対してクエリを実行してデータ品質を確認する

タスク 3. データ品質仕様ファイルを作成してアップロードする

Dataplex のデータ品質チェック要件は、CloudDQ YAML 仕様ファイルを使用して定義されます。YAML 仕様ファイルは、作成後、データ品質ジョブがアクセス可能な Cloud Storage バケットにアップロードされます。

YAML ファイルには、次の 4 つの主要セクションがあります。

  • 実行するルールのリスト(事前定義済みルールまたはカスタマイズされたルール)
  • 検証のためにデータのサブセットを選択する行フィルタ
  • 定義されたルールをテーブルに適用するルール バインディング
  • YAML ファイルに含めることができるルールのタイプを指定するオプションのルール ディメンション

このタスクでは、指定した BigQuery テーブルで null であるお客様 ID とメールを特定するデータ品質チェック用の新しい YAML 仕様ファイルを定義します。ファイルを定義したら、後でデータ品質ジョブを実行するタスクで使用するために、事前に作成した Cloud Storage バケットにアップロードします。

データ品質仕様ファイルを作成する

  1. Cloud Shell で次のコマンドを実行して、空のデータ品質仕様のファイルを新規に作成します。
nano dq-customer-raw-data.yaml
  1. 次のコードを貼り付けます。
metadata_registry_defaults: dataplex: projects: {{{project_0.project_id | Project ID}}} locations: {{{project_0.default_region | Region}}} lakes: ecommerce-lake zones: customer-contact-raw-zone row_filters: NONE: filter_sql_expr: |- True INTERNATIONAL_ITEMS: filter_sql_expr: |- REGEXP_CONTAINS(item_id, 'INTNL') rule_dimensions: - consistency - correctness - duplication - completeness - conformance - integrity - timeliness - accuracy rules: NOT_NULL: rule_type: NOT_NULL dimension: completeness VALID_EMAIL: rule_type: REGEX dimension: conformance params: pattern: |- ^[^@]+[@]{1}[^@]+$ rule_bindings: VALID_CUSTOMER: entity_uri: bigquery://projects/{{{project_0.project_id | Project ID}}}/datasets/customers/tables/contact_info column_id: id row_filter_id: NONE rule_ids: - NOT_NULL VALID_EMAIL_ID: entity_uri: bigquery://projects/{{{project_0.project_id | Project ID}}}/datasets/customers/tables/contact_info column_id: email row_filter_id: NONE rule_ids: - VALID_EMAIL
  1. コードを確認して、このファイルで定義されている 2 つの主要なデータ品質ルールを特定します。

dq-customer-raw-data.yaml ファイルは、プロジェクト ID、リージョン、Dataplex レイクとゾーンの名前など、Dataplex リソースを特定するための主要なパラメータで始まります。

次に、許可されるルールのディメンションと 2 つの主要ルールを指定します。

  • NOT_NULL のルールは、null 値などの完全性のディメンションを参照します。
  • VALID_EMAIL のルールは、無効な値などの適合性のディメンションを参照します。

最後に、データ品質検証用のルール バインディングを使用して、ルールがエンティティ(テーブル)と列にバインディングされます。

  • VALID_CUSTOMER という名前の最初のルール バインディングは、NOT_NULL ルールを contact_info テーブルの id 列にバインドし、ID 列に NULL 値があるかどうかを検証します。
  • VALID_EMAIL_ID という名前の 2 番目のルール バインディングは、VALID_EMAIL ルールを contact_info テーブルの email 列にバインドし、有効なメールをチェックします。
  1. Ctrl+X を押してから Y を押し、ファイルを保存して閉じます。

Cloud Storage にファイルをアップロードする

  • Cloud Shell で次のコマンドを実行して、このラボ用に作成された Cloud Storage バケットにファイルをアップロードします。
gsutil cp dq-customer-raw-data.yaml gs://{{{project_0.project_id | Project ID}}}-bucket

[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。 データ品質仕様ファイルを作成してアップロードする

タスク 4. Dataplex でデータ品質ジョブを定義して実行する

データ品質プロセスは、データ品質仕様の YAML ファイルを使用してデータ品質ジョブを実行し、BigQuery データセットに書き込まれるデータ品質指標を生成します。

このタスクでは、前のタスクで Cloud Storage にアップロードしたデータ品質仕様の YAML ファイルを使用して、データ品質ジョブを定義して実行します。ジョブを定義するときに、customer_dq_dataset という名前の事前に作成された BigQuery データセットも指定して、データ品質の結果を保存します。

  1. Google Cloud コンソールのナビゲーション メニューナビゲーション メニュー)で、[分析] > [Dataplex] に移動します。

  2. [レイクの管理] で、[処理] をクリックします。

  3. [タスクを作成] をクリックします。

  4. [データ品質を確認する] で、[タスクを作成] をクリックします。

  5. 必要な情報を入力して新しいデータ品質ジョブを作成します。

プロパティ
Dataplex レイク ecommerce-lake
表示名 Customer Data Quality Job
ID デフォルト値のままにします。
Select GCS file -bucket/dq-customer-raw-data.yaml
BigQuery データセットを選択 .customers_dq_dataset
BigQuery テーブル dq_results
ユーザー サービス アカウント Compute Engine のデフォルトのサービス アカウント

上記以外はデフォルト値のままにします。

Compute Engine のデフォルトのサービス アカウントは、適切な IAM のロールと権限を持つように、このラボ用に事前に設定されていることに注意してください。詳細については、Dataplex のドキュメント サービス アカウントを作成するをご覧ください。

  1. [続行] をクリックします。

  2. [開始] で、[今すぐ] を選択します。

  3. [作成] をクリックします。

ジョブの実行には数分かかることがあり、ジョブが正常に実行されたことを確認するためにページの更新が必要になる場合があります。

成功した場合のジョブのステータス

[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。 Dataplex でデータ品質ジョブを定義して実行する

タスク 5. BigQuery でのデータ品質の結果の確認

このタスクでは、customers_dq_dataset のテーブルを確認して、お客様 ID の値がないレコードや、メールの値が無効なレコードを特定します。

  1. Google Cloud コンソールのナビゲーション メニューナビゲーション メニュー)で、[BigQuery] > [SQL ワークスペース] に移動します。

  2. [エクスプローラ] ペインで、プロジェクト ID の横にある矢印を開き、内容を一覧表示します。

  3. customer_dq_dataset データセットの横にある矢印を開きます。

  4. dq_summary テーブルをクリックします。

  5. [プレビュー] タブをクリックして結果を確認します。

dq summary テーブルは、データ品質仕様ファイルの 2 つのルールに準拠していないことが特定されたレコードの数など、全体的なデータ品質に関する有用な情報を提供します。

  1. failed_records_query という名前の最後の列までスクロールします。

  2. 最初の行の下矢印をクリックしてテキストを開き、VALID_EMAIL ルールの結果のクエリ全体を表示します。

このクエリはとても長く、ORDER BY _dq_validation_rule_id で終了していることに注意してください。

  1. [クエリを新規作成] をクリックします。クエリを SQL エディタにコピーした貼り付け、[実行] をクリックします。

クエリの結果は、contact_info テーブルのメールの値が有効ではないことを示しています。

VALID_EMAIL のデータ品質の結果

  1. VALID_CUSTOMER ルールの結果のクエリを含む 2 番目のセルについて、ステップ 7~8 を繰り返します。

このクエリの結果は、contact_info テーブルに ID 値が欠落しているレコードが 10 件あることを示しています。

VALID_CUSTOMER のデータ品質の結果

[進行状況を確認] をクリックして、目標に沿って進んでいることを確認します。 BigQuery テーブルでのデータ品質の結果の確認

お疲れさまでした

カスタムのデータ品質仕様ファイルを作成し、それを使用して BigQuery テーブルに対してデータ品質ジョブを実行することで、Dataplex を使用してデータ品質を評価しました。

Google Cloud トレーニングと認定資格

Google Cloud トレーニングと認定資格を通して、Google Cloud 技術を最大限に活用できるようになります。必要な技術スキルとベスト プラクティスについて取り扱うクラスでは、学習を継続的に進めることができます。トレーニングは基礎レベルから上級レベルまであり、オンデマンド、ライブ、バーチャル参加など、多忙なスケジュールにも対応できるオプションが用意されています。認定資格を取得することで、Google Cloud テクノロジーに関するスキルと知識を証明できます。

マニュアルの最終更新日: 2023 年 7 月 4 日

ラボの最終テスト日: 2023 年 7 月 4 日

Copyright 2025 Google LLC All rights reserved. Google および Google のロゴは Google LLC の商標です。その他すべての企業名および商品名はそれぞれ各社の商標または登録商標です。

このコンテンツは現在ご利用いただけません

利用可能になりましたら、メールでお知らせいたします

ありがとうございます。

利用可能になりましたら、メールでご連絡いたします