arrow_back

在 Google Cloud 上使用 Dataflow 和 BigQuery 處理 ETL 作業 (Python)

登录 加入
欢迎加入我们的社区,一起测试和分享您的知识!
done
学习 700 多个动手实验和课程并获得相关技能徽章

在 Google Cloud 上使用 Dataflow 和 BigQuery 處理 ETL 作業 (Python)

实验 1 小时 universal_currency_alt 5 积分 show_chart 中级
info 此实验可能会提供 AI 工具来支持您学习。
欢迎加入我们的社区,一起测试和分享您的知识!
done
学习 700 多个动手实验和课程并获得相关技能徽章

GSP290

Google Cloud 自修研究室標誌

總覽

在 Google Cloud 中,您可以建構執行 Python 程式碼的資料 pipeline,進而透過下列 Google Cloud 服務擷取公開資料集的資料並轉換至 BigQuery:

  • Cloud Storage
  • Dataflow
  • BigQuery

在本實驗室中,您將使用上述服務自行建立資料 pipeline,同時需考量設計要點和導入細節,確保原型符合要求。在操作過程中,務必按照說明開啟 Python 檔案並詳閱當中的註解。

學習內容

本實驗室的內容包括:

  • 建構及執行 Dataflow pipeline (Python) 來擷取資料
  • 建構及執行 Dataflow pipeline (Python) 來轉換及擴充資料

設定和需求

點選「Start Lab」按鈕前的須知事項

請詳閱以下操作說明。研究室活動會計時,而且中途無法暫停。點選「Start Lab」 後就會開始計時,讓您瞭解有多少時間可以使用 Google Cloud 資源。

您將在真正的雲端環境中完成實作研究室活動,而不是在模擬或示範環境。為達此目的,我們會提供新的暫時憑證,讓您用來在研究室活動期間登入及存取 Google Cloud。

如要完成這個研究室活動,請先確認:

  • 您可以使用標準的網際網路瀏覽器 (Chrome 瀏覽器為佳)。
注意:請使用無痕模式或私密瀏覽視窗執行此研究室。這可以防止個人帳戶和學生帳戶之間的衝突,避免個人帳戶產生額外費用。
  • 是時候完成研究室活動了!別忘了,活動一開始將無法暫停。
注意:如果您擁有個人 Google Cloud 帳戶或專案,請勿用於本研究室,以免產生額外費用。

如何開始研究室及登入 Google Cloud 控制台

  1. 按一下「Start Lab」(開始研究室) 按鈕。如果研究室會產生費用,畫面中會出現選擇付款方式的彈出式視窗。左側的「Lab Details」窗格會顯示下列項目:

    • 「Open Google Cloud console」按鈕
    • 剩餘時間
    • 必須在這個研究室中使用的暫時憑證
    • 完成這個實驗室所需的其他資訊 (如有)
  2. 點選「Open Google Cloud console」;如果使用 Chrome 瀏覽器,也能按一下滑鼠右鍵,然後選取「在無痕式視窗中開啟連結」

    接著,實驗室會啟動相關資源並開啟另一個分頁,當中顯示「登入」頁面。

    提示:您可以在不同的視窗中並排開啟分頁。

    注意:如果頁面中顯示「選擇帳戶」對話方塊,請點選「使用其他帳戶」
  3. 如有必要,請將下方的 Username 貼到「登入」對話方塊。

    {{{user_0.username | "Username"}}}

    您也可以在「Lab Details」窗格找到 Username

  4. 點選「下一步」

  5. 複製下方的 Password,並貼到「歡迎使用」對話方塊。

    {{{user_0.password | "Password"}}}

    您也可以在「Lab Details」窗格找到 Password

  6. 點選「下一步」

    重要事項:請務必使用實驗室提供的憑證,而非自己的 Google Cloud 帳戶憑證。 注意:如果使用自己的 Google Cloud 帳戶來進行這個實驗室,可能會產生額外費用。
  7. 按過後續的所有頁面:

    • 接受條款及細則。
    • 由於這是臨時帳戶,請勿新增救援選項或雙重驗證機制。
    • 請勿申請免費試用。

Google Cloud 控制台稍後會在這個分頁開啟。

注意:如要查看列出 Google Cloud 產品和服務的選單,請點選左上角的「導覽選單」「導覽選單」圖示

啟動 Cloud Shell

Cloud Shell 是搭載多項開發工具的虛擬機器,提供永久的 5 GB 主目錄,而且在 Google Cloud 中運作。Cloud Shell 提供指令列存取權,方便您使用 Google Cloud 資源。

  1. 點按 Google Cloud 控制台上方的「啟用 Cloud Shell」圖示 「啟動 Cloud Shell」圖示

連線完成即代表已通過驗證,且專案已設為您的 PROJECT_ID。輸出內容中有一行宣告本工作階段 PROJECT_ID 的文字:

您在本工作階段中的 Cloud Platform 專案會設為「YOUR_PROJECT_ID」

gcloud 是 Google Cloud 的指令列工具,已預先安裝於 Cloud Shell,並支援 Tab 鍵自動完成功能。

  1. (選用) 您可以執行下列指令來列出使用中的帳戶:
gcloud auth list
  1. 點按「授權」

  2. 輸出畫面應如下所示:

輸出內容:

ACTIVE: * ACCOUNT: student-01-xxxxxxxxxxxx@qwiklabs.net To set the active account, run: $ gcloud config set account `ACCOUNT`
  1. (選用) 您可以使用下列指令來列出專案 ID:
gcloud config list project

輸出內容:

[core] project = <project_ID>

輸出內容範例:

[core] project = qwiklabs-gcp-44776a13dea667a6 附註:如需有關 gcloud 的完整說明,請前往 Google Cloud 並參閱「gcloud CLI overview guide」(gcloud CLI 總覽指南)。

工作 1:確定已成功啟用 Dataflow API

為確保能使用必要的 API,請重新啟動連至 Dataflow API 的連線。

注意:即使 API 已啟用,仍請按照下方步驟 1 至 4 停用 API,然後再次啟用,確保成功重新啟動 API。
  1. 在 Cloud 控制台最上方的搜尋列中,輸入「Dataflow API」。點選「Dataflow API」搜尋結果。

  2. 點選「管理」

  3. 點選「停用 API」

如果系統要求您確認操作,請點選「停用」

  1. 點選「啟用」。

API 重新啟用後,頁面上會顯示停用選項。

測試已完成的工作

點選「Check my progress」確認工作已完成。

停用並重新啟用 Dataflow API

工作 2:下載範例程式碼

  1. 在 Cloud Shell 中執行下列指令,從 Google Cloud 的專業服務 GitHub 下載 Dataflow Python 範例程式碼:
gsutil -m cp -R gs://spls/gsp290/dataflow-python-examples .
  1. 接著在 Cloud Shell 中,將變數設為您的專案 ID。
export PROJECT={{{ project_0.project_id }}} gcloud config set project $PROJECT

工作 3:建立 Cloud Storage 值區

  • 在 Cloud Shell 中使用 make bucket 指令,為專案的「」區域建立新的區域值區:
gsutil mb -c regional -l {{{ project_0.default_region }}} gs://$PROJECT

測試已完成的工作

點選「Check my progress」確認工作已完成。

建立 Cloud Storage 值區

工作 4:將檔案複製到值區

  • 在 Cloud Shell 中使用 gsutil 指令,將檔案複製到剛才建立的 Cloud Storage 值區:
gsutil cp gs://spls/gsp290/data_files/usa_names.csv gs://$PROJECT/data_files/ gsutil cp gs://spls/gsp290/data_files/head_usa_names.csv gs://$PROJECT/data_files/

測試已完成的工作

點選「Check my progress」確認工作已完成。

將檔案複製到值區

工作 5:建立 BigQuery 資料集

  • 在 Cloud Shell 中建立名為 lake 的 BigQuery 資料集,所有載入 BigQuery 的資料表都會存放在這裡:
bq mk lake

測試已完成的工作

點選「Check my progress」確認工作已完成。

建立 BigQuery 資料集 (名稱:lake)

工作 6:建構 Dataflow pipeline

在本節中,您將建立僅供附加的 Dataflow pipeline,以便將資料擷取至 BigQuery 資料表。您可以使用內建的程式碼編輯器,查看及編輯 Google Cloud 控制台中的程式碼。

僅供附加的 Dataflow pipeline 圖表

開啟 Cloud Shell 程式碼編輯器

  1. 在 Cloud Shell 中點按「開啟編輯器」圖示,以瀏覽原始碼

「開啟編輯器」圖示

  1. 如果出現提示訊息,請點按「在新視窗中開啟」。程式碼編輯器會在新視窗中開啟。您可以透過 Cloud Shell 編輯器,在 Cloud Shell 環境中編輯檔案。只要點按「編輯器」部分的「開啟終端機」,即可返回 Cloud Shell

工作 7:使用 Dataflow pipeline 擷取資料

現在請使用 TextIO 來源和 BigQueryIO 目的地建構 Dataflow pipeline,將資料擷取至 BigQuery。具體來說,這個 pipeline 應能完成以下工作:

  • 從 Cloud Storage 擷取檔案。
  • 篩除檔案的標題列。
  • 將讀取的資料行轉換為字典物件。
  • 將資料列輸出至 BigQuery。

工作 8:查看 pipeline 的 Python 程式碼

在「程式碼編輯器」中,依序前往「dataflow-python-examples」>「dataflow_python_examples」,然後開啟「data_ingestion.py」檔案。請詳閱檔案註解,瞭解程式碼的作用。這個程式碼將填入 BigQuery 的 lake 資料集和資料表。

程式碼編輯器

工作 9:執行 Apache Beam pipeline

  1. 進行這個步驟時,請返回 Cloud Shell 工作階段,設定稍後需要用到的 Python 程式庫。

本實驗室的 Dataflow 工作需要使用 Python3.8。為確保您使用的是正確版本,您將在 Python 3.8 Docker 容器中執行 Dataflow 程序。

  1. 在 Cloud Shell 中執行下列指令,啟動 Python 容器:
docker run -it -e PROJECT=$PROJECT -v $(pwd)/dataflow-python-examples:/dataflow python:3.8 /bin/bash

這個指令會使用最新的 Python 3.8 穩定版提取 Docker 容器,並執行指令殼層,在容器中執行後續指令。-v 旗標會提供原始碼做為容器的 volume,以便您在 Cloud Shell 編輯器中編輯程式碼,同時繼續在執行中的容器內存取原始碼。

  1. 當容器提取完畢並開始在 Cloud Shell 中執行時,請透過下列指令,在該容器中安裝 apache-beam
pip install apache-beam[gcp]==2.59.0
  1. 接著在 Cloud Shell,將執行中容器的目錄變更為連結原始碼的位置:
cd dataflow/

在雲端執行 Dataflow 資料擷取 pipeline

  1. 執行下列指令來啟動所需工作站,並在完成作業後將其關閉:
python dataflow_python_examples/data_ingestion.py \ --project=$PROJECT --region={{{ project_0.default_region }}} \ --runner=DataflowRunner \ --machine_type=e2-standard-2 \ --staging_location=gs://$PROJECT/test \ --temp_location gs://$PROJECT/test \ --input gs://$PROJECT/data_files/head_usa_names.csv \ --save_main_session
  1. 返回 Cloud 控制台,然後依序開啟「導覽選單」>「Dataflow」,查看工作狀態。

依序開啟「導覽選單」>「Dataflow」

  1. 點按工作名稱並查看其進度。「工作狀態」顯示「已完成」時,您即可前往下一個步驟。這個 Dataflow pipeline 從啟動、完成工作到關閉所需的時間約為五分鐘。

  2. 前往 BigQuery (依序點按「導覽選單」>「BigQuery」) 查看資料是否已填入。

依序點按「導覽選單」>「BigQuery」

  1. 點按專案名稱,查看 lake 資料集底下的「usa_names」資料表。

usa_names 資料表

  1. 點按資料表,然後前往「預覽」分頁查看 usa_names 資料範例。
注意:如果找不到 usa_names 資料表,請重新整理頁面,或使用傳統版 BigQuery 使用者介面查看。

測試已完成的工作

點選「Check my progress」確認工作已完成。

建構 Dataflow 資料擷取 pipeline

工作 10:資料轉換

現在請使用 TextIO 來源和 BigQueryIO 目的地建構 Dataflow pipeline,將資料擷取至 BigQuery。具體來說,這個 pipeline 應能完成以下工作:

  • 從 Cloud Storage 擷取檔案。
  • 將讀取的資料行轉換為字典物件。
  • 將包含年份的資料轉換成 BigQuery 可理解的日期格式。
  • 將資料列輸出至 BigQuery。

查看轉換 pipeline Python 程式碼

在程式碼編輯器中,開啟「data_transformation.py」檔案。請詳閱檔案註解,瞭解程式碼的作用。

工作 11:執行 Dataflow 資料轉換 pipeline

請在雲端執行 Dataflow pipeline,整個程序包括啟動所需工作站,並在完成作業後將其關閉。

  1. 執行下列指令來進行這項工作:
python dataflow_python_examples/data_transformation.py \ --project=$PROJECT \ --region={{{ project_0.default_region }}} \ --runner=DataflowRunner \ --machine_type=e2-standard-2 \ --staging_location=gs://$PROJECT/test \ --temp_location gs://$PROJECT/test \ --input gs://$PROJECT/data_files/head_usa_names.csv \ --save_main_session
  1. 依序前往「導覽選單」>「Dataflow」,然後點按工作名稱來查看工作狀態。這個 Dataflow pipeline 從啟動、完成工作到關閉所需的時間約為五分鐘。

  2. 「工作狀態」畫面顯示 Dataflow 工作狀態為「已完成」後,請前往「BigQuery」檢查資料是否已填入。

  3. 您應該會在 lake 資料集下方看到「usa_names_transformed」資料表。

  4. 點按資料表,然後前往「預覽」分頁查看「usa_names_transformed」資料樣本。

注意:如果找不到 usa_names_transformed 資料表,請重新整理頁面,或使用傳統版 BigQuery 使用者介面查看。

測試已完成的工作

點選「Check my progress」確認工作已完成。

建構 Dataflow 資料轉換 pipeline

工作 12:資料擴充

現在請使用 TextIO 來源和 BigQueryIO 目的地建構 Dataflow pipeline,將資料擷取至 BigQuery。具體來說,這個 pipeline 應能完成以下工作:

  • 從 Cloud Storage 擷取檔案。
  • 篩除檔案的標題列。
  • 將讀取的資料行轉換為字典物件。
  • 將資料列輸出至 BigQuery。

工作 13:查看資料擴充 pipeline Python 程式碼

  1. 在程式碼編輯器中,開啟「data_enrichment.py」檔案。

  2. 詳閱註解,瞭解程式碼的作用。這個程式碼會將資料填入 BigQuery。

目前第 83 行程式碼看起來像這樣:

values = [x.decode('utf8') for x in csv_row]
  1. 請將程式碼編輯成跟下方一樣:
values = [x for x in csv_row]
  1. 這行程式碼編輯完成後,記得選取編輯器的「檔案」下拉式選單,然後點按「儲存」,儲存更新後的檔案。

工作 14:執行 Dataflow 資料擴充 pipeline

在這項工作中,您將在雲端執行 Dataflow pipeline。

  1. 請在 Cloud Shell 中執行下列指令來啟動所需工作站,並在完成作業後將其關閉:
python dataflow_python_examples/data_enrichment.py \ --project=$PROJECT \ --region={{{ project_0.default_region }}} \ --runner=DataflowRunner \ --machine_type=e2-standard-2 \ --staging_location=gs://$PROJECT/test \ --temp_location gs://$PROJECT/test \ --input gs://$PROJECT/data_files/head_usa_names.csv \ --save_main_session
  1. 依序前往「導覽選單」>「Dataflow」,查看工作狀態。這個 Dataflow pipeline 從啟動、完成工作到關閉所需的時間約為五分鐘。

  2. 「工作狀態」畫面顯示 Dataflow 工作狀態為「已完成」後,請前往「BigQuery」檢查資料是否已填入。

您應該會在 lake 資料集底下看到「usa_names_enriched」資料表。

  1. 點按資料表,然後前往「預覽」分頁查看「usa_names_enriched」資料樣本。
注意:如果找不到 usa_names_enriched 資料表,請重新整理頁面,或使用傳統版 BigQuery 使用者介面查看。

測試完成的資料擴充工作

點選「Check my progress」確認工作已完成。

建構 Dataflow 資料擴充 pipeline

工作 15:彙整資料湖泊與資料市集並檢查 pipeline Python 程式碼

現在,請建構並使用 Dataflow pipeline,從兩個 BigQuery 資料來源讀取資料,然後彙整資料來源。具體來說,這個 pipeline 應能完成以下工作:

  • 從兩個 BigQuery 來源擷取檔案。
  • 彙整兩個資料來源。
  • 篩除檔案的標題列。
  • 將讀取的資料行轉換為字典物件。
  • 將資料列輸出至 BigQuery。

在「程式碼編輯器」中,開啟「data_lake_to_mart.py」檔案。請詳閱檔案註解,瞭解程式碼的作用。這個程式碼會彙整兩份資料表,並將彙整後的資料填入 BigQuery。

工作 16:透過 Apache Beam pipeline 執行資料彙整作業,在 BigQuery 中建立結果資料表

在這項工作中,您將在雲端執行 Dataflow pipeline。

  1. 請在 Cloud Shell 中執行下列程式碼區塊來啟動所需工作站,並在完成作業後將其關閉:
python dataflow_python_examples/data_lake_to_mart.py \ --worker_disk_type="compute.googleapis.com/projects//zones//diskTypes/pd-ssd" \ --max_num_workers=4 \ --project=$PROJECT \ --runner=DataflowRunner \ --machine_type=e2-standard-2 \ --staging_location=gs://$PROJECT/test \ --temp_location gs://$PROJECT/test \ --save_main_session \ --region={{{ project_0.default_region }}}
  1. 依序前往「導覽選單」>「Dataflow」,然後點按工作名稱,查看這項新工作的狀態。這個 Dataflow pipeline 從啟動、完成工作到關閉所需的時間約為五分鐘。

  2. 「工作狀態」畫面顯示 Dataflow 工作狀態為「已完成」後,請前往「BigQuery」檢查資料是否已填入。

您應該會在 lake 資料集下方看到「orders_denormalized_sideinput」資料表。

  1. 點按資料表,然後前往「預覽」分頁查看 orders_denormalized_sideinput 資料樣本。
注意:如果找不到 orders_denormalized_sideinput 資料表,請重新整理頁面,或使用傳統版 BigQuery 使用者介面查看。

測試完成的彙整工作

點選「Check my progress」確認工作已完成。

建構 Dataflow 資料湖泊與資料市集彙整 pipeline

隨堂測驗

您可透過下列選擇題更清楚本實驗室的概念。盡力回答即可。

恭喜!

您已順利使用 Dataflow 執行 Python 程式碼,將資料擷取至 BigQuery 並轉換資料。

後續步驟/瞭解詳情

想瞭解更多資訊嗎?歡迎瀏覽以下官方說明文件:

Google Cloud 教育訓練與認證

協助您瞭解如何充分運用 Google Cloud 的技術。我們的課程會介紹專業技能和最佳做法,讓您可以快速掌握要領並持續進修。我們提供從基本到進階等級的訓練課程,並有隨選、線上和虛擬課程等選項,方便您抽空參加。認證可協助您驗證及證明自己在 Google Cloud 技術方面的技能和專業知識。

使用手冊上次更新日期:2024 年 2 月 11 日

實驗室上次測試日期:2023 年 10 月 12 日

Copyright 2024 Google LLC 保留所有權利。Google 和 Google 標誌是 Google LLC 的商標,其他公司和產品名稱則有可能是其關聯公司的商標。

此内容目前不可用

一旦可用,我们会通过电子邮件告知您

太好了!

一旦可用,我们会通过电子邮件告知您