
准备工作
- 实验会创建一个 Google Cloud 项目和一些资源,供您使用限定的一段时间
- 实验有时间限制,并且没有暂停功能。如果您中途结束实验,则必须重新开始。
- 在屏幕左上角,点击开始实验即可开始
Disable and re-enable the Dataflow API
/ 10
Create a Cloud Storage Bucket
/ 10
Copy Files to Your Bucket
/ 10
Create the BigQuery Dataset (name: lake)
/ 20
Build a Data Ingestion Dataflow Pipeline
/ 10
Build a Data Transformation Dataflow Pipeline
/ 10
Build a Data Enrichment Dataflow Pipeline
/ 10
Build a Data lake to Mart Dataflow Pipeline
/ 20
在 Google Cloud 中,您可以建構執行 Python 程式碼的資料 pipeline,進而透過下列 Google Cloud 服務擷取公開資料集的資料並轉換至 BigQuery:
在本實驗室中,您將使用上述服務自行建立資料 pipeline,同時需考量設計要點和導入細節,確保原型符合要求。在操作過程中,務必按照說明開啟 Python 檔案並詳閱當中的註解。
本實驗室的內容包括:
請詳閱以下操作說明。實驗室活動會計時,且中途無法暫停。點選「Start Lab」後就會開始計時,顯示可使用 Google Cloud 資源的時間。
您將在真正的雲端環境完成實作實驗室活動,而不是模擬或示範環境。為此,我們會提供新的暫時憑證,供您在實驗室活動期間登入及存取 Google Cloud。
為了順利完成這個實驗室,請先確認:
點選「Start Lab」按鈕。如果實驗室會產生費用,畫面上會出現選擇付款方式的對話方塊。左側的「Lab Details」窗格會顯示下列項目:
點選「Open Google Cloud console」;如果使用 Chrome 瀏覽器,也能按一下滑鼠右鍵,選取「在無痕視窗中開啟連結」。
接著,實驗室會啟動相關資源,並開啟另一個分頁,顯示「登入」頁面。
提示:您可以在不同的視窗中並排開啟分頁。
如有必要,請將下方的 Username 貼到「登入」對話方塊。
您也可以在「Lab Details」窗格找到 Username。
點選「下一步」。
複製下方的 Password,並貼到「歡迎使用」對話方塊。
您也可以在「Lab Details」窗格找到 Password。
點選「下一步」。
按過後續的所有頁面:
Google Cloud 控制台稍後會在這個分頁開啟。
Cloud Shell 是搭載多項開發工具的虛擬機器,提供永久的 5 GB 主目錄,而且在 Google Cloud 中運作。Cloud Shell 提供指令列存取權,方便您使用 Google Cloud 資源。
點按 Google Cloud 控制台頂端的「啟用 Cloud Shell」圖示 。
系統顯示視窗時,請按照下列步驟操作:
連線建立完成即代表已通過驗證,而且專案已設為您的 Project_ID:
gcloud
是 Google Cloud 的指令列工具,已預先安裝於 Cloud Shell,並支援 Tab 鍵自動完成功能。
輸出內容:
輸出內容:
gcloud
的完整說明,請前往 Google Cloud 參閱 gcloud CLI 總覽指南。
為確保能使用必要的 API,請重新啟動連至 Dataflow API 的連線。
在 Cloud 控制台最上方的搜尋列中,輸入「Dataflow API」。點選「Dataflow API」搜尋結果。
點選「管理」。
點選「停用 API」。
如果系統要求您確認操作,請點選「停用」。
API 重新啟用後,頁面上會顯示停用選項。
點選「Check my progress」確認工作已完成。
點選「Check my progress」確認工作已完成。
gsutil
指令,將檔案複製到剛才建立的 Cloud Storage 值區:點選「Check my progress」確認工作已完成。
lake
的 BigQuery 資料集,所有載入 BigQuery 的資料表都會存放在這裡:點選「Check my progress」確認工作已完成。
在本節中,您將建立僅供附加的 Dataflow pipeline,以便將資料擷取至 BigQuery 資料表。您可以使用內建的程式碼編輯器,查看及編輯 Google Cloud 控制台中的程式碼。
現在請使用 TextIO 來源和 BigQueryIO 目的地建構 Dataflow pipeline,將資料擷取至 BigQuery。具體來說,這個 pipeline 應能完成以下工作:
在「程式碼編輯器」中,依序前往「dataflow-python-examples
」>「dataflow_python_examples
」,然後開啟「data_ingestion.py
」檔案。請詳閱檔案註解,瞭解程式碼的作用。這個程式碼將填入 BigQuery 的 lake 資料集和資料表。
本實驗室的 Dataflow 工作需要使用 Python3.8
。為確保您使用的是正確版本,您將在 Python 3.8 Docker 容器中執行 Dataflow 程序。
這個指令會使用最新的 Python 3.8 穩定版提取 Docker 容器,並執行指令殼層,在容器中執行後續指令。-v
旗標會提供原始碼做為容器的 volume
,以便您在 Cloud Shell 編輯器中編輯程式碼,同時繼續在執行中的容器內存取原始碼。
apache-beam
:點按工作名稱並查看其進度。「工作狀態」顯示「已完成」時,您即可前往下一個步驟。這個 Dataflow pipeline 從啟動、完成工作到關閉所需的時間約為五分鐘。
前往 BigQuery (依序點按「導覽選單」>「BigQuery」) 查看資料是否已填入。
lake
資料集底下的「usa_names」資料表。
usa_names
資料範例。usa_names
資料表,請重新整理頁面,或使用傳統版 BigQuery 使用者介面查看。
點選「Check my progress」確認工作已完成。
現在請使用 TextIO 來源和 BigQueryIO 目的地建構 Dataflow pipeline,將資料擷取至 BigQuery。具體來說,這個 pipeline 應能完成以下工作:
在程式碼編輯器中,開啟「data_transformation.py
」檔案。請詳閱檔案註解,瞭解程式碼的作用。
請在雲端執行 Dataflow pipeline,整個程序包括啟動所需工作站,並在完成作業後將其關閉。
依序前往「導覽選單」>「Dataflow」,然後點按工作名稱來查看工作狀態。這個 Dataflow pipeline 從啟動、完成工作到關閉所需的時間約為五分鐘。
「工作狀態」畫面顯示 Dataflow 工作狀態為「已完成」後,請前往「BigQuery」檢查資料是否已填入。
您應該會在 lake
資料集下方看到「usa_names_transformed」資料表。
點按資料表,然後前往「預覽」分頁查看「usa_names_transformed
」資料樣本。
usa_names_transformed
資料表,請重新整理頁面,或使用傳統版 BigQuery 使用者介面查看。
點選「Check my progress」確認工作已完成。
現在請使用 TextIO 來源和 BigQueryIO 目的地建構 Dataflow pipeline,將資料擷取至 BigQuery。具體來說,這個 pipeline 應能完成以下工作:
在程式碼編輯器中,開啟「data_enrichment.py
」檔案。
詳閱註解,瞭解程式碼的作用。這個程式碼會將資料填入 BigQuery。
目前第 83 行程式碼看起來像這樣:
在這項工作中,您將在雲端執行 Dataflow pipeline。
依序前往「導覽選單」>「Dataflow」,查看工作狀態。這個 Dataflow pipeline 從啟動、完成工作到關閉所需的時間約為五分鐘。
「工作狀態」畫面顯示 Dataflow 工作狀態為「已完成」後,請前往「BigQuery」檢查資料是否已填入。
您應該會在 lake
資料集底下看到「usa_names_enriched」資料表。
usa_names_enriched
」資料樣本。usa_names_enriched
資料表,請重新整理頁面,或使用傳統版 BigQuery 使用者介面查看。
點選「Check my progress」確認工作已完成。
現在,請建構並使用 Dataflow pipeline,從兩個 BigQuery 資料來源讀取資料,然後彙整資料來源。具體來說,這個 pipeline 應能完成以下工作:
在「程式碼編輯器」中,開啟「data_lake_to_mart.py
」檔案。請詳閱檔案註解,瞭解程式碼的作用。這個程式碼會彙整兩份資料表,並將彙整後的資料填入 BigQuery。
在這項工作中,您將在雲端執行 Dataflow pipeline。
依序前往「導覽選單」>「Dataflow」,然後點按工作名稱,查看這項新工作的狀態。這個 Dataflow pipeline 從啟動、完成工作到關閉所需的時間約為五分鐘。
「工作狀態」畫面顯示 Dataflow 工作狀態為「已完成」後,請前往「BigQuery」檢查資料是否已填入。
您應該會在 lake
資料集下方看到「orders_denormalized_sideinput」資料表。
orders_denormalized_sideinput
資料樣本。orders_denormalized_sideinput
資料表,請重新整理頁面,或使用傳統版 BigQuery 使用者介面查看。
點選「Check my progress」確認工作已完成。
您可透過下列選擇題更清楚本實驗室的概念。盡力回答即可。
您已順利使用 Dataflow 執行 Python 程式碼,將資料擷取至 BigQuery 並轉換資料。
想瞭解更多資訊嗎?歡迎瀏覽以下官方說明文件:
協助您瞭解如何充分運用 Google Cloud 的技術。我們的課程會介紹專業技能和最佳做法,讓您可以快速掌握要領並持續進修。我們提供從基本到進階等級的訓練課程,並有隨選、線上和虛擬課程等選項,方便您抽空參加。認證可協助您驗證及證明自己在 Google Cloud 技術方面的技能和專業知識。
使用手冊上次更新日期:2024 年 2 月 11 日
實驗室上次測試日期:2023 年 10 月 12 日
Copyright 2025 Google LLC 保留所有權利。Google 和 Google 標誌是 Google LLC 的商標,其他公司和產品名稱則有可能是其關聯公司的商標。
此内容目前不可用
一旦可用,我们会通过电子邮件告知您
太好了!
一旦可用,我们会通过电子邮件告知您
一次一个实验
确认结束所有现有实验并开始此实验