arrow_back

Dataflow:Qwik Start - Python

登录 加入
欢迎加入我们的社区,一起测试和分享您的知识!
done
学习 700 多个动手实验和课程并获得相关技能徽章

Dataflow:Qwik Start - Python

实验 30 分钟 universal_currency_alt 1 积分 show_chart 入门级
info 此实验可能会提供 AI 工具来支持您学习。
欢迎加入我们的社区,一起测试和分享您的知识!
done
学习 700 多个动手实验和课程并获得相关技能徽章

GSP207

Google Cloud 自修研究室標誌

總覽

Apache Beam SDK 是一種用於資料管道的開放原始碼程式設計模型。在 Google Cloud 中,您可以使用 Apache Beam 程式定義管道,並透過 Dataflow 執行管道。

在本研究室中,您會運用 Apache Beam SDK for Python 為 Dataflow 設定 Python 開發環境,並執行 Dataflow 範例管道。

學習內容

本研究室的內容包括:

  • 建立儲存 Dataflow 管道結果的 Cloud Storage 值區
  • 安裝 Apache Beam SDK for Python
  • 從遠端執行 Dataflow 管道

設定和需求

點選「Start Lab」按鈕前的須知事項

請詳閱以下操作說明。研究室活動會計時,而且中途無法暫停。點選「Start Lab」 後就會開始計時,讓您瞭解有多少時間可以使用 Google Cloud 資源。

您將在真正的雲端環境中完成實作研究室活動,而不是在模擬或示範環境。為達此目的,我們會提供新的暫時憑證,讓您用來在研究室活動期間登入及存取 Google Cloud。

如要完成這個研究室活動,請先確認:

  • 您可以使用標準的網際網路瀏覽器 (Chrome 瀏覽器為佳)。
注意:請使用無痕模式或私密瀏覽視窗執行此研究室。這可以防止個人帳戶和學生帳戶之間的衝突,避免個人帳戶產生額外費用。
  • 是時候完成研究室活動了!別忘了,活動一開始將無法暫停。
注意:如果您擁有個人 Google Cloud 帳戶或專案,請勿用於本研究室,以免產生額外費用。

如何開始研究室及登入 Google Cloud 控制台

  1. 按一下「Start Lab」(開始研究室) 按鈕。如果研究室會產生費用,畫面中會出現選擇付款方式的彈出式視窗。左側的「Lab Details」窗格會顯示下列項目:

    • 「Open Google Cloud console」按鈕
    • 剩餘時間
    • 必須在這個研究室中使用的暫時憑證
    • 完成這個實驗室所需的其他資訊 (如有)
  2. 點選「Open Google Cloud console」;如果使用 Chrome 瀏覽器,也能按一下滑鼠右鍵,然後選取「在無痕式視窗中開啟連結」

    接著,實驗室會啟動相關資源並開啟另一個分頁,當中顯示「登入」頁面。

    提示:您可以在不同的視窗中並排開啟分頁。

    注意:如果頁面中顯示「選擇帳戶」對話方塊,請點選「使用其他帳戶」
  3. 如有必要,請將下方的 Username 貼到「登入」對話方塊。

    {{{user_0.username | "Username"}}}

    您也可以在「Lab Details」窗格找到 Username

  4. 點選「下一步」

  5. 複製下方的 Password,並貼到「歡迎使用」對話方塊。

    {{{user_0.password | "Password"}}}

    您也可以在「Lab Details」窗格找到 Password

  6. 點選「下一步」

    重要事項:請務必使用實驗室提供的憑證,而非自己的 Google Cloud 帳戶憑證。 注意:如果使用自己的 Google Cloud 帳戶來進行這個實驗室,可能會產生額外費用。
  7. 按過後續的所有頁面:

    • 接受條款及細則。
    • 由於這是臨時帳戶,請勿新增救援選項或雙重驗證機制。
    • 請勿申請免費試用。

Google Cloud 控制台稍後會在這個分頁開啟。

注意:如要查看列出 Google Cloud 產品和服務的選單,請點選左上角的「導覽選單」「導覽選單」圖示

啟動 Cloud Shell

Cloud Shell 是搭載多項開發工具的虛擬機器,提供永久的 5 GB 主目錄,而且在 Google Cloud 中運作。Cloud Shell 提供指令列存取權,方便您使用 Google Cloud 資源。

  1. 點按 Google Cloud 控制台上方的「啟用 Cloud Shell」圖示 「啟動 Cloud Shell」圖示

連線完成即代表已通過驗證,且專案已設為您的 PROJECT_ID。輸出內容中有一行宣告本工作階段 PROJECT_ID 的文字:

您在本工作階段中的 Cloud Platform 專案會設為「YOUR_PROJECT_ID」

gcloud 是 Google Cloud 的指令列工具,已預先安裝於 Cloud Shell,並支援 Tab 鍵自動完成功能。

  1. (選用) 您可以執行下列指令來列出使用中的帳戶:
gcloud auth list
  1. 點按「授權」

  2. 輸出畫面應如下所示:

輸出內容:

ACTIVE: * ACCOUNT: student-01-xxxxxxxxxxxx@qwiklabs.net To set the active account, run: $ gcloud config set account `ACCOUNT`
  1. (選用) 您可以使用下列指令來列出專案 ID:
gcloud config list project

輸出內容:

[core] project = <project_ID>

輸出內容範例:

[core] project = qwiklabs-gcp-44776a13dea667a6 附註:如需有關 gcloud 的完整說明,請前往 Google Cloud 並參閱「gcloud CLI overview guide」(gcloud CLI 總覽指南)。

設定區域

  • 在 Cloud Shell 中執行下列指令,設定這個研究室的專案區域:
gcloud config set compute/region {{{project_0.default_region | "REGION"}}}

確定已成功啟用 Dataflow API

為了確保能使用必要的 API,請重新啟動連至 Dataflow API 的連線。

  1. 在 Cloud 控制台最上方的搜尋列中,輸入「Dataflow API」。點選「Dataflow API」搜尋結果。

  2. 點選「管理」

  3. 點選「停用 API」

如果系統要求您確認操作,請點選「停用」

  1. 點選「啟用」。

再次啟用 API 時,頁面上會顯示停用選項。

工作 1:建立 Cloud Storage 值區

透過 Dataflow 執行管道時,結果會儲存於 Cloud Storage 值區。在這項工作中,您會建立 Cloud Storage 值區,用於儲存後續工作的管道執行結果。

  1. 在「導覽選單」(「導覽選單」圖示) 上,依序點選「Cloud Storage」>「值區」
  2. 點選「建立值區」
  3. 在「建立值區」對話方塊中,指定下列屬性:
  • 名稱:為確保值區名稱不重複,請使用下列名稱:-bucket。請注意,值區命名空間為全域通用並會公開顯示,因此請勿在值區名稱中加入機密資訊。
  • 位置類型:多區域
  • 位置us
  • 要儲存值區資料的位置。
  1. 點選「建立」

  2. 如果出現「系統會禁止公開存取」提示訊息,請點選「確認」

測試已完成的工作

點選「Check my progress」 確認工作已完成。如果已成功完成工作,就會看到評估分數。

建立 Cloud Storage 值區。

工作 2:安裝 Apache Beam SDK for Python

  1. 為確保您使用系統支援的 Python 版本,請先執行 Python3.9 Docker 映像檔:
docker run -it -e DEVSHELL_PROJECT_ID=$DEVSHELL_PROJECT_ID python:3.9 /bin/bash

這個指令會提取採用 Python 3.9 最新穩定版的 Docker 容器,接著開啟指令殼層,方便您在容器中執行下列指令。

  1. 容器開始運作後,請透過虛擬環境執行下列指令,安裝 Apache Beam SDK for Python 最新版本:
pip install 'apache-beam[gcp]'==2.42.0

您會看到一些系統傳回的依附元件相關警告。在本研究室中,您可以放心忽略這些警告。

  1. 執行下列指令,在本機執行 wordcount.py 範例:
python -m apache_beam.examples.wordcount --output OUTPUT_FILE

畫面上可能會顯示如下訊息:

INFO:root:Missing pipeline option (runner). Executing pipeline using the default runner: DirectRunner. INFO:oauth2client.client:Attempting refresh to obtain initial access_token

您可以忽略這則訊息。

  1. 現在您可以列出本機雲端環境中的檔案,以取得 OUTPUT_FILE 名稱:
ls
  1. 複製 OUTPUT_FILE 的名稱,然後貼到 cat 指令中:
cat <file name>

執行結果會顯示檔案中的每個字詞,以及字詞出現的次數。

工作 3:從遠端執行 Dataflow 範例管道

  1. 將 BUCKET 環境變數設為先前建立的值區:
BUCKET=gs://<bucket name provided earlier>
  1. 現在,請從遠端執行 wordcount.py 範例:
python -m apache_beam.examples.wordcount --project $DEVSHELL_PROJECT_ID \ --runner DataflowRunner \ --staging_location $BUCKET/staging \ --temp_location $BUCKET/temp \ --output $BUCKET/results/output \ --region {{{project_0.default_region | "filled in at lab start"}}}

等待輸出內容顯示下列訊息:

JOB_MESSAGE_DETAILED: Workers have started successfully.

接著繼續完成研究室工作。

工作 4:確認 Dataflow 工作是否順利完成

  1. 開啟「導覽選單」,並點按服務清單中的「Dataflow」

畫面上會顯示 wordcount 工作,一開始的狀態為「執行中」

  1. 按一下名稱即可查看處理程序。當所有方塊皆已勾選,您可以繼續查看 Cloud Shell 中的記錄。

如果狀態顯示「成功」,表示程序已完成。

測試已完成的工作

點選「Check my progress」 確認工作已完成。如果已成功完成工作,就會看到評估分數。

從遠端執行範例管道。
  1. 在 Cloud 控制台中,依序按一下「導覽選單」>「Cloud Storage」

  2. 按一下值區名稱。值區中應該會顯示 resultsstaging 目錄。

  3. 按一下 results 資料夾,您應該會看到工作建立的輸出檔案:

  4. 按一下檔案即可查看內含字數。

工作 5:隨堂測驗

您可以透過下列選擇題加強自己的理解,確實掌握這個研究室介紹的概念。盡力回答即可。

恭喜!

您已瞭解如何運用 Apache Beam SDK for Python 為 Dataflow 設定 Python 開發環境,並成功執行 Dataflow 範例管道。

後續行動/瞭解詳情

這個研究室屬於 Qwik Start 研究室系列,這些研究室旨在讓您簡單瞭解 Google Cloud 提供的眾多功能。在「Google Cloud Skills Boost 目錄」中搜尋「Qwik Start」,即可找到您想進行的下一個研究室!

如想取得本研究室的內容參考書籍,請參閱:《Data Science on the Google Cloud Platform: O'Reilly Media, Inc.》(Google Cloud Platform 的數據資料學:O'Reilly Media, Inc.)。

Google Cloud 教育訓練與認證

協助您瞭解如何充分運用 Google Cloud 的技術。我們的課程會介紹專業技能和最佳做法,讓您可以快速掌握要領並持續進修。我們提供從基本到進階等級的訓練課程,並有隨選、線上和虛擬課程等選項,方便您抽空參加。認證可協助您驗證及證明自己在 Google Cloud 技術方面的技能和專業知識。

使用手冊上次更新日期:2024 年 2 月 4 日

研究室上次測試日期:2023 年 5 月 4 日

Copyright 2024 Google LLC 保留所有權利。Google 和 Google 標誌是 Google LLC 的商標,其他公司和產品名稱則有可能是其關聯公司的商標。

此内容目前不可用

一旦可用,我们会通过电子邮件告知您

太好了!

一旦可用,我们会通过电子邮件告知您