
Before you begin
- Labs create a Google Cloud project and resources for a fixed time
- Labs have a time limit and no pause feature. If you end the lab, you'll have to restart from the beginning.
- On the top left of your screen, click Start lab to begin
Run a simple Dataflow job
/ 25
Run a simple Dataproc job
/ 25
Use the Google Cloud Speech API
/ 25
Use the Cloud Natural Language API
/ 25
在挑戰研究室中,您會在特定情境下完成一系列任務。挑戰研究室不會提供逐步說明,您將運用從課程研究室學到的技巧,自行找出方法完成任務!自動評分系統 (如本頁所示) 將根據您是否正確完成任務來提供意見回饋。
在您完成任務的期間,挑戰研究室不會介紹新的 Google Cloud 概念。您須靈活運用所學技巧,例如變更預設值或詳讀並研究錯誤訊息,解決遇到的問題。
若想滿分達標,就必須在時限內成功完成所有任務!
本實驗室適合已參加「在 Google Cloud 為機器學習 API 準備資料 」技能徽章課程的學員。準備好迎接挑戰了嗎?
測驗主題:
請詳閱以下操作說明。研究室活動會計時,而且中途無法暫停。點選「Start Lab」 後就會開始計時,讓您瞭解有多少時間可以使用 Google Cloud 資源。
您將在真正的雲端環境中完成實作研究室活動,而不是在模擬或示範環境。為達此目的,我們會提供新的暫時憑證,讓您用來在研究室活動期間登入及存取 Google Cloud。
如要完成這個研究室活動,請先確認:
點選「Start Lab」按鈕。如果實驗室會產生費用,畫面上會出現選擇付款方式的對話方塊。左側的「Lab Details」窗格會顯示下列項目:
點選「Open Google Cloud console」;如果使用 Chrome 瀏覽器,也能按一下滑鼠右鍵,選取「在無痕視窗中開啟連結」。
接著,實驗室會啟動相關資源,並開啟另一個分頁,顯示「登入」頁面。
提示:您可以在不同的視窗中並排開啟分頁。
如有必要,請將下方的 Username 貼到「登入」對話方塊。
您也可以在「Lab Details」窗格找到 Username。
點選「下一步」。
複製下方的 Password,並貼到「歡迎使用」對話方塊。
您也可以在「Lab Details」窗格找到 Password。
點選「下一步」。
按過後續的所有頁面:
Google Cloud 控制台稍後會在這個分頁開啟。
在開始使用 Google Cloud 前,您必須確保專案有正確的 Identity and Access Management (IAM) 權限。
前往 Google Cloud 控制台的「導覽選單」,依序點選「IAM 與管理」>「身分與存取權管理」。
確認具有預設運算服務帳戶 {project-number}-compute@developer.gserviceaccount.com
,且已指派 editor
和 storage.admin
角色。帳戶前置字串為專案編號,如需查看,請前往「導覽選單」>「Cloud 總覽」>「資訊主頁」。
storage.admin
角色,請依照下列步驟指派必要角色。729328892908
)。{project-number}
換成您的專案編號。您是 Jooli Inc. 的資淺資料工程師,最近接受了 Google Cloud 和多項資料服務的訓練,現在需要展示新學到的技能。團隊要求您完成下列工作。
公司預期您具備執行這些工作所需的技能與知識,因此不會提供逐步指南。
在這項工作中,您會使用「Process Data in Bulk (batch)」下的 Dataflow 批次範本「Text Files on Cloud Storage to BigQuery」,轉移 Cloud Storage bucket (gs://cloud-training/gsp323/lab.csv
) 中的資料。下表列出正確設定 Dataflow 工作所需的值。
請完成下列操作:
欄位 | 值 |
---|---|
Cloud Storage 輸入檔案 | gs://cloud-training/gsp323/lab.csv |
BigQuery 結構定義檔案的 Cloud Storage 位置 | gs://cloud-training/gsp323/lab.schema |
BigQuery 輸出資料表 |
|
BigQuery 載入程序的暫存目錄 |
|
臨時位置 |
|
「選用參數」>「Cloud Storage 中的 JavaScript UDF 路徑」 | gs://cloud-training/gsp323/lab.js |
「選用參數」>「JavaScript UDF name」 | transform |
「選用參數」>「機型」 | e2-standard-2 |
請等工作完成後,再確認進度。
點選「Check my progress」,確認目標已達成。
使用 Dataproc 執行簡單的 Spark 工作
執行工作前,請登入其中一個叢集節點,並使用 hdfs dfs -cp gs://cloud-training/gsp323/data.txt /data.txt
指令,將「/data.txt」檔案複製到 hdfs。
請執行採用下列值的 Dataproc 工作。
欄位 | 值 |
---|---|
區域 |
|
工作類型 | Spark |
主要類別或 jar 檔案 | org.apache.spark.examples.SparkPageRank |
Jar 檔案 | file:///usr/lib/spark/examples/jars/spark-examples.jar |
引數 | /data.txt |
每小時重新啟動次數上限 | 1 |
Dataproc 叢集 | Compute Engine |
區域 |
|
機器系列 | E2 |
管理工具節點 | 將「機型」設為「e2-standard-2」 |
worker 節點 | 將「機型」設為「e2-standard-2」 |
worker 節點數量上限 | 2 |
主要磁碟大小 | 100 GB |
僅限內部 IP | 取消選取「將所有執行個體設為僅具備內部 IP 位址」 |
請等工作完成後,再確認進度。
點選「Check my progress」,確認目標已達成。
gs://cloud-training/gsp323/task3.flac
。分析完畢之後,請將產生的檔案上傳至:點選「Check my progress」,確認目標已達成。
點選「Check my progress」,確認目標已達成。
恭喜!您已在本實驗室中展現自己的技能,執行簡單的 Dataflow 工作及 Dataproc 工作,並使用 Google Cloud Speech-to-Text API 和 Cloud Natural Language API。
這個自學實驗室屬於在 Google Cloud 為機器學習 API 準備資料技能徽章課程的一部分。完成這個技能徽章課程即可獲得上方的徽章,表彰您的成就。您可以在履歷表和社群平台分享徽章,並使用 #GoogleCloudBadge 來公開您的成就。
這個技能徽章課程是 Google Cloud 資料分析師和資料工程師學習路徑的一部分。
協助您瞭解如何充分運用 Google Cloud 的技術。我們的課程會介紹專業技能和最佳做法,讓您可以快速掌握要領並持續進修。我們提供從基本到進階等級的訓練課程,並有隨選、線上和虛擬課程等選項,方便您抽空參加。認證可協助您驗證及證明自己在 Google Cloud 技術方面的技能和專業知識。
使用手冊上次更新日期:2024 年 3 月 25 日
實驗室上次測試日期:2024 年 1 月 15 日
Copyright 2025 Google LLC 保留所有權利。Google 和 Google 標誌是 Google LLC 的商標,其他公司和產品名稱則有可能是其關聯公司的商標。
此内容目前不可用
一旦可用,我们会通过电子邮件告知您
太好了!
一旦可用,我们会通过电子邮件告知您
One lab at a time
Confirm to end all existing labs and start this one