arrow_back

使用 Dataflow 和 BigQuery (Python) 在 Google Cloud 上进行 ETL 处理

登录 加入
欢迎加入我们的社区,一起测试和分享您的知识!
done
学习 700 多个动手实验和课程并获得相关技能徽章

使用 Dataflow 和 BigQuery (Python) 在 Google Cloud 上进行 ETL 处理

实验 1 小时 universal_currency_alt 5 个积分 show_chart 中级
info 此实验可能会提供 AI 工具来支持您学习。
欢迎加入我们的社区,一起测试和分享您的知识!
done
学习 700 多个动手实验和课程并获得相关技能徽章

GSP290

Google Cloud 自定进度实验

概览

在 Google Cloud 中,您可以使用以下 Google Cloud 服务构建执行 Python 代码的数据流水线,以便将可公开访问的数据集中的数据注入到 BigQuery 中并进行转换:

  • Cloud Storage
  • Dataflow
  • BigQuery

在本实验中,您将使用上述服务创建自己的数据流水线(包括设计注意事项和实施细节),以确保您的原型符合要求。请务必打开 Python 文件,并按照说明查看注释。

您将执行的操作

在本实验中,您将学习如何完成以下操作:

  • 构建并运行用于进行数据注入的 Dataflow 流水线 (Python)
  • 构建并运行用于进行数据转换和丰富化的 Dataflow 流水线 (Python)

设置和要求

点击“开始实验”按钮前的注意事项

请阅读以下说明。实验是计时的,并且您无法暂停实验。计时器在您点击开始实验后即开始计时,显示 Google Cloud 资源可供您使用多长时间。

此实操实验可让您在真实的云环境中开展实验活动,免受模拟或演示环境的局限。我们会为您提供新的临时凭据,让您可以在实验规定的时间内用来登录和访问 Google Cloud。

为完成此实验,您需要:

  • 能够使用标准的互联网浏览器(建议使用 Chrome 浏览器)。
注意:请使用无痕模式或无痕浏览器窗口运行此实验。这可以避免您的个人账号与学生账号之间发生冲突,这种冲突可能导致您的个人账号产生额外费用。
  • 完成实验的时间 - 请注意,实验开始后无法暂停。
注意:如果您已有自己的个人 Google Cloud 账号或项目,请不要在此实验中使用,以避免您的账号产生额外的费用。

如何开始实验并登录 Google Cloud 控制台

  1. 点击开始实验按钮。如果该实验需要付费,系统会打开一个弹出式窗口供您选择付款方式。左侧是实验详细信息面板,其中包含以下各项:

    • 打开 Google Cloud 控制台按钮
    • 剩余时间
    • 进行该实验时必须使用的临时凭据
    • 帮助您逐步完成本实验所需的其他信息(如果需要)
  2. 点击打开 Google Cloud 控制台(如果您使用的是 Chrome 浏览器,请右键点击并选择在无痕式窗口中打开链接)。

    该实验会启动资源并打开另一个标签页,显示登录页面。

    提示:请将这些标签页安排在不同的窗口中,并将它们并排显示。

    注意:如果您看见选择账号对话框,请点击使用其他账号
  3. 如有必要,请复制下方的用户名,然后将其粘贴到登录对话框中。

    {{{user_0.username | "<用户名>"}}}

    您也可以在实验详细信息面板中找到用户名

  4. 点击下一步

  5. 复制下面的密码,然后将其粘贴到欢迎对话框中。

    {{{user_0.password | "<密码>"}}}

    您也可以在实验详细信息面板中找到密码

  6. 点击下一步

    重要提示:您必须使用实验提供的凭据。请勿使用您的 Google Cloud 账号凭据。 注意:在本次实验中使用您自己的 Google Cloud 账号可能会产生额外费用。
  7. 继续在后续页面中点击以完成相应操作:

    • 接受条款及条件。
    • 由于该账号为临时账号,请勿添加账号恢复选项或双重验证。
    • 请勿注册免费试用。

片刻之后,系统会在此标签页中打开 Google Cloud 控制台。

注意:如需查看列有 Google Cloud 产品和服务的菜单,请点击左上角的导航菜单导航菜单图标

激活 Cloud Shell

Cloud Shell 是一种装有开发者工具的虚拟机。它提供了一个永久性的 5GB 主目录,并且在 Google Cloud 上运行。Cloud Shell 提供可用于访问您的 Google Cloud 资源的命令行工具。

  1. 点击 Google Cloud 控制台顶部的激活 Cloud Shell “激活 Cloud Shell”图标

如果您连接成功,即表示您已通过身份验证,且当前项目会被设为您的 PROJECT_ID 环境变量所指的项目。输出内容中有一行说明了此会话的 PROJECT_ID

Your Cloud Platform project in this session is set to YOUR_PROJECT_ID

gcloud 是 Google Cloud 的命令行工具。它已预先安装在 Cloud Shell 上,且支持 Tab 自动补全功能。

  1. (可选)您可以通过此命令列出活跃账号名称:
gcloud auth list
  1. 点击授权

  2. 现在,输出的内容应如下所示:

输出:

ACTIVE: * ACCOUNT: student-01-xxxxxxxxxxxx@qwiklabs.net To set the active account, run: $ gcloud config set account `ACCOUNT`
  1. (可选)您可以通过此命令列出项目 ID:
gcloud config list project

输出

[core] project = <project_ID>

输出示例

[core] project = qwiklabs-gcp-44776a13dea667a6 Note: For full documentation of gcloud, in Google Cloud, refer to the gcloud CLI overview guide.

任务 1. 确保 Dataflow API 已成功启用

为了确保能访问这个必要的 API,请重新启动与 Dataflow API 的连接。

重要提示:即使该 API 已启用,也请按照以下第 1 步至第 4 步来停用然后再重新启用该 API,以便成功将其重新启动。
  1. 在 Cloud 控制台的顶部搜索栏中输入“Dataflow API”。点击 Dataflow API 的搜索结果。

  2. 点击管理

  3. 点击停用 API

如果系统要求您确认,请点击停用

  1. 点击启用

该 API 再次启用后,页面将会显示停用选项。

验证您已完成的任务

点击检查我的进度以验证您已完成的任务。

停用并重新启用 Dataflow API

任务 2. 下载起始代码

  1. 在 Cloud Shell 中运行以下命令,从 Google Cloud 的专业服务 GitHub 获取 Dataflow Python 示例:
gsutil -m cp -R gs://spls/gsp290/dataflow-python-examples .
  1. 现在,在 Cloud Shell 中设置一个值为您的项目 ID 的变量。
export PROJECT={{{ project_0.project_id }}} gcloud config set project $PROJECT

任务 3. 创建 Cloud Storage 存储桶

  • 使用 Cloud Shell 中的创建存储桶命令,在项目内的 区域中新建一个区域级存储桶:
gsutil mb -c regional -l {{{ project_0.default_region }}} gs://$PROJECT

验证您已完成的任务

点击检查我的进度以验证您已完成的任务。

创建 Cloud Storage 存储桶

任务 4. 将文件复制到存储桶

  • 在 Cloud Shell 中,使用 gsutil 命令将文件复制到刚才创建的 Cloud Storage 存储桶中:
gsutil cp gs://spls/gsp290/data_files/usa_names.csv gs://$PROJECT/data_files/ gsutil cp gs://spls/gsp290/data_files/head_usa_names.csv gs://$PROJECT/data_files/

验证您已完成的任务

点击检查我的进度以验证您已完成的任务。

将文件复制到存储桶

任务 5. 创建 BigQuery 数据集

  • 在 Cloud Shell 中,在 BigQuery 数据集中创建一个名为 lake 的数据集。您的所有表都将加载到 BigQuery 中的这个数据集中:
bq mk lake

验证您已完成的任务

点击检查我的进度以验证您已完成的任务。

创建 BigQuery 数据集(名称:lake)

任务 6. 构建 Dataflow 流水线

在此部分,您将创建一个仅附加 Dataflow,用于将数据注入到 BigQuery 表中。您可以使用内置代码编辑器,在 Google Cloud 控制台中查看和修改代码。

仅附加 Dataflow 流水线示意图

打开 Cloud Shell 代码编辑器

  1. 点击 Cloud Shell 中的打开编辑器图标以访问源代码:

“打开编辑器”图标

  1. 如果出现提示,点击在新窗口中打开。代码编辑器即会在新窗口中打开。使用 Cloud Shell 编辑器可以在 Cloud Shell 环境中修改文件,在编辑器中点击打开终端即可返回到 Cloud Shell。

任务 7. 使用 Dataflow 流水线进行数据注入

接下来,您将构建一个具有 TextIO 来源和 BigQueryIO 目标的 Dataflow 流水线,用于将数据注入到 BigQuery 中。具体而言,该流水线将执行以下操作:

  • 从 Cloud Storage 提取文件。
  • 滤除文件中的标题行。
  • 将读取的行转换为字典对象。
  • 将行输出到 BigQuery。

任务 8. 查看流水线 Python 代码

代码编辑器中,前往 dataflow-python-examples > dataflow_python_examples,打开 data_ingestion.py 文件。查看文件中的注释,这些注释解释了代码的作用。该代码将使用 BigQuery 中的表来填充数据集 lake

代码编辑器

任务 9. 运行 Apache Beam 流水线

  1. 您需要返回到 Cloud Shell 会话来执行此步骤。现在,您要为必需的 python 库进行一些设置。

在本实验中,Dataflow 作业需要使用 Python3.8。为确保您使用的是正确的版本,您需要在 Python 3.8 Docker 容器中运行 Dataflow 进程。

  1. 在 Cloud Shell 中运行以下命令来启动 Python 容器:
docker run -it -e PROJECT=$PROJECT -v $(pwd)/dataflow-python-examples:/dataflow python:3.8 /bin/bash

此命令会拉取包含 Python 3.8 最新稳定版本的 Docker 容器,并执行一个命令 shell,以便在容器内运行后续命令。-v 标志会将源代码作为容器的一个提供,这样,我们在 Cloud Shell 编辑器中修改源代码的同时,仍能在运行的容器中访问源代码。

  1. 容器完成拉取并开始在 Cloud Shell 中执行后,运行以下命令将 apache-beam 安装在运行的容器中:
pip install apache-beam[gcp]==2.59.0
  1. 接下来,在 Cloud Shell 中运行的容器内,将目录切换到链接源代码的位置:
cd dataflow/

在云端运行注入 Dataflow 流水线

  1. 以下命令将启动必需的工作器,并在其完成工作后将它们关闭:
python dataflow_python_examples/data_ingestion.py \ --project=$PROJECT --region={{{ project_0.default_region }}} \ --runner=DataflowRunner \ --machine_type=e2-standard-2 \ --staging_location=gs://$PROJECT/test \ --temp_location gs://$PROJECT/test \ --input gs://$PROJECT/data_files/head_usa_names.csv \ --save_main_session
  1. 返回到 Cloud 控制台,打开导航菜单 > Dataflow 以查看作业状态。

导航菜单 > Dataflow

  1. 点击作业名称查看其进度。作业状态显示为成功后,您便可执行下一步。此 Dataflow 流水线从启动、完成工作到关闭大约需要五分钟时间。

  2. 前往 BigQuery(导航菜单 > BigQuery),确认是否已填充数据。

导航菜单 > BigQuery

  1. 点击项目名称,查看 lake 数据集下的 usa_names 表。

usa_names 表

  1. 点击此表,然后前往预览标签页,查看 usa_names 数据的示例。
注意:如果您没有看到 usa_names 表,请尝试刷新页面或使用经典版 BigQuery 界面来查看此表。

验证您已完成的任务

点击检查我的进度以验证您已完成的任务。

构建数据注入 Dataflow 流水线

任务 10. 数据转换

接下来,您将构建一个具有 TextIO 来源和 BigQueryIO 目标的 Dataflow 流水线,用于将数据注入到 BigQuery 中。具体操作为:

  • 从 Cloud Storage 提取文件。
  • 将读取的行转换为字典对象。
  • 将包含年份的数据转换为 BigQuery 视为日期的格式。
  • 将行输出到 BigQuery。

查看转换流水线 Python 代码

在代码编辑器中,打开 data_transformation.py 文件。查看文件中的注释,这些注释解释了代码的作用。

任务 11. 运行 Dataflow 转换流水线

您将在云端运行 Dataflow 流水线。这会启动必需的工作器,并在其完成工作后将它们关闭。

  1. 请运行以下命令来完成该任务:
python dataflow_python_examples/data_transformation.py \ --project=$PROJECT \ --region={{{ project_0.default_region }}} \ --runner=DataflowRunner \ --machine_type=e2-standard-2 \ --staging_location=gs://$PROJECT/test \ --temp_location gs://$PROJECT/test \ --input gs://$PROJECT/data_files/head_usa_names.csv \ --save_main_session
  1. 前往导航菜单 > Dataflow,然后点击此作业的名称查看作业状态。此 Dataflow 流水线从启动、完成工作到关闭大约需要五分钟时间。

  2. 当 Dataflow“作业状态”屏幕中的作业状态显示为成功后,前往 BigQuery 确认是否已填充数据。

  3. 您应该可在 lake 数据集下看到 usa_names_transformed 表。

  4. 点击此表,然后前往预览标签页,查看 usa_names_transformed 数据的示例。

注意:如果您没有看到 usa_names_transformed 表,请尝试刷新页面或使用经典版 BigQuery 界面来查看此表。

验证您已完成的任务

点击检查我的进度以验证您已完成的任务。

构建数据转换 Dataflow 流水线

任务 12. 数据丰富化

接下来,您将构建一个具有 TextIO 来源和 BigQueryIO 目标的 Dataflow 流水线,用于将数据注入到 BigQuery 中。具体操作为:

  • 从 Cloud Storage 提取文件。
  • 滤除文件中的标题行。
  • 将读取的行转换为字典对象。
  • 将行输出到 BigQuery。

任务 13. 查看数据丰富化流水线 Python 代码

  1. 在代码编辑器中,打开 data_enrichment.py 文件。

  2. 查看注释,这些注释解释了代码的作用。该代码将在 BigQuery 中填充数据。

第 83 行现在如下所示:

values = [x.decode('utf8') for x in csv_row]
  1. 将该行修改为如下所示的内容:
values = [x for x in csv_row]
  1. 修改好该行后,请务必在编辑器中选择文件下拉菜单并点击保存,以保存更新后的文件

任务 14. 运行数据丰富化 Dataflow 流水线

接下来,您将在云端运行 Dataflow 流水线。

  1. 在 Cloud Shell 中运行以下命令,以启动必需的工作器并在其完成工作后将它们关闭:
python dataflow_python_examples/data_enrichment.py \ --project=$PROJECT \ --region={{{ project_0.default_region }}} \ --runner=DataflowRunner \ --machine_type=e2-standard-2 \ --staging_location=gs://$PROJECT/test \ --temp_location gs://$PROJECT/test \ --input gs://$PROJECT/data_files/head_usa_names.csv \ --save_main_session
  1. 前往导航菜单 > Dataflow,查看作业状态。此 Dataflow 流水线从启动、完成工作到关闭大约需要五分钟时间。

  2. 当 Dataflow“作业状态”屏幕中的作业状态显示为成功后,前往 BigQuery 确认是否已填充数据。

您应该可在 lake 数据集下看到 usa_names_enriched 表。

  1. 点击此表,然后前往预览标签页,查看 usa_names_enriched 数据的示例。
注意:如果您没有看到 usa_names_enriched 表,请尝试刷新页面或使用经典版 BigQuery 界面来查看此表。

测试您已完成的数据丰富化任务

点击检查我的进度以验证您已完成的任务。

构建数据丰富化 Dataflow 流水线

任务 15. 从数据湖到数据集市,并查看流水线 Python 代码

接下来,您需要构建一条 Dataflow 流水线,以从两个 BigQuery 数据源读取数据,然后联接这两个数据源。具体操作是:

  • 从两个 BigQuery 数据源提取文件。
  • 联接两个数据源。
  • 滤除文件中的标题行。
  • 将读取的行转换为字典对象。
  • 将行输出到 BigQuery。

代码编辑器中,打开 data_lake_to_mart.py 文件。查看文件中的注释,这些注释解释了代码的作用。该代码将联接两个表并在 BigQuery 中填充所产生的数据。

任务 16. 运行 Apache Beam 流水线,以执行数据联接并在 BigQuery 中创建所产生的表

接下来,在云端运行 Dataflow 流水线。

  1. 在 Cloud Shell 中运行以下代码块,以启动必需的工作器并在其完成工作后将它们关闭:
python dataflow_python_examples/data_lake_to_mart.py \ --worker_disk_type="compute.googleapis.com/projects//zones//diskTypes/pd-ssd" \ --max_num_workers=4 \ --project=$PROJECT \ --runner=DataflowRunner \ --machine_type=e2-standard-2 \ --staging_location=gs://$PROJECT/test \ --temp_location gs://$PROJECT/test \ --save_main_session \ --region={{{ project_0.default_region }}}
  1. 前往导航菜单 > Dataflow,然后点击该新作业的名称查看作业状态。此 Dataflow 流水线从启动、完成工作到关闭大约需要五分钟时间。

  2. 当 Dataflow“作业状态”屏幕中的作业状态显示为成功后,前往 BigQuery 确认是否已填充数据。

您应该可在 lake 数据集下看到 orders_denormalized_sideinput 表。

  1. 点击此表,然后前往预览部分,查看 orders_denormalized_sideinput 数据的示例。
注意:如果您没有看到 orders_denormalized_sideinput 表,请尝试刷新页面或使用经典版 BigQuery 界面来查看此表。

测试您已完成的联接任务

点击检查我的进度以验证您已完成的任务。

构建从数据湖到数据集市的 Dataflow 流水线

检验您的掌握情况

下面的选择题可加强您对本实验所涉概念的理解。请尽您所能回答问题。

恭喜!

您使用 Dataflow 执行了 Python 代码,将数据注入到 BigQuery 中并转换了数据。

后续步骤/了解详情

想要查找更多参考信息?请点击以下链接查看官方文档:

Google Cloud 培训和认证

…可帮助您充分利用 Google Cloud 技术。我们的课程会讲解各项技能与最佳实践,可帮助您迅速上手使用并继续学习更深入的知识。我们提供从基础到高级的全方位培训,并有点播、直播和虚拟三种方式选择,让您可以按照自己的日程安排学习时间。各项认证可以帮助您核实并证明您在 Google Cloud 技术方面的技能与专业知识。

上次更新手册的时间:2024 年 2 月 11 日

上次测试实验的时间:2023 年 10 月 12 日

版权所有 2024 Google LLC 保留所有权利。Google 和 Google 徽标是 Google LLC 的商标。其他所有公司名和产品名可能是其各自相关公司的商标。

此内容目前不可用

一旦可用,我们会通过电子邮件告知您

太好了!

一旦可用,我们会通过电子邮件告知您