09
Serverless Data Processing with Dataflow: Operations
09
Serverless Data Processing with Dataflow: Operations
These skills were generated by A.I. Do you agree this course teaches these skills?
In the last installment of the Dataflow course series, we will introduce the components of the Dataflow operational model. We will examine tools and techniques for troubleshooting and optimizing pipeline performance. We will then review testing, deployment, and reliability best practices for Dataflow pipelines. We will conclude with a review of Templates, which makes it easy to scale Dataflow pipelines to organizations with hundreds of users. These lessons will help ensure that your data platform is stable and resilient to unanticipated circumstances.
과정 정보
목표
- Perform monitoring, troubleshooting, testing and CI/CD on Dataflow pipelines.
- Deploy Dataflow pipelines with reliability in mind to maximize stability for your data processing platform
기본 요건
Serverless Data Processing with Dataflow: Develop Pipelines
대상
Data engineers, data analysts and data scientists aspiring to develop Data Engineering skills.
사용할 수 있는 언어
English, español (Latinoamérica), português (Brasil), 日本語
과정을 완료한 후에는 어떻게 해야 하나요?
과정을 완료한 후 학습 과정 에서 다른 콘텐츠를 살펴보거나 학습 카탈로그 를 둘러보면 됩니다.
어떤 배지를 획득할 수 있나요?
과정을 완료하면 이수 배지가 주어집니다. 배지는 프로필에 표시되며 사회 연결망에서 공유할 수 있습니다.
Google의 주문형 파트너에서 제공하는 과정에 관심이 있으신가요?
Coursera 및 Pluralsight 에서 Google Cloud 콘텐츠를 살펴보세요.
강사 주도 강좌를 선호하시나요?