08
Serverless Data Processing with Dataflow: Developing Pipelines - 日本語版
08
Serverless Data Processing with Dataflow: Developing Pipelines - 日本語版
These skills were generated by A.I. Do you agree this course teaches these skills?
Dataflow コースシリーズの 2 回目である今回は、Beam SDK を使用したパイプラインの開発について詳しく説明します。まず、Apache Beam のコンセプトについて復習します。次に、ウィンドウ、ウォーターマーク、トリガーを使用したストリーミング データの処理について説明します。さらに、パイプラインのソースとシンクのオプション、構造化データを表現するためのスキーマ、State API と Timer API を使用してステートフル変換を行う方法について説明します。続いて、パイプラインのパフォーマンスを最大化するためのベスト プラクティスを再確認します。コースの終盤では、Beam でビジネス ロジックを表現するための SQL と DataFrame、および Beam ノートブックを使用してパイプラインを反復的に開発する方法を説明します。
コース情報
目標
- Beam SDK を使用したパイプラインの開発
前提条件
「Serverless Data Processing with Dataflow: Foundations」を修了している
対象
• データ エンジニア
• データ エンジニアリング スキルを磨くことを目指しているデータ アナリストおよびデータ サイエンティスト
使用できる言語
English、español (Latinoamérica)、日本語、português (Brasil)
このコースを修了した後はどうすればよいですか?
コースを修了した後は、学習プログラム のその他のコンテンツを確認したり、学習カタログ を閲覧したりできます。
どのようなバッジを獲得できますか?
コースを修了すると、修了バッジが付与されます。バッジはプロフィールで確認可能で、ソーシャル ネットワークで共有していただくこともできます。
オンデマンド パートナーを介してこのコースの受講を希望される場合
Coursera および Pluralsight で Google Cloud のコンテンツをご確認ください。
インストラクターによる指導をご希望の場合