読み込んでいます...
一致する結果は見つかりませんでした。
    LinkedIn フィードで共有 Twitter Facebook

    Data Engineer Learning Path

    school 13 件のアクティビティ
    update 最終更新: 3ヶ月
    person Google Cloud が管理しています
    説明: データ エンジニアは、ビジネス上の意思決定に使用されるデータを収集して変換するシステムを設計、構築します。この学習プログラムでは、データ エンジニアの役割に不可欠な Google Cloud テクノロジーを使用した実世界の実践的な体験を提供する一連のオンデマンド コース、ラボ、スキルバッジをご案内します。学習プログラムを修了したら、Google Cloud Data Engineer 認定資格をチェックして専門性をさらに高めましょう。
    学習プログラムを開始

    01

    Google Cloud のハンズオンラボの概要

    book ラボ
    access_time 45分
    show_chart 入門

    初回のこのハンズオンラボでは、Google Cloud コンソールにアクセスし、Google Cloud の基本機能(プロジェクト、リソース、IAM ユーザー、ロール、権限、API)を使用します。

    ラボを開始

    02

    Preparing for Your Professional Data Engineer Journey - 日本語版

    book コース
    access_time 5時間
    show_chart 中級

    このコースでは、Professional Data Engineer(PDE)認定資格試験に向けた学習計画を作成できます。学習者は、試験の範囲を把握できます。また、試験への準備状況を把握して、個々の学習計画を作成します。

    コースを開始

    03

    Introduction to Data Engineering on Google Cloud - 日本語版

    book コース
    access_time 9時間 30分
    show_chart 入門

    このコースでは、Google Cloud におけるデータ エンジニアリング、データ エンジニアの役割と責任、それらが Google Cloud の各サービスにどのように対応しているかについて学びます。また、データ エンジニアリングの課題に対処する方法も学習します。

    コースを開始

    04

    Modernizing Data Lakes and Data Warehouses with Google Cloud - 日本語版

    book コース
    access_time 8時間
    show_chart 中級

    すべてのデータ パイプラインには、データレイクとデータ ウェアハウスという 2 つの主要コンポーネントがあります。このコースでは、各ストレージ タイプのユースケースを紹介し、Google Cloud で利用可能なデータレイクとデータ ウェアハウスのソリューションを技術的に詳しく説明します。また、データ エンジニアの役割や、効果的なデータ パイプラインが事業運営にもたらすメリットについて確認し、クラウド環境でデータ エンジニアリングを行うべき理由を説明します。 これは「Data Engineering on Google Cloud」シリーズの最初のコースです。このコースを修了したら、「Building Batch Data Pipelines on Google Cloud」コースに登録してください。

    コースを開始

    05

    Building Batch Data Pipelines on Google Cloud - 日本語版

    book コース
    access_time 24時間
    show_chart 入門

    通常、データ パイプラインは、「抽出、読み込み」、「抽出、読み込み、変換」、「抽出、変換、読み込み」のいずれかの枠組みに分類できます。このコースでは、バッチデータではどの枠組みを、どのような場合に使用するのかについて説明します。本コースではさらに、BigQuery、Dataproc 上での Spark の実行、Cloud Data Fusion のパイプラインのグラフ、Dataflow でのサーバーレスのデータ処理など、データ変換用の複数の Google Cloud テクノロジーについて説明します。受講者には、Qwiklabs を使用して Google Cloud でデータ パイプラインのコンポーネントを構築する実践演習を行っていただきます。

    コースを開始

    06

    Building Resilient Streaming Analytics Systems on Google Cloud - 日本語版

    book コース
    access_time 12時間 15分
    show_chart 中級

    ストリーミングによって企業が事業運営に関するリアルタイムの指標を取得できるようになり、ストリーミング データの処理を行う機会が増えてきました。このコースでは、Google Cloud でストリーミング データ パイプラインを構築する方法について学習します。受信ストリーミング データの処理のために Pub/Sub について説明します。また、このコースでは、Dataflow を使用してストリーミング データの集計や変換を行う方法、処理済みのレコードを分析用に BigQuery や Bigtable に保存する方法についても説明します。さらに、Qwiklabs を使用して Google Cloud でストリーミング データ パイプラインのコンポーネントを構築する実践演習を行います。

    コースを開始

    07

    Serverless Data Processing with Dataflow: Foundations - 日本語版

    book コース
    access_time 8時間
    show_chart 入門

    このコースは、Dataflow を使用したサーバーレスのデータ処理に関する 3 コースシリーズのパート 1 です。この最初のコースでは、始めに Apache Beam とは何か、そして Dataflow とどのように関係しているかを復習します。次に、Apache Beam のビジョンと Beam Portability フレームワークの利点について説明します。Beam Portability フレームワークによって、デベロッパーが好みのプログラミング言語と実行バックエンドを使用できるビジョンが実現します。続いて、Dataflow によってどのように費用を節約しながらコンピューティングとストレージを分離できるか、そして識別ツール、アクセスツール、管理ツールがどのように Dataflow パイプラインと相互に機能するかを紹介します。最後に、Dataflow でそれぞれのユースケースに合った適切なセキュリティ モデルを実装する方法について学習します。

    コースを開始

    08

    Serverless Data Processing with Dataflow: Developing Pipelines - 日本語版

    book コース
    access_time 8時間
    show_chart 中級

    Dataflow コースシリーズの 2 回目である今回は、Beam SDK を使用したパイプラインの開発について詳しく説明します。まず、Apache Beam のコンセプトについて復習します。次に、ウィンドウ、ウォーターマーク、トリガーを使用したストリーミング データの処理について説明します。さらに、パイプラインのソースとシンクのオプション、構造化データを表現するためのスキーマ、State API と Timer API を使用してステートフル変換を行う方法について説明します。続いて、パイプラインのパフォーマンスを最大化するためのベスト プラクティスを再確認します。コースの終盤では、Beam でビジネス ロジックを表現するための SQL と DataFrame、および Beam ノートブックを使用してパイプラインを反復的に開発する方法を説明します。

    コースを開始

    09

    Serverless Data Processing with Dataflow: Operations - 日本語版

    book コース
    access_time 13時間
    show_chart 中級

    Dataflow シリーズの最後のコースでは、Dataflow 運用モデルのコンポーネントを紹介します。パイプラインのパフォーマンスのトラブルシューティングと最適化に役立つツールと手法を検証した後で、Dataflow パイプラインのテスト、デプロイ、信頼性に関するベスト プラクティスについて確認します。最後に、数百人のユーザーがいる組織に対して Dataflow パイプラインを簡単に拡張するためのテンプレートについても確認します。これらの内容を習得することで、データ プラットフォームの安定性を保ち、予期せぬ状況に対する回復力を確保できるようになります。

    コースを開始

    10

    Build a Data Warehouse with BigQuery

    book コース
    access_time 5時間 15分
    show_chart 中級

    「Build a Data Warehouse with BigQuery」スキルバッジを獲得できる中級コースを修了すると、 データの結合による新しいテーブルの作成、結合のトラブルシューティング、UNION を使用したデータの連結、日付パーティション分割テーブルの作成、 BigQuery での JSON、配列、構造体の操作に関するスキルを証明できます。 スキルバッジは、Google Cloud の プロダクトとサービスに関する習熟度を示す Google Cloud 発行の限定デジタルバッジです。 これは、インタラクティブなハンズオン環境での知識の応用力を 証明するものです。このスキルバッジ コースと最終評価チャレンジラボを修了し、 デジタルバッジを獲得してネットワークで共有しましょう。

    コースを開始

    11

    Build a Data Mesh with Dataplex

    book コース
    access_time 5時間 30分
    show_chart 入門

    Complete the introductory Build a Data Mesh with Dataplex skill badge to demonstrate skills in the following: building a data mesh with Dataplex to facilitate data security, governance, and discovery on Google Cloud. You practice and test your skills in...

    コースを開始

    12

    Boost Productivity with Gemini in BigQuery - 日本語版

    book コース
    access_time 4時間
    show_chart 入門

    このコースでは、データを AI 活用へつなげるためのワークフローに役立つ AI 搭載の機能スイート、Gemini in BigQuery について説明します。この機能スイートには、データの探索と準備、コード生成とトラブルシューティング、ワークフローの検出と可視化などが含まれます。このコースでは、概念の説明、実際のユースケース、ハンズオンラボを通じて、データ実務者が生産性を高め、開発パイプラインを迅速化できるよう支援します。

    コースを開始

    13

    Work with Gemini Models in BigQuery - 日本語版

    book コース
    access_time 3時間
    show_chart 中級

    このコースでは、BigQuery の生成 AI タスクで AI / ML モデルを使用する方法をご紹介します。顧客管理を含む実際のユースケースを通して、Gemini モデルを使用してビジネス上の問題を解決するワークフローを学びます。また、理解を深めるために、このコースでは SQL クエリと Python ノートブックの両方を使用したコーディング ソリューションの詳細な手順も提供しています。

    コースを開始