Bin Safi Ruqiya
メンバー加入日: 2019
メンバー加入日: 2019
このコースでは、Transformer アーキテクチャと Bidirectional Encoder Representations from Transformers(BERT)モデルの概要について説明します。セルフアテンション機構をはじめとする Transformer アーキテクチャの主要コンポーネントと、それが BERT モデルの構築にどのように使用されているのかについて学習します。さらに、テキスト分類、質問応答、自然言語推論など、BERT を適用可能なその他のタスクについても学習します。このコースの推定所要時間は約 45 分です。
このコースでは、アテンション機構について学習します。アテンション機構とは、ニューラル ネットワークに入力配列の重要な部分を認識させるための高度な技術です。アテンションの仕組みと、アテンションを活用して機械翻訳、テキスト要約、質問応答といったさまざまな ML タスクのパフォーマンスを改善する方法を説明します。
このコースでは、機械翻訳、テキスト要約、質問応答などのシーケンス ツー シーケンス タスクに対応する、強力かつ広く使用されている ML アーキテクチャであるエンコーダ / デコーダ アーキテクチャの概要を説明します。エンコーダ / デコーダ アーキテクチャの主要なコンポーネントと、これらのモデルをトレーニングして提供する方法について学習します。対応するラボのチュートリアルでは、詩を生成するためのエンコーダ / デコーダ アーキテクチャの簡単な実装を、TensorFlow で最初からコーディングします。
この入門レベルのマイクロラーニング コースでは、責任ある AI の概要と重要性、および Google が責任ある AI を自社プロダクトにどのように実装しているのかについて説明します。また、Google の AI に関する 7 つの原則についても説明します。
このコースは、大規模言語モデル(LLM)とは何か、どのようなユースケースで活用できるのか、プロンプトのチューニングで LLM のパフォーマンスを高めるにはどうすればよいかについて学習する、入門レベルのマイクロ ラーニング コースです。独自の生成 AI アプリを開発する際に利用できる Google ツールも紹介します。
Welcome Gamers! Learn the fundamentals of BQML, all while having fun! In this game, you will learn to use the python-based command line tool for BigQuery. The hands-on labs will help you create a machine learning model, a classification model, and a forecasting model. Earn the points by completing the steps in the lab... Be sure to click "End" when you're done with each lab to get the maximum points. All players will be awarded the game badge.
この入門レベルのマイクロラーニング コースでは、生成 AI の概要、利用方法、従来の機械学習の手法との違いについて説明します。独自の生成 AI アプリを作成する際に利用できる Google ツールも紹介します。
Dataflow シリーズの最後のコースでは、Dataflow 運用モデルのコンポーネントを紹介します。パイプラインのパフォーマンスのトラブルシューティングと最適化に役立つツールと手法を検証した後で、Dataflow パイプラインのテスト、デプロイ、信頼性に関するベスト プラクティスについて確認します。最後に、数百人のユーザーがいる組織に対して Dataflow パイプラインを簡単に拡張するためのテンプレートについても確認します。これらの内容を習得することで、データ プラットフォームの安定性を保ち、予期せぬ状況に対する回復力を確保できるようになります。
Dataflow コースシリーズの 2 回目である今回は、Beam SDK を使用したパイプラインの開発について詳しく説明します。まず、Apache Beam のコンセプトについて復習します。次に、ウィンドウ、ウォーターマーク、トリガーを使用したストリーミング データの処理について説明します。さらに、パイプラインのソースとシンクのオプション、構造化データを表現するためのスキーマ、State API と Timer API を使用してステートフル変換を行う方法について説明します。続いて、パイプラインのパフォーマンスを最大化するためのベスト プラクティスを再確認します。コースの終盤では、Beam でビジネス ロジックを表現するための SQL と DataFrame、および Beam ノートブックを使用してパイプラインを反復的に開発する方法を説明します。
このコースは、Dataflow を使用したサーバーレスのデータ処理に関する 3 コースシリーズのパート 1 です。この最初のコースでは、始めに Apache Beam とは何か、そして Dataflow とどのように関係しているかを復習します。次に、Apache Beam のビジョンと Beam Portability フレームワークの利点について説明します。Beam Portability フレームワークによって、デベロッパーが好みのプログラミング言語と実行バックエンドを使用できるビジョンが実現します。続いて、Dataflow によってどのように費用を節約しながらコンピューティングとストレージを分離できるか、そして識別ツール、アクセスツール、管理ツールがどのように Dataflow パイプラインと相互に機能するかを紹介します。最後に、Dataflow でそれぞれのユースケースに合った適切なセキュリティ モデルを実装する方法について学習します。
ML をデータ パイプラインに組み込むと、データから分析情報を抽出する能力を向上できます。このコースでは、Google Cloud でデータ パイプラインに ML を含める複数の方法について説明します。カスタマイズがほとんど、またはまったく必要ない場合のために、このコースでは AutoML について説明します。よりカスタマイズされた ML 機能については、Notebooks と BigQuery の機械学習(BigQuery ML)を紹介します。また、Vertex AI を使用して ML ソリューションを本番環境に導入する方法も説明します。
ストリーミングによって企業が事業運営に関するリアルタイムの指標を取得できるようになり、ストリーミング データの処理を行う機会が増えてきました。このコースでは、Google Cloud でストリーミング データ パイプラインを構築する方法について学習します。受信ストリーミング データの処理のために Pub/Sub について説明します。また、このコースでは、Dataflow を使用してストリーミング データの集計や変換を行う方法、処理済みのレコードを分析用に BigQuery や Bigtable に保存する方法についても説明します。さらに、Qwiklabs を使用して Google Cloud でストリーミング データ パイプラインのコンポーネントを構築する実践演習を行います。
Engineer Data for Predictive Modeling with BigQuery ML スキルバッジを獲得できる中級コースを修了すると、 Dataprep by Trifacta を使用した BigQuery へのデータ変換パイプラインの構築、Cloud Storage、Dataflow、 BigQuery を使用した抽出、変換、読み込み(ETL)ワークフローの構築、BigQuery ML を使用した ML モデルの構築、 Cloud Composer を使用した複数ロケーション間でのデータのコピーに関するスキルを実証できます。 スキルバッジは、Google Cloud のプロダクトとサービスの習熟度を示す Google Cloud 発行の限定デジタルバッジで、インタラクティブなハンズオン環境での知識の応用力を証明するものです。 スキルバッジ コースと最終評価チャレンジラボを完了し、デジタルバッジを獲得して ネットワークで共有しましょう。
通常、データ パイプラインは、「抽出、読み込み」、「抽出、読み込み、変換」、「抽出、変換、読み込み」のいずれかの枠組みに分類できます。このコースでは、バッチデータではどの枠組みを、どのような場合に使用するのかについて説明します。本コースではさらに、BigQuery、Dataproc 上での Spark の実行、Cloud Data Fusion のパイプラインのグラフ、Dataflow でのサーバーレスのデータ処理など、データ変換用の複数の Google Cloud テクノロジーについて説明します。受講者には、Qwiklabs を使用して Google Cloud でデータ パイプラインのコンポーネントを構築する実践演習を行っていただきます。
「Build a Data Warehouse with BigQuery」スキルバッジを獲得できる中級コースを修了すると、 データの結合による新しいテーブルの作成、結合のトラブルシューティング、UNION を使用したデータの連結、日付パーティション分割テーブルの作成、 BigQuery での JSON、配列、構造体の操作に関するスキルを証明できます。 スキルバッジは、Google Cloud の プロダクトとサービスに関する習熟度を示す Google Cloud 発行の限定デジタルバッジです。 これは、インタラクティブなハンズオン環境での知識の応用力を 証明するものです。このスキルバッジ コースと最終評価チャレンジラボを修了し、 デジタルバッジを獲得してネットワークで共有しましょう。
「Prepare Data for ML APIs on Google Cloud」コースの入門スキルバッジを獲得できるアクティビティを修了すると、 Dataprep by Trifacta を使用したデータのクリーニング、Dataflow でのデータ パイプラインの実行、Dataproc でのクラスタの作成と Apache Spark ジョブの実行、 Cloud Natural Language API、Google Cloud Speech-to-Text API、Video Intelligence API などの ML API の呼び出しに関するスキルを証明できます。 スキルバッジは、Google Cloud のプロダクトとサービスの習熟度を示す Google Cloud 発行の限定デジタルバッジで、 インタラクティブなハンズオン環境での知識の応用力を証明するものです。このスキルバッジ コースと最終評価チャレンジラボを修了し、 スキルバッジを獲得してネットワークで共有しましょう。
このコースでは、データから AI へのライフサイクルをサポートする Google Cloud のビッグデータと ML のプロダクトやサービスを紹介します。また、Google Cloud で Vertex AI を使用してビッグデータ パイプラインと ML モデルを作成する際のプロセス、課題、メリットについて説明します。
すべてのデータ パイプラインには、データレイクとデータ ウェアハウスという 2 つの主要コンポーネントがあります。このコースでは、各ストレージ タイプのユースケースを紹介し、Google Cloud で利用可能なデータレイクとデータ ウェアハウスのソリューションを技術的に詳しく説明します。また、データ エンジニアの役割や、効果的なデータ パイプラインが事業運営にもたらすメリットについて確認し、クラウド環境でデータ エンジニアリングを行うべき理由を説明します。 これは「Data Engineering on Google Cloud」シリーズの最初のコースです。このコースを修了したら、「Building Batch Data Pipelines on Google Cloud」コースに登録してください。
このコースでは、Professional Data Engineer(PDE)認定資格試験に向けた学習計画を作成できます。学習者は、試験の範囲を把握できます。また、試験への準備状況を把握して、個々の学習計画を作成します。
In this quest you will use several tools available in Google Cloud to manipulate data and create a Google Map - map location details to find subway stations or a business; use geocoding and Apps Script to send an email of a map; visualize data on a customized map; and build a server-side proxy to create a map on a mobile device.
Workspace は、共同作業が可能な Google のアプリケーション プラットフォームであり、Google Cloud で提供されます。この入門レベルのクエストでは、ユーザーの視点で Workspace の主要なアプリケーションの実践演習を行います。ここで取り上げる機能以外にも、Workspace には多くのアプリケーションやツールが含まれていますが、ここでは Gmail、カレンダー、スプレッドシートなど、いくつかの主要アプリを経験できます。各ラボの所要時間は 10~15 分ですが、自分で自由にアプリケーションの操作を試せるように追加の時間が用意されています。任意で行える最後のステップとして、認定試験用模擬試験のラボを受講し、練習問題の内容を確認できます。また、今後予定されている Workspace 認定試験には、成績に基づくシナリオが含まれる予定です。
Machine Learning is one of the most innovative fields in technology, and the Google Cloud Platform has been instrumental in furthering its development. With a host of APIs, GCP has a tool for just about any machine learning job. In this advanced-level quest, you will get hands-on practice with machine learning at scale and how to employ the advanced ML infrastructure available on GCP.
TensorFlow is an open source software library for high performance numerical computation that's great for writing models that can train and run on platforms ranging from your laptop to a fleet of servers in the Cloud to an edge device. This quest takes you beyond the basics of using predefined models and teaches you how to build, train and deploy your own on Google Cloud.
皆さんもよくご存じのとおり、機械学習は最も急速に開発、利用が進んでいる技術の 1 つで、Google Cloud Platform はその促進に大きく貢献してきました。GCP では多数の API を活用して、ほぼすべての機械学習ジョブに対応するツールを提供しています。この入門クエストでは、ラボを使って言語処理に適用される機械学習に関する実践演習を行います。これによりテキストからのエンティティの抽出、感情分析と構文分析、音声文字変換のための Speech to Text API の使用方法を学ぶことができます。
大規模な計算処理能力を活用してパターンを認識し、画像を解釈することは、自動運転から顔認識まで、さまざまな用途における AI の基盤技術です。Google Cloud Platform は、API を呼び出すだけで利用できるシステムを通じて、ワールドクラスの速度と精度を提供しています。GCP にはさまざまな API があるため、機械学習に関するほぼすべてのタスクに対応することができます。この入門クエストでは、画像処理に用いられる機械学習の実践的な演習を行います。ラボを活用して、画像にラベルを付けたり、顔やランドマークを検出したり、画像内のテキストを抽出、分析、翻訳したりすることができます。
This advanced-level quest is unique amongst the other catalog offerings. The labs have been curated to give IT professionals hands-on practice with topics and services that appear in the Google Cloud Certified Professional Data Engineer Certification. From Big Query, to Dataprep, to Cloud Composer, this quest is composed of specific labs that will put your Google Cloud data engineering knowledge to the test. Be aware that while practice with these labs will increase your skills and abilities, you will need other preparation, too. The exam is quite challenging and external studying, experience, and/or background in cloud data engineering is recommended. Looking for a hands on challenge lab to demonstrate your skills and validate your knowledge? On completing this quest, enroll in and finish the additional challenge lab at the end of the Engineer Data in the Google Cloud to receive an exclusive Google Cloud digital badge.
ビッグデータ、機械学習、AIはコンピューター業界ではホットな話題です。しかし、これらの分野は専門的で、入門レベルでも難しいことがあります。Google Cloud は使いやすく、Qwiklabs のクエストでは入門レベルをカバーしているため、Big Query、Cloud Speech API、AI Platform などの最初のステップを開始することができます。主なコンセプトは 1 分間のビデオで説明されています。
機械学習はもっとも迅速に成長しているテクノロジーの分野です。Google Cloud Platformは、その成長に一役かっています。APIのホストを使うことにより、GCPにはツールがあります。この上級レベルのクエストでは、「Implementing an AI Chatbot with Dialogflow」や「Detect Labels, Faces, and Landmarks in Images with the Cloud Vision API」と同様に機械学習APIについてハンズオンで演習ができます。
この入門レベルのクエストでは、Google Cloud の基本的なツールやサービスに関する実践演習を行います。「Google Cloud Essentials」は Qwiklabs で特に人気のあるクエストですが、それはクラウドの予備知識がほとんどなくても、あらゆる Google Cloud プロジェクトに応用できる実際的な経験を積めるからです。 「Google Cloud Essentials」では、Cloud Shell コマンドの記述、初めての仮想マシンのデプロイ、Kubernetes Engine 上でのアプリケーション実行と負荷分散など、Google Cloud の主な機能を紹介します。主なコンセプトは 1 分間のビデオで説明されています。