Guerreiro Carlos
メンバー加入日: 2023
メンバー加入日: 2023
このコースを受講すると、スケーラブルでパフォーマンスの高い LookML(Looker モデリング言語)モデルを開発し、ビジネス ユーザーの疑問解決に役立つ標準化されたすぐに使えるデータを提供できるようになります。このコースの修了時には、組織の Looker インスタンスでデータをキュレートして管理するための LookML モデルの構築と維持が可能になります。
In this quest, you will get hands-on experience with LookML in Looker. You will learn how to write LookML code to create new dimensions and measures, create derived tables and join them to Explores, filter Explores, and define caching policies in LookML.
「Prepare Data for Looker Dashboards and Reports」スキルバッジを獲得できる入門コースを修了すると、 データのフィルタリング、並べ替え、ピボット、異なる Looker Explore から取得した結果の統合、および関数と演算子を使用した、 データの分析と視覚化のための Looker ダッシュボードとレポートの作成といったスキルを実証できます。 スキルバッジは、 Google Cloud のプロダクトとサービスの習熟度を示す Google Cloud 発行の限定デジタルバッジです。インタラクティブなハンズオン環境で知識の応用力が試されます。 このスキルバッジ コースと最終評価チャレンジラボを完了し、スキルバッジを獲得してネットワークで共有しましょう。
「Prepare Data for ML APIs on Google Cloud」コースの入門スキルバッジを獲得できるアクティビティを修了すると、 Dataprep by Trifacta を使用したデータのクリーニング、Dataflow でのデータ パイプラインの実行、Dataproc でのクラスタの作成と Apache Spark ジョブの実行、 Cloud Natural Language API、Google Cloud Speech-to-Text API、Video Intelligence API などの ML API の呼び出しに関するスキルを証明できます。 スキルバッジは、Google Cloud のプロダクトとサービスの習熟度を示す Google Cloud 発行の限定デジタルバッジで、 インタラクティブなハンズオン環境での知識の応用力を証明するものです。このスキルバッジ コースと最終評価チャレンジラボを修了し、 スキルバッジを獲得してネットワークで共有しましょう。
Google Cloud Fundamentals: Core Infrastructure では、Google Cloud に関する重要なコンセプトと用語について説明します。このコースでは動画とハンズオンラボを通じて学習を進めていきます。Google Cloud の多数のコンピューティング サービスとストレージ サービス、そしてリソースとポリシーを管理するための重要なツールについて比較しながら説明します。
Earn a skill badge by completing the Cloud Functions: 3 Ways course, where you learn how to use Cloud Functions (including 2nd gen) through the Google Cloud console and on the command line. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete this Skill Badge, and the final assessment challenge lab, to receive a digital badge that you can share with your network.
This course covers BigQuery fundamentals for professionals who are familiar with SQL-based cloud data warehouses in Redshift and want to begin working in BigQuery. Through interactive lecture content and hands-on labs, you learn how to provision resources, create and share data assets, ingest data, and optimize query performance in BigQuery. Drawing upon your knowledge of Redshift, you also learn about similarities and differences between Redshift and BigQuery to help you get started with data warehouses in BigQuery. After this course, you can continue your BigQuery journey by completing the skill badge quest titled Build and Optimize Data Warehouses with BigQuery.
Getting Started - Create and Manage Cloud Resources よりレベルの高いハンズオンラボでの実践を求めている初心者のクラウド デベロッパーであるなら、このクエストをおすすめします。 Cloud Storage や、Stackdriver および Cloud Functions などの主要なアプリケーション サービスに関連するラボを通して、実践的な経験を積むことが可能です。 このクエストでは、すべての Google Cloud イニシアチブに応用できる有益なスキルを身に付けられます。このクエストおよびクエストの最後にあるチャレンジラボを完了すると、Google Cloud 限定デジタルバッジを獲得できます。主なコンセプトは 1 分間のビデオで説明されて います。
Complete the intermediate Optimize Costs for Google Kubernetes Engine skill badge to demonstrate skills in the following: creating and managing multi-tenant clusters, monitoring resource usage by namespace, configuring cluster and pod autoscaling for efficiency, setting up load balancing for optimal resource distribution, and implementing liveness and readiness probes to ensure application health and cost-effectiveness. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete this skill badge course and the final assessment challenge lab to receive a skill badge that you can share with your network.
Implement Cloud Security Fundamentals on Google Cloud スキルバッジを獲得できる中級コースを修了すると、 Identity and Access Management(IAM)でのロールの作成と割り当て、 サービス アカウントの作成と管理、Virtual Private Cloud(VPC)ネットワーク全体でのプライベート接続の有効化、 Identity-Aware Proxy を使用したアプリケーション アクセスの制限、Cloud Key Management Service(KMS)を使用した鍵と暗号化されたデータの管理、 限定公開 Kubernetes クラスタの作成に関するスキルを実証できます。 スキルバッジは、Google Cloud のプロダクトとサービスの習熟度を示す Google Cloud 発行の限定デジタルバッジで、 インタラクティブなハンズオン環境での知識の応用力を証明するものです。スキル バッジ コースと最終評価チャレンジラボを完了し、デジタルバッジを獲得して ネットワークで共有しましょう。
このコースでは、これまで主に SQL のデベロッパーやアナリストが行っていたようなデータの探索や分析を Looker で実施する方法について学びます。このコースを修了すると、Looker の最新の分析プラットフォームを活用して、組織の Looker インスタンスにおける関連性の高いコンテンツの検索と探索、データに関する問い合わせ、必要に応じた新しい指標の作成、データドリブンな意思決定を促進するためのビジュアリゼーションとダッシュボードの作成や共有を行えるようになります。
このコースでは、Google Cloud のインフラストラクチャとアプリケーションのパフォーマンスをモニタリングして改善するための手法を学びます。 プレゼンテーション、デモ、ハンズオンラボ、実際の事例紹介を組み合わせて活用することにより、フルスタック モニタリング、リアルタイムでのログ管理と分析、本番環境でのコードのデバッグ、アプリケーション パフォーマンスのボトルネックのトレース、CPU とメモリ使用量のプロファイリングに関する経験を積むことができます。
The Generative AI Explorer - Vertex Quest is a collection of labs on how to use Generative AI on Google Cloud. Through the labs, you will learn about how to use the models in the Vertex AI PaLM API family, including text-bison, chat-bison, and textembedding-gecko. You will also learn about prompt design, best practices, and how it can be used for ideation, text classification, text extraction, text summarization, and more. You will also learn how to tune a foundation model by training it via Vertex AI custom training and deploy it to a Vertex AI endpoint.
このコースでは、実績ある設計パターンを利用して、信頼性と効率に優れたソリューションを Google Cloud で構築する方法を学習します。本コースは、Architecting with Google Compute Engine または Architecting with Google Kubernetes Engine のコースの続きで、これらのコースで取り上げているテクノロジーの実践経験があることを前提としています。参加者は、講義、設計アクティビティ、ハンズオンラボを通して、ビジネス要件と技術要件を定義し、バランスを取りながら、信頼性、可用性、安全性、費用対効果に優れた Google Cloud のデプロイを設計する方法を学びます。
企業における AI と ML の利用が拡大し続けるなか、責任を持ってそれを構築することの重要性も増しています。多くの企業にとっての課題は、責任ある AI と口で言うのは簡単でも、それを実践するのは難しいということです。このコースは、責任ある AI を組織で運用化する方法を学びたい方に最適です。 このコースでは、Google Cloud が責任ある AI を現在どのように運用化しているかを、ベスト プラクティスや教訓と併せて学び、責任ある AI に対する独自のアプローチを構築するためのフレームワークとして活用できるようにします。
このコースでは、まず、データ品質を向上させる方法や探索的データ分析を行う方法など、データについての議論から始めます。Vertex AI AutoML について確認し、コードを一切記述せずに ML モデルを構築、トレーニング、デプロイする方法を説明します。また、BigQuery ML のメリットを確認します。その後、ML モデルを最適化する方法、一般化とサンプリングを活用してカスタム トレーニング向けに ML モデルの品質を評価する方法を説明します。
Google Cloud で機械学習を実装する際のベスト プラクティスには何があるでしょうか。Vertex AI とは何であり、このプラットフォームを使用してコードを 1 行も記述せずに AutoML 機械学習モデルを迅速に構築、トレーニング、デプロイするにはどうすればよいでしょうか。機械学習とはどのようなもので、どのような問題の解決に役立つのでしょうか。 Google では機械学習について独自の視点で考えています。マネージド データセット、特徴量ストア、そしてコードを 1 行も記述せずに迅速に機械学習モデルを構築、トレーニング、デプロイする手段を 1 つにまとめた統合プラットフォームを提供するとともに、データにラベル付けし、TensorFlow、SciKit Learn、Pytorch、R やその他のフレームワークを使用して Workbench ノートブックを作成できるようにすることが、Google の考える機械学習の在り方です。Google の Vertex AI プラットフォームでは、カスタムモデルをトレーニングしたり、コンポーネント パイプラインを構築したりすることもできます。さらに、オンライン予測とバッチ予測の両方を実施できます。このコースでは、候補となるユースケースを機械学習で学習できる形に変換する 5 つのフェーズについても説明し、これらのフェーズを省略しないことが重要である理由について論じます。最後に、機械学習によって増幅される可能性のあるバイアスの認識と、それを識別する方法について説明します。
このコースでは、生成 AI モデルのプロトタイピングやカスタマイズを行うためのツールである Vertex AI Studio をご紹介します。没入型レッスン、訴求力のあるデモやハンズオンラボを通して、生成 AI ワークフローを詳しく探るとともに、Gemini マルチモーダル アプリケーション、プロント設計、モデルのチューニングのために Vertex AI Studio を活用する方法を学びます。Vertex AI Studio を使用して、プロジェクトでこれらのモデルを最大限に活用できるようにすることを目的としています。
このコースでは、ディープ ラーニングを使用して画像キャプション生成モデルを作成する方法について学習します。エンコーダやデコーダなどの画像キャプション生成モデルのさまざまなコンポーネントと、モデルをトレーニングして評価する方法を学びます。このコースを修了すると、独自の画像キャプション生成モデルを作成し、それを使用して画像のキャプションを生成できるようになります。
このコースでは、Transformer アーキテクチャと Bidirectional Encoder Representations from Transformers(BERT)モデルの概要について説明します。セルフアテンション機構をはじめとする Transformer アーキテクチャの主要コンポーネントと、それが BERT モデルの構築にどのように使用されているのかについて学習します。さらに、テキスト分類、質問応答、自然言語推論など、BERT を適用可能なその他のタスクについても学習します。このコースの推定所要時間は約 45 分です。
このコースでは、アテンション機構について学習します。アテンション機構とは、ニューラル ネットワークに入力配列の重要な部分を認識させるための高度な技術です。アテンションの仕組みと、アテンションを活用して機械翻訳、テキスト要約、質問応答といったさまざまな ML タスクのパフォーマンスを改善する方法を説明します。
このコースでは、機械翻訳、テキスト要約、質問応答などのシーケンス ツー シーケンス タスクに対応する、強力かつ広く使用されている ML アーキテクチャであるエンコーダ / デコーダ アーキテクチャの概要を説明します。エンコーダ / デコーダ アーキテクチャの主要なコンポーネントと、これらのモデルをトレーニングして提供する方法について学習します。対応するラボのチュートリアルでは、詩を生成するためのエンコーダ / デコーダ アーキテクチャの簡単な実装を、TensorFlow で最初からコーディングします。
このコースでは拡散モデルについて説明します。拡散モデルは ML モデル ファミリーの一つで、最近、画像生成分野での有望性が示されました。拡散モデルは物理学、特に熱力学からインスピレーションを得ています。ここ数年、拡散モデルは研究と産業界の両方で広まりました。拡散モデルは、Google Cloud の最先端の画像生成モデルやツールの多くを支える技術です。このコースでは、拡散モデルの背景にある理論と、モデルを Vertex AI でトレーニングしてデプロイする方法について説明します。
「Introduction to Generative AI」、「Introduction to Large Language Models」、「Introduction to Responsible AI」の各コースを修了すると、スキルバッジを獲得できます。最終テストに合格することで、ジェネレーティブ AI の基礎概念を理解していることが証明されます。 スキルバッジは、Google Cloud のプロダクトとサービスに関する知識を認定するために Google Cloud が発行するデジタルバッジです。スキルバッジは、ソーシャル メディアの公開プロフィールを作成してそこに追加することで一般向けに共有できます。
この入門レベルのマイクロラーニング コースでは、責任ある AI の概要と重要性、および Google が責任ある AI を自社プロダクトにどのように実装しているのかについて説明します。また、Google の AI に関する 7 つの原則についても説明します。
このコースは、大規模言語モデル(LLM)とは何か、どのようなユースケースで活用できるのか、プロンプトのチューニングで LLM のパフォーマンスを高めるにはどうすればよいかについて学習する、入門レベルのマイクロ ラーニング コースです。独自の生成 AI アプリを開発する際に利用できる Google ツールも紹介します。
この入門レベルのマイクロラーニング コースでは、生成 AI の概要、利用方法、従来の機械学習の手法との違いについて説明します。独自の生成 AI アプリを作成する際に利用できる Google ツールも紹介します。
このコースは、Dataflow を使用したサーバーレスのデータ処理に関する 3 コースシリーズのパート 1 です。この最初のコースでは、始めに Apache Beam とは何か、そして Dataflow とどのように関係しているかを復習します。次に、Apache Beam のビジョンと Beam Portability フレームワークの利点について説明します。Beam Portability フレームワークによって、デベロッパーが好みのプログラミング言語と実行バックエンドを使用できるビジョンが実現します。続いて、Dataflow によってどのように費用を節約しながらコンピューティングとストレージを分離できるか、そして識別ツール、アクセスツール、管理ツールがどのように Dataflow パイプラインと相互に機能するかを紹介します。最後に、Dataflow でそれぞれのユースケースに合った適切なセキュリティ モデルを実装する方法について学習します。
ML をデータ パイプラインに組み込むと、データから分析情報を抽出する能力を向上できます。このコースでは、Google Cloud でデータ パイプラインに ML を含める複数の方法について説明します。カスタマイズがほとんど、またはまったく必要ない場合のために、このコースでは AutoML について説明します。よりカスタマイズされた ML 機能については、Notebooks と BigQuery の機械学習(BigQuery ML)を紹介します。また、Vertex AI を使用して ML ソリューションを本番環境に導入する方法も説明します。
ストリーミングによって企業が事業運営に関するリアルタイムの指標を取得できるようになり、ストリーミング データの処理を行う機会が増えてきました。このコースでは、Google Cloud でストリーミング データ パイプラインを構築する方法について学習します。受信ストリーミング データの処理のために Pub/Sub について説明します。また、このコースでは、Dataflow を使用してストリーミング データの集計や変換を行う方法、処理済みのレコードを分析用に BigQuery や Bigtable に保存する方法についても説明します。さらに、Qwiklabs を使用して Google Cloud でストリーミング データ パイプラインのコンポーネントを構築する実践演習を行います。
通常、データ パイプラインは、「抽出、読み込み」、「抽出、読み込み、変換」、「抽出、変換、読み込み」のいずれかの枠組みに分類できます。このコースでは、バッチデータではどの枠組みを、どのような場合に使用するのかについて説明します。本コースではさらに、BigQuery、Dataproc 上での Spark の実行、Cloud Data Fusion のパイプラインのグラフ、Dataflow でのサーバーレスのデータ処理など、データ変換用の複数の Google Cloud テクノロジーについて説明します。受講者には、Qwiklabs を使用して Google Cloud でデータ パイプラインのコンポーネントを構築する実践演習を行っていただきます。
このコースでは、Professional Data Engineer(PDE)認定資格試験に向けた学習計画を作成できます。学習者は、試験の範囲を把握できます。また、試験への準備状況を把握して、個々の学習計画を作成します。
すべてのデータ パイプラインには、データレイクとデータ ウェアハウスという 2 つの主要コンポーネントがあります。このコースでは、各ストレージ タイプのユースケースを紹介し、Google Cloud で利用可能なデータレイクとデータ ウェアハウスのソリューションを技術的に詳しく説明します。また、データ エンジニアの役割や、効果的なデータ パイプラインが事業運営にもたらすメリットについて確認し、クラウド環境でデータ エンジニアリングを行うべき理由を説明します。 これは「Data Engineering on Google Cloud」シリーズの最初のコースです。このコースを修了したら、「Building Batch Data Pipelines on Google Cloud」コースに登録してください。
このコースでは、データから AI へのライフサイクルをサポートする Google Cloud のビッグデータと ML のプロダクトやサービスを紹介します。また、Google Cloud で Vertex AI を使用してビッグデータ パイプラインと ML モデルを作成する際のプロセス、課題、メリットについて説明します。
Earn a skill badge by completing the Build Google Cloud Infrastructure for AWS Professionals course, where you learn how to configure IAM permission, orchestrate workloads using Kubernetes, host a web application using compute engine, and configure load balancing. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete this Skill Badge, and the final assessment challenge lab, to receive a digital badge that you can share with your network.
This is the fourth course of a four-course series for cloud architects and engineers with existing AWS knowledge. It compares Google Cloud and AWS solutions and guides professionals on their use. This course focuses on deploying and monitoring applications in Google Cloud. The learners apply the knowledge of monitoring and application deployment processes in AWS to explore the differences with Google Cloud. Learners get hands-on practice building and managing Google Cloud resources.
This is the third course of a four-course series for cloud architects and engineers with existing AWS knowledge, and it compares Google Cloud and AWS solutions and guides professionals on their use. This course focuses on Storage Options and containers in Google Cloud. The learners apply the knowledge of storage and containers in AWS to explore the similarities and differences with storage and containers in Google Cloud. Learners get hands-on practice building and managing Google Cloud resources.
This is the second course of a four-course series for cloud architects and engineers with existing AWS knowledge. It aims to compare Google Cloud and AWS solutions and guide professionals on their use. This course focuses on compute resources and load balancing in Google Cloud. The learner will apply the knowledge of using virtual machines and load balancers in AWS to explore the similarities and differences with configuring and managing compute resources and load balancers in Google Cloud. Learners will get hands-on practice building and managing Google Cloud resources.
This is the first course of a four-course series for cloud architects and engineers with existing AWS knowledge, and it compares Google Cloud and AWS solutions and guides professionals on their use. This course focuses on Identity and Access Management (IAM) and networking in Google Cloud. The learners apply the knowledge of access management and networking in AWS to explore the similarities and differences with access management and networking in Google Cloud. Learners get hands-on practice building and managing Google Cloud resources.