ご自身に最適な Google Cloud トレーニングをお探しください。
Google Cloud では、学習者のことを念頭に置いて設計された、980 以上の学習アクティビティを含む包括的なカタログをご用意しています。さまざまなアクティビティ形式のコン テンツで構成されたカタログから、短時間の単独ラボのほか、一連の動画、ドキュメント、 ラボ、テストで構成されるマルチモジュール コースをお選びいただけます。ラボでは、 実際のクラウド リソースへのアクセスに必要な一時的な認証情報が付与されるため、 本番さながらの状況で Google Cloud について学習できます。修了した学習アクティビ ティのバッジを獲得したり、Google Cloud での成果を定義、記録、分析したりできます。
-
ラボ おすすめ Getting started with Firebase Web
In this hands-on lab, you will learn about the Firebase product suite with Web.
-
ラボ おすすめ Migrating an application and data from Apache Cassandra™ to DataStax Enterprise
In this lab, you will learn how to migrate an application running on Apache Cassandra™ to DataStax Enterprise (DSE). To do this, you will deploy a Cassandra™ database and an application that writes data into it. You will then deploy a DataStax Enterprise database and connect the same application to the database. F…
-
ラボ おすすめ Scaling VM-Series to Secure Google Cloud Networks
Secure Google Cloud hub-and-spoke topology with VM-Series at scale.
-
ラボ おすすめ Firebase を使用してサーバーレス ウェブアプリを構築する
このラボでは、Firebase を使用してサーバーレス ウェブアプリを作成します。ユーザーは作成したアプリで、情報をアップロードしたり架空の Pet Theory クリニックに予約を入れたりすることができます。
-
ラボ おすすめ Cloud Armor Preconfigured WAF Rules
Mitigate some common vulnerabilities by using Google Cloud Armor WAF rules.
-
ラボ おすすめ Vertex AI: カスタムモデルのトレーニングとサービング
このラボでは、Vertex AI を活用し、カスタム コンテナ内のコードを使用して TensorFlow モデルのトレーニングとサービングを行います。
-
ラボ おすすめ Build an LLM and RAG-based Chat Application with AlloyDB and Vertex AI
In this lab, you create a chat application that uses Retrieval Augmented Generation, or RAG, to augment prompts with data retrieved from AlloyDB.
-
ラボ おすすめ Prepare Data for ML APIs on Google Cloud: チャレンジラボ
このチャレンジラボでは、「Prepare Data for ML APIs on Google Cloud」コースのラボで習得したスキルと知識をテストします。このチャレンジラボを実行する前に、ラボのコンテンツを理解しておく必要があります。
-
ラボ おすすめ Cloud Dataproc での分散画像処理
このラボでは、Cloud Dataproc で Apache Spark を使用して、コンピューティング負荷の高い画像処理タスクをクラスタのマシンに分散する方法について学びます。
-
ラボ おすすめ Create Text Embeddings for a Vector Store using LangChain
In this lab, you learn how to use LangChain to store documents as embeddings in a vector store. You will use the LangChain framework to split a set of documents into chunks, vectorize (embed) each chunk and then store the embeddings in a vector database.