ご自身に最適な Google Cloud トレーニングをお探しください。
Google Cloud では、学習者のことを念頭に置いて設計された、980 以上の学習アクティビティを含む包括的なカタログをご用意しています。さまざまなアクティビティ形式のコン テンツで構成されたカタログから、短時間の単独ラボのほか、一連の動画、ドキュメント、 ラボ、テストで構成されるマルチモジュール コースをお選びいただけます。ラボでは、 実際のクラウド リソースへのアクセスに必要な一時的な認証情報が付与されるため、 本番さながらの状況で Google Cloud について学習できます。修了した学習アクティビ ティのバッジを獲得したり、Google Cloud での成果を定義、記録、分析したりできます。
-
ラボ おすすめ Prepare Data for Looker Dashboards and Reports: チャレンジラボ
このチャレンジラボでは、データのフィルタ処理、ピボット処理、計算、結合を行って Looker ダッシュボードとレポートを作成するスキルをテストします。
-
ラボ おすすめ Firebase を使用してサーバーレス ウェブアプリを構築する
このラボでは、Firebase を使用してサーバーレス ウェブアプリを作成します。ユーザーは作成したアプリで、情報をアップロードしたり架空の Pet Theory クリニックに予約を入れたりすることができます。
-
ラボ おすすめ Prepare Data for ML APIs on Google Cloud: チャレンジラボ
このチャレンジラボでは、「Prepare Data for ML APIs on Google Cloud」コースのラボで習得したスキルと知識をテストします。このチャレンジラボを実行する前に、ラボのコンテンツを理解しておく必要があります。
-
ラボ おすすめ Cloud Dataproc での分散画像処理
このラボでは、Cloud Dataproc で Apache Spark を使用して、コンピューティング負荷の高い画像処理タスクをクラスタのマシンに分散する方法について学びます。
-
ラボ おすすめ Build an LLM and RAG-based Chat Application using AlloyDB and LangChain
Learn how to create an interactive application within a deployed environment.
-
ラボ おすすめ Windows の踏み台インスタンスを使用したセキュアな RDP の構成: チャレンジラボ
これは、制限時間内に一連のタスクを完了する必要があるチャレンジラボです。外部通信向けに構成されていないセキュアな Windows マシンを新しい VPC サブネット内にデプロイし、そのマシンに Microsoft Internet Information Server をデプロイすることが求められます。
-
ラボ おすすめ Explore false positives through incident detection
Aanalyze a false positive threat using the Security Command Center (SCC) and take action to address it.
-
ラボ おすすめ Introduction to Cloud Bigtable (Java)
Learn how to avoid common mistakes with schema design, import data in a sequence file, and query your data using Cloud Bigtable with the Java HBase client.
-
ラボ おすすめ MySQL データベースの Google Cloud SQL への移行: チャレンジラボ
このチャレンジでは、データベースを Google Cloud SQL に移行します。さらに、アプリケーションを再構成し、今後そのアプリケーションがローカルの MySQL データベースを使用しないようにします。
-
ラボ おすすめ Create Text Embeddings for a Vector Store using LangChain
In this lab, you learn how to use LangChain to store documents as embeddings in a vector store. You will use the LangChain framework to split a set of documents into chunks, vectorize (embed) each chunk and then store the embeddings in a vector database.