원하는 방식의 Google Cloud 교육을 살펴보세요.

Google Cloud에서 개발자를 대상으로 한 980개 이상의 학습 활동을 선택할 수 있는 포괄적인 카탈로그를 설계했습니다. 이 카탈로그는 개발자가 선택할 수 있는 다양한 활동 형식으로 구성되어 있습니다. 짧은 분량의 개별 실습 또는 동영상, 문서, 실습, 퀴즈로 구성된 멀티 모듈 과정 중에서 선택하세요. 실습에서는 실제 클라우드 리소스에 대한 임시 사용자 인증 정보를 제공하므로 실제 리소스를 사용하여 Google Cloud를 알아볼 수 있습니다. 이수한 과정의 배지를 획득하고 Google Cloud 성과를 정의, 추적, 측정하세요.

필터링 기준
모두 지우기
  • 배지
  • 형식
  • 언어

결과 1201개
  1. 실습 추천

    Navigate Dataplex

    Use dataplex to identify data sources in BigQuery and Dataproc

  2. 실습 추천

    HTTP Google Cloud Functions in Go

    In this lab you'll build an HTTP Cloud Function in Go.

  3. 실습 추천

    Stream Processing with Cloud Pub/Sub and Dataflow: Qwik Start

    This quickstart shows you how to use Dataflow to read messages published to a Pub/Sub topic, window (or group) the messages by timestamp, and Write the messages to Cloud Storage.

  4. 실습 추천

    Use Vertex AI Studio for Healthcare

    In this lab, you will learn how to use Vertex AI Studio to create prompts and conversations with Gemini's multimodal capabilities in a healthcare context.

  5. 실습 추천

    Prepare Data for ML APIs on Google Cloud: 챌린지 실습

    이 챌린지 실습에서는 Prepare Data for ML APIs on Google Cloud 과정에서 실습을 통해 배운 기술과 지식을 테스트합니다. 이 실습을 시작하기 전에 해당 실습의 내용을 숙지해야 합니다.

  6. 실습 추천

    SQL을 사용해 Gemini로 고객 리뷰 분석하기

    SQL을 사용하여 고객 리뷰를 분석할 수 있도록 원격 모델(Gemini)과 BigQuery 머신러닝을 함께 사용하는 방법에 대해 알아봅니다.

  7. 실습 추천

    TensorFlow에서 MinDiff로 편향 완화하기

    이 실습에서는 TensorFlow 모델 수정 라이브러리를 활용하여 MinDiff 기법으로 편향을 완화하는 방법을 학습합니다.

  8. 실습 추천

    Google Cloud의 머신러닝으로 금융 거래 사기 감지

    BigQuery ML을 사용하여 사기 분석을 위해 금융 거래 데이터를 탐색하고 특성 추출과 머신러닝 기술을 적용하여 허위 행위를 감지합니다.

  9. 실습 추천

    Build an LLM and RAG-based Chat Application with AlloyDB and Vertex AI

    In this lab, you create a chat application that uses Retrieval Augmented Generation, or RAG, to augment prompts with data retrieved from AlloyDB.

  10. 실습 추천

    Create Text Embeddings for a Vector Store using LangChain

    In this lab, you learn how to use LangChain to store documents as embeddings in a vector store. You will use the LangChain framework to split a set of documents into chunks, vectorize (embed) each chunk and then store the embeddings in a vector database.