arrow_back

Dataflow: Qwik Start - 템플릿

로그인 가입
지식을 테스트하고 커뮤니티와 공유하기
done
700개 이상의 실무형 실습, 기술 배지, 과정에 액세스

Dataflow: Qwik Start - 템플릿

실습 45분 universal_currency_alt 크레딧 1개 show_chart 입문
info 이 실습에는 학습을 지원하는 AI 도구가 통합되어 있을 수 있습니다.
지식을 테스트하고 커뮤니티와 공유하기
done
700개 이상의 실무형 실습, 기술 배지, 과정에 액세스

GSP192

Google Cloud 사용자 주도형 실습

개요

이 실습에서는 Google의 Dataflow 템플릿 중 하나를 사용하여 스트리밍 파이프라인을 구축하는 방법을 알아봅니다. 구체적으로는 Pub/Sub 주제에서 JSON으로 작성된 메시지를 읽고 BigQuery 테이블에 푸시하는 Pub/Sub to BigQuery 템플릿을 사용합니다. 이 템플릿에 대한 문서는 Google 제공 템플릿 시작하기 가이드에서 확인할 수 있습니다.

Cloud Shell 명령줄 또는 Cloud 콘솔을 사용해 BigQuery 데이터 세트 및 테이블을 만들 수 있는 옵션이 제공됩니다. 사용할 한 가지 방법을 선택하여 남은 실습을 계속 진행합니다. 두 방법 모두를 사용해 보려면 이 실습을 2번 진행합니다.

실습할 내용

  • BigQuery 데이터 세트와 테이블 만들기
  • Cloud Storage 버킷 만들기
  • Pub/Sub to BigQuery Dataflow 템플릿을 사용하여 스트리밍 파이프라인 만들기

설정

실습 시작 버튼을 클릭하기 전에

다음 안내를 확인하세요. 실습에는 시간 제한이 있으며 일시중지할 수 없습니다. 실습 시작을 클릭하면 타이머가 시작됩니다. 이 타이머에는 Google Cloud 리소스를 사용할 수 있는 시간이 얼마나 남았는지 표시됩니다.

실무형 실습을 통해 시뮬레이션이나 데모 환경이 아닌 실제 클라우드 환경에서 직접 실습 활동을 진행할 수 있습니다. 실습 시간 동안 Google Cloud에 로그인하고 액세스하는 데 사용할 수 있는 새로운 임시 사용자 인증 정보가 제공됩니다.

이 실습을 완료하려면 다음을 준비해야 합니다.

  • 표준 인터넷 브라우저 액세스 권한(Chrome 브라우저 권장)
참고: 이 실습을 실행하려면 시크릿 모드 또는 시크릿 브라우저 창을 사용하세요. 개인 계정과 학생 계정 간의 충돌로 개인 계정에 추가 요금이 발생하는 일을 방지해 줍니다.
  • 실습을 완료하기에 충분한 시간---실습을 시작하고 나면 일시중지할 수 없습니다.
참고: 계정에 추가 요금이 발생하지 않도록 하려면 개인용 Google Cloud 계정이나 프로젝트가 이미 있어도 이 실습에서는 사용하지 마세요.

실습을 시작하고 Google Cloud 콘솔에 로그인하는 방법

  1. 실습 시작 버튼을 클릭합니다. 실습 비용을 결제해야 하는 경우 결제 수단을 선택할 수 있는 팝업이 열립니다. 왼쪽에는 다음과 같은 항목이 포함된 실습 세부정보 패널이 있습니다.

    • Google Cloud 콘솔 열기 버튼
    • 남은 시간
    • 이 실습에 사용해야 하는 임시 사용자 인증 정보
    • 필요한 경우 실습 진행을 위한 기타 정보
  2. Google Cloud 콘솔 열기를 클릭합니다(Chrome 브라우저를 실행 중인 경우 마우스 오른쪽 버튼으로 클릭하고 시크릿 창에서 링크 열기를 선택합니다).

    실습에서 리소스가 가동되면 다른 탭이 열리고 로그인 페이지가 표시됩니다.

    팁: 두 개의 탭을 각각 별도의 창으로 나란히 정렬하세요.

    참고: 계정 선택 대화상자가 표시되면 다른 계정 사용을 클릭합니다.
  3. 필요한 경우 아래의 사용자 이름을 복사하여 로그인 대화상자에 붙여넣습니다.

    {{{user_0.username | "Username"}}}

    실습 세부정보 패널에서도 사용자 이름을 확인할 수 있습니다.

  4. 다음을 클릭합니다.

  5. 아래의 비밀번호를 복사하여 시작하기 대화상자에 붙여넣습니다.

    {{{user_0.password | "Password"}}}

    실습 세부정보 패널에서도 비밀번호를 확인할 수 있습니다.

  6. 다음을 클릭합니다.

    중요: 실습에서 제공하는 사용자 인증 정보를 사용해야 합니다. Google Cloud 계정 사용자 인증 정보를 사용하지 마세요. 참고: 이 실습에 자신의 Google Cloud 계정을 사용하면 추가 요금이 발생할 수 있습니다.
  7. 이후에 표시되는 페이지를 클릭하여 넘깁니다.

    • 이용약관에 동의합니다.
    • 임시 계정이므로 복구 옵션이나 2단계 인증을 추가하지 않습니다.
    • 무료 체험판을 신청하지 않습니다.

잠시 후 Google Cloud 콘솔이 이 탭에서 열립니다.

참고: Google Cloud 제품 및 서비스 목록이 있는 메뉴를 보려면 왼쪽 상단의 탐색 메뉴를 클릭합니다. 탐색 메뉴 아이콘

Cloud Shell 활성화

Cloud Shell은 다양한 개발 도구가 탑재된 가상 머신으로, 5GB의 영구 홈 디렉터리를 제공하며 Google Cloud에서 실행됩니다. Cloud Shell을 사용하면 명령줄을 통해 Google Cloud 리소스에 액세스할 수 있습니다.

  1. Google Cloud 콘솔 상단에서 Cloud Shell 활성화 Cloud Shell 활성화 아이콘를 클릭합니다.

연결되면 사용자 인증이 이미 처리된 것이며 프로젝트가 PROJECT_ID로 설정됩니다. 출력에 이 세션의 PROJECT_ID를 선언하는 줄이 포함됩니다.

Your Cloud Platform project in this session is set to YOUR_PROJECT_ID

gcloud는 Google Cloud의 명령줄 도구입니다. Cloud Shell에 사전 설치되어 있으며 명령줄 자동 완성을 지원합니다.

  1. (선택사항) 다음 명령어를 사용하여 활성 계정 이름 목록을 표시할 수 있습니다.
gcloud auth list
  1. 승인을 클릭합니다.

  2. 다음과 비슷한 결과가 출력됩니다.

출력:

ACTIVE: * ACCOUNT: student-01-xxxxxxxxxxxx@qwiklabs.net To set the active account, run: $ gcloud config set account `ACCOUNT`
  1. (선택사항) 다음 명령어를 사용하여 프로젝트 ID 목록을 표시할 수 있습니다.
gcloud config list project

출력:

[core] project = <project_ID>

출력 예시:

[core] project = qwiklabs-gcp-44776a13dea667a6 참고: gcloud 전체 문서는 Google Cloud에서 gcloud CLI 개요 가이드를 참조하세요.

작업 1. Dataflow API가 다시 사용 설정되어 있는지 확인하기

필요한 API에 액세스할 수 있도록 Dataflow API에 대한 연결을 다시 시작합니다.

  1. Cloud 콘솔의 상단 검색창에 'Dataflow API'를 입력합니다. Dataflow API에 대한 검색 결과를 클릭합니다.

  2. 관리를 클릭합니다.

  3. API 사용 중지를 클릭합니다.

확인을 요청하는 메시지가 표시되면 사용 중지를 클릭합니다.

  1. 사용 설정을 클릭합니다.

API가 다시 사용 설정되면 페이지에 사용 중지 옵션이 표시됩니다.

완료된 작업 테스트하기

진행 상황 확인하기를 클릭하여 실행한 작업을 확인합니다.

Dataflow API를 사용 중지한 후 다시 사용 설정하기

작업 2. Cloud Shell을 사용하여 BigQuery 데이터 세트, BigQuery 테이블, Cloud Storage 버킷 만들기

먼저 BigQuery 데이터 세트 및 테이블을 만들어 보겠습니다.

참고: 이 작업에서는 bq 명령줄 도구를 사용합니다. Cloud 콘솔을 사용하여 이러한 단계를 완료하려면 작업 3으로 건너뛰세요.
  1. 다음 명령어를 실행하여 taxirides라는 데이터 세트를 만듭니다.
bq mk taxirides

출력 결과는 다음과 유사합니다.

Dataset '' successfully created

완료된 작업 테스트하기

내 진행 상황 확인하기를 클릭하여 실행한 작업을 확인합니다. BigQuery 데이터 세트를 성공적으로 만든 경우 평가 점수가 표시됩니다.

BigQuery 데이터 세트 만들기(이름: taxirides).

이제 데이터 세트를 만들었으니 다음 단계에서 이를 사용하여 BigQuery 테이블을 인스턴스화합니다.

  1. 다음 명령어를 실행하여 수행합니다.
bq mk \ --time_partitioning_field timestamp \ --schema ride_id:string,point_idx:integer,latitude:float,longitude:float,\ timestamp:timestamp,meter_reading:float,meter_increment:float,ride_status:string,\ passenger_count:integer -t taxirides.realtime

출력 결과는 다음과 유사합니다.

Table 'myprojectid:taxirides.realtime' successfully created

완료된 작업 테스트하기

내 진행 상황 확인하기를 클릭하여 실행한 작업을 확인합니다. BigQuery 데이터 세트에서 테이블을 성공적으로 만든 경우 평가 점수가 표시됩니다.

BigQuery 데이터 세트에서 테이블 만들기

bq mk 명령어는 언뜻 봤을 때 약간 복잡하게 느껴집니다. 하지만 BigQuery 명령줄 문서를 참고하면 명령어의 사용 방식을 자세히 살펴볼 수 있습니다. 예를 들어 이 문서에서는 스키마에 대한 자세한 설명을 제공합니다.

  • 로컬 JSON 스키마 파일의 경로 또는 [FIELD]:[DATA_TYPE], [FIELD]:[DATA_TYPE] 형식의 쉼표로 구분된 열 정의 목록입니다.

여기에서는 쉼표로 구분된 목록을 사용합니다.

Cloud Shell을 사용하여 Cloud Storage 버킷 만들기

이제 테이블을 인스턴스화했으니 버킷을 만들어 보겠습니다.

프로젝트 ID를 버킷 이름으로 사용하여 전역적으로 고유한 이름()을 적용하세요.

  • 다음 명령어를 실행하여 수행합니다.
export BUCKET_NAME={{{project_0.project_id | "Bucket Name"}}} gsutil mb gs://$BUCKET_NAME/

완료된 작업 테스트하기

진행 상황 확인하기를 클릭하여 실행한 작업을 확인합니다. Cloud Storage 버킷을 성공적으로 만든 경우 평가 점수가 표시됩니다.

Cloud Storage 버킷을 만듭니다.

버킷을 만든 후 아래로 스크롤하여 파이프라인 실행 섹션으로 이동합니다.

작업 3. Google Cloud 콘솔을 사용하여 BigQuery 데이터 세트, BigQuery 테이블, Cloud Storage 버킷 만들기

참고: 명령줄에 동일한 작업이 포함되어 있는 작업 2를 완료했다면 작업 3을 완료해선 안 됩니다.
  1. 왼쪽 메뉴의 빅데이터 섹션에서 BigQuery를 클릭합니다.

  2. 그런 다음 완료를 클릭합니다.

  3. 탐색기 섹션에서 프로젝트 이름 옆에 있는 점 3개를 클릭한 후 데이터 세트 만들기를 클릭합니다.

  4. 데이터 세트 ID로 taxirides를 입력합니다.

  5. 데이터 위치로 us(미국 내 여러 리전)를 선택합니다.

  6. 다른 기본 설정은 모두 그대로 두고 데이터 세트 만들기를 클릭합니다.

완료된 작업 테스트하기

내 진행 상황 확인하기를 클릭하여 실행한 작업을 확인합니다. BigQuery 데이터 세트를 성공적으로 만든 경우 평가 점수가 표시됩니다.

BigQuery 데이터 세트 만들기(이름: taxirides).
  1. 이제 콘솔 왼쪽에서 프로젝트 ID 아래에 taxirides 데이터 세트가 표시됩니다.

  2. taxirides 데이터 세트 옆에 있는 점 3개를 클릭하고 열기를 선택합니다.

  3. 그런 다음 콘솔 오른쪽에서 테이블 만들기를 선택합니다.

  4. 대상 > 테이블 이름 입력란에 realtime을 입력합니다.

  5. 스키마 아래에서 텍스트로 편집 슬라이더를 전환하고 다음을 입력합니다.

ride_id:string,point_idx:integer,latitude:float,longitude:float,timestamp:timestamp, meter_reading:float,meter_increment:float,ride_status:string,passenger_count:integer

콘솔은 다음과 같아야 합니다.

테이블 만들기 페이지

  1. 이제 테이블 만들기를 클릭합니다.

완료된 작업 테스트하기

내 진행 상황 확인하기를 클릭하여 실행한 작업을 확인합니다. BigQuery 데이터 세트에서 테이블을 성공적으로 만든 경우 평가 점수가 표시됩니다.

BigQuery 데이터 세트에서 테이블 만들기

Cloud 콘솔을 사용하여 Cloud Storage 버킷 만들기

  1. Cloud 콘솔로 돌아와서 Cloud Storage > 버킷 > 버킷 만들기로 이동합니다.

  2. 프로젝트 ID를 버킷 이름으로 사용하여 전역적으로 고유한 이름()을 적용하세요.

  3. 다른 모든 기본 설정은 그대로 두고 만들기를 클릭합니다.

완료된 작업 테스트하기

진행 상황 확인하기를 클릭하여 실행한 작업을 확인합니다. Cloud Storage 버킷을 성공적으로 만든 경우 평가 점수가 표시됩니다.

Cloud Storage 버킷을 만듭니다.

작업 4. 파이프라인 실행하기

다음과 같이 Dataflow 템플릿을 배포합니다.

gcloud dataflow jobs run iotflow \ --gcs-location gs://dataflow-templates-{{{project_0.default_region | "Region"}}}/latest/PubSub_to_BigQuery \ --region {{{project_0.default_region | "Region"}}} \ --worker-machine-type e2-medium \ --staging-location gs://{{{project_0.project_id | "Bucket Name"}}}/temp \ --parameters inputTopic=projects/pubsub-public-data/topics/taxirides-realtime,outputTableSpec={{{project_0.project_id | "Table Name"}}}:taxirides.realtime

Google Cloud 콘솔탐색 메뉴에서 Dataflow > 작업을 클릭하면 Dataflow 작업이 표시됩니다.

자세한 내용은 문서를 참조하세요.

참고: 활동 모니터링이 완료되는 데 1분 정도 소요될 수 있습니다.

완료된 작업 테스트하기

내 진행 상황 확인하기를 클릭하여 실행한 작업을 확인합니다. Dataflow 파이프라인을 실행하면 평가 점수가 표시됩니다.

파이프라인 실행하기

리소스가 빌드되어 사용할 수 있게 되는 것을 확인합니다.

이제 탐색 메뉴에 있는 BigQuery를 클릭하여 BigQuery에 기록된 데이터를 확인해 봅니다.

  • BigQuery UI가 열리면 프로젝트 이름 아래에 taxirides 데이터 세트가 추가되고 그 아래에 realtime 테이블이 표시되는 것을 확인할 수 있습니다.
참고: BigQuery 테이블에 데이터가 채워지는 데 몇 분 정도 걸릴 수 있습니다.

작업 5. 쿼리 제출하기

표준 SQL을 사용하여 쿼리를 제출할 수 있습니다.

  1. BigQuery 편집기에 다음을 추가하여 프로젝트의 데이터를 쿼리합니다.
SELECT * FROM `{{{project_0.project_id | "Bucket Name"}}}.taxirides.realtime` LIMIT 1000
  1. 이제 실행을 클릭합니다.

문제 또는 오류가 발생하면 쿼리를 다시 실행합니다. 파이프라인이 시작되려면 1분 정도 소요됩니다.

  1. 쿼리가 실행되면 아래와 같이 쿼리 결과 패널에 출력이 표시됩니다.

쿼리 결과 페이지

수고하셨습니다. Pub/Sub 주제에서 1,000건의 택시 탑승 정보를 가져와서 BigQuery 테이블로 푸시했습니다. 직접 확인한 바와 같이 템플릿은 Dataflow 작업을 실행하는 데 있어 실용적이고 사용하기 쉬운 방법을 제공합니다. Dataflow 문서에서 Google 제공 템플릿 시작하기 가이드의 다른 Google 템플릿도 확인하세요.

작업 6. 배운 내용 테스트하기

아래에는 이 실습에서 배운 내용을 복습하기 위한 객관식 테스트가 나와 있습니다. 최선을 다해 풀어보세요.

수고하셨습니다

Pub/Sub 주제에서 JSON으로 작성된 메시지를 읽고 이를 BigQuery 테이블로 푸시하는 Pub/Sub to BigQuery Dataflow 템플릿을 사용하여 스트리밍 파이프라인을 만들었습니다.

다음 단계/더 학습하기

이 실습은 Qwik Start 실습 시리즈 중 하나이며, Google Cloud에서 제공하는 다양한 기능을 간략하게나마 소개하고자 마련되었습니다. Google Cloud Skills Boost 카탈로그에서 'Qwik Start'를 검색하여 다음으로 참여할 실습을 찾아보세요.

Google Cloud 교육 및 자격증

Google Cloud 기술을 최대한 활용하는 데 도움이 됩니다. Google 강의에는 빠른 습득과 지속적인 학습을 지원하는 기술적인 지식과 권장사항이 포함되어 있습니다. 기초에서 고급까지 수준별 학습을 제공하며 바쁜 일정에 알맞은 주문형, 실시간, 가상 옵션이 포함되어 있습니다. 인증은 Google Cloud 기술에 대한 역량과 전문성을 검증하고 입증하는 데 도움이 됩니다.

설명서 최종 업데이트: 2024년 2월 4일

실습 최종 테스트: 2023년 11월 10일

Copyright 2024 Google LLC All rights reserved. Google 및 Google 로고는 Google LLC의 상표입니다. 기타 모든 회사명 및 제품명은 해당 업체의 상표일 수 있습니다.

현재 이 콘텐츠를 이용할 수 없습니다

이용할 수 있게 되면 이메일로 알려드리겠습니다.

감사합니다

이용할 수 있게 되면 이메일로 알려드리겠습니다.