
Before you begin
- Labs create a Google Cloud project and resources for a fixed time
- Labs have a time limit and no pause feature. If you end the lab, you'll have to restart from the beginning.
- On the top left of your screen, click Start lab to begin
Create a Cloud Storage bucket
/ 50
Run an Example Pipeline Remotely
/ 50
Apache Beam SDK는 데이터 파이프라인용 오픈소스 프로그래밍 모델입니다. Google Cloud에서는 Apache Beam 프로그램으로 파이프라인을 정의한 다음 Dataflow 이용해 파이프라인을 실행할 수 있습니다.
이 실습에서는 (Python용 Apache Beam SDK를 사용하여) Dataflow용 Python 개발 환경을 설정하고 예시 Dataflow 파이프라인을 실행합니다.
이 실습에서는 다음을 수행하는 방법에 대해 알아봅니다.
다음 안내를 확인하세요. 실습에는 시간 제한이 있으며 일시중지할 수 없습니다. 실습 시작을 클릭하면 타이머가 시작됩니다. 이 타이머에는 Google Cloud 리소스를 사용할 수 있는 시간이 얼마나 남았는지 표시됩니다.
실무형 실습을 통해 시뮬레이션이나 데모 환경이 아닌 실제 클라우드 환경에서 직접 실습 활동을 진행할 수 있습니다. 실습 시간 동안 Google Cloud에 로그인하고 액세스하는 데 사용할 수 있는 새로운 임시 사용자 인증 정보가 제공됩니다.
이 실습을 완료하려면 다음을 준비해야 합니다.
실습 시작 버튼을 클릭합니다. 실습 비용을 결제해야 하는 경우 결제 수단을 선택할 수 있는 대화상자가 열립니다. 왼쪽에는 다음과 같은 항목이 포함된 실습 세부정보 창이 있습니다.
Google Cloud 콘솔 열기를 클릭합니다(Chrome 브라우저를 실행 중인 경우 마우스 오른쪽 버튼으로 클릭하고 시크릿 창에서 링크 열기를 선택합니다).
실습에서 리소스가 가동되면 다른 탭이 열리고 로그인 페이지가 표시됩니다.
팁: 두 개의 탭을 각각 별도의 창으로 나란히 정렬하세요.
필요한 경우 아래의 사용자 이름을 복사하여 로그인 대화상자에 붙여넣습니다.
실습 세부정보 창에서도 사용자 이름을 확인할 수 있습니다.
다음을 클릭합니다.
아래의 비밀번호를 복사하여 시작하기 대화상자에 붙여넣습니다.
실습 세부정보 창에서도 비밀번호를 확인할 수 있습니다.
다음을 클릭합니다.
이후에 표시되는 페이지를 클릭하여 넘깁니다.
잠시 후 Google Cloud 콘솔이 이 탭에서 열립니다.
Cloud Shell은 다양한 개발 도구가 탑재된 가상 머신으로, 5GB의 영구 홈 디렉터리를 제공하며 Google Cloud에서 실행됩니다. Cloud Shell을 사용하면 명령줄을 통해 Google Cloud 리소스에 액세스할 수 있습니다.
연결되면 사용자 인증이 이미 처리된 것이며 프로젝트가 PROJECT_ID로 설정됩니다. 출력에 이 세션의 PROJECT_ID를 선언하는 줄이 포함됩니다.
gcloud
는 Google Cloud의 명령줄 도구입니다. Cloud Shell에 사전 설치되어 있으며 명령줄 자동 완성을 지원합니다.
승인을 클릭합니다.
다음과 비슷한 결과가 출력됩니다.
출력:
출력:
출력 예시:
gcloud
전체 문서는 Google Cloud에서 gcloud CLI 개요 가이드를 참조하세요.
필요한 API에 액세스할 수 있도록 Dataflow API에 대한 연결을 다시 시작합니다.
Cloud 콘솔의 상단 검색창에 'Dataflow API'를 입력합니다. Dataflow API에 대한 검색 결과를 클릭합니다.
관리를 클릭합니다.
API 사용 중지를 클릭합니다.
확인을 요청하는 메시지가 표시되면 사용 중지를 클릭합니다.
API가 다시 사용 설정되면 페이지에 사용 중지 옵션이 표시됩니다.
Dataflow를 사용하여 파이프라인을 실행한 경우 결과는 Cloud Storage 버킷에 저장됩니다. 이 작업에서는 이후 작업에서 실행할 파이프라인의 결과를 저장할 Cloud Storage 버킷을 만듭니다.
us
만들기를 클릭합니다.
공개 액세스가 차단되었다는 메시지가 표시되면 확인을 클릭합니다.
완료된 작업 테스트하기
내 진행 상황 확인하기를 클릭하여 실행한 작업을 확인합니다. 성공적으로 작업을 완료하면 평가 점수가 부여됩니다.
Python3.9
Docker 이미지를 실행합니다.이 명령어는 최신 Python 3.9 안정화 버전으로 Docker 컨테이너를 가져온 후, 컨테이너 내부에서 다음 명령어를 실행할 수 있도록 명령어 셸을 엽니다.
종속 항목과 관련된 몇 가지 경고가 표시되지만 이 실습에서는 무시해도 됩니다.
wordcount.py
예시를 로컬에서 실행합니다.다음과 유사한 메시지가 나타날 수 있습니다.
이 메시지는 무시해도 됩니다.
OUTPUT_FILE
의 이름을 확인할 수 있습니다.OUTPUT_FILE
의 이름을 복사하고 cat
명령어로 캡처합니다.결과에는 파일에 포함된 각 단어와 이들이 사용된 횟수가 표시됩니다.
wordcount.py
예시를 원격으로 실행합니다.출력에 메시지가 나타날 때까지 기다립니다.
실습을 계속 진행합니다.
처음에는 wordcount 작업의 상태가 실행 중으로 표시됩니다.
상태가 성공이면 프로세스가 완료된 것입니다.
완료된 작업 테스트하기
내 진행 상황 확인하기를 클릭하여 실행한 작업을 확인합니다. 작업을 올바르게 완료하면 평가 점수가 부여됩니다.
Cloud 콘솔에서 탐색 메뉴 > Cloud Storage를 클릭합니다.
버킷의 이름을 클릭합니다. 버킷에서 results 및 staging 디렉터리를 확인할 수 있습니다.
results 폴더를 클릭하면 작업에서 만든 출력 파일이 표시됩니다.
파일에 포함된 단어 수를 보려면 파일을 클릭합니다.
아래는 이 실습에서 배운 내용을 복습하기 위한 객관식 문제입니다. 최선을 다해 풀어보세요.
(Python용 Apache Beam SDK를 사용하여) Dataflow용 Python 개발 환경을 설정하는 방법을 배우고 예시 Dataflow 파이프라인을 실행했습니다.
이 실습은 Qwik Start 실습 시리즈 중 하나이며, Google Cloud에서 제공하는 다양한 기능을 간략하게 소개하고자 마련되었습니다. Google Cloud Skills Boost 카탈로그에서 'Qwik Start'를 검색하여 다음으로 참여할 실습을 찾아보세요.
이 실습의 바탕이 된 서적은 Data Science on the Google Cloud Platform: O'Reilly Media, Inc.입니다.
Google Cloud 기술을 최대한 활용하는 데 도움이 됩니다. Google 강의에는 빠른 습득과 지속적인 학습을 지원하는 기술적인 지식과 권장사항이 포함되어 있습니다. 기초에서 고급까지 수준별 학습을 제공하며 바쁜 일정에 알맞은 주문형, 실시간, 가상 옵션이 포함되어 있습니다. 인증은 Google Cloud 기술에 대한 역량과 전문성을 검증하고 입증하는 데 도움이 됩니다.
설명서 최종 업데이트: 2024년 2월 4일
실습 최종 테스트: 2023년 5월 4일
Copyright 2025 Google LLC All rights reserved. Google 및 Google 로고는 Google LLC의 상표입니다. 기타 모든 회사명 및 제품명은 해당 업체의 상표일 수 있습니다.
현재 이 콘텐츠를 이용할 수 없습니다
이용할 수 있게 되면 이메일로 알려드리겠습니다.
감사합니다
이용할 수 있게 되면 이메일로 알려드리겠습니다.
One lab at a time
Confirm to end all existing labs and start this one