arrow_back

Dataflow와 BigQuery를 사용하여 Google Cloud에서 ETL 처리하기(Python)

로그인 가입
700개 이상의 실습 및 과정 이용하기

Dataflow와 BigQuery를 사용하여 Google Cloud에서 ETL 처리하기(Python)

실습 1시간 30분 universal_currency_alt 크레딧 5개 show_chart 중급
info 이 실습에는 학습을 지원하는 AI 도구가 통합되어 있을 수 있습니다.
700개 이상의 실습 및 과정 이용하기

GSP290

개요

Dataflow는 통합 스트림 및 일괄 데이터 처리를 대규모로 제공하는 Google Cloud 서비스입니다. 일괄 및 스트리밍 데이터 병렬 처리 파이프라인을 모두 정의하는 오픈소스 모델인 Apache Beam 프로젝트를 기반으로 빌드되었습니다. 오픈소스 Apache Beam SDK 중 하나를 사용하여, 파이프라인을 정의하는 프로그램을 빌드한 다음 Dataflow를 사용하여 파이프라인을 실행할 수 있습니다.

이 실습에서는 Python용 Apache Beam SDK를 사용해 Dataflow에서 파이프라인을 빌드하고 실행하여 Cloud Storage에서 BigQuery로 데이터를 수집한 다음, BigQuery에서 데이터를 변환하고 보강합니다.

참고: 안내에 따라 Python 파일을 열고 설명을 읽어야 합니다. 이 설명을 읽으면 코드 작업을 파악할 수 있습니다.

실습할 내용

이 실습에서는 다음을 수행하는 방법에 대해 알아봅니다.

  • Dataflow 파이프라인(Python)을 빌드하고 실행하여 Cloud Storage에서 BigQuery로 데이터를 수집합니다.
  • Dataflow 파이프라인(Python)을 빌드하고 실행하여 BigQuery에서 데이터를 변환하고 보강합니다.
  • Dataflow 파이프라인(Python)을 빌드하고 실행하여 BigQuery에서 데이터를 조인하고 결과를 새 테이블에 씁니다.

설정 및 요건

실습 시작 버튼을 클릭하기 전에

다음 안내를 확인하세요. 실습에는 시간 제한이 있으며 일시중지할 수 없습니다. 실습 시작을 클릭하면 타이머가 시작됩니다. 이 타이머는 Google Cloud 리소스를 사용할 수 있는 시간이 얼마나 남았는지를 표시합니다.

실무형 실습을 통해 시뮬레이션이나 데모 환경이 아닌 실제 클라우드 환경에서 실습 활동을 진행할 수 있습니다. 실습 시간 동안 Google Cloud에 로그인하고 액세스하는 데 사용할 수 있는 새로운 임시 사용자 인증 정보가 제공됩니다.

이 실습을 완료하려면 다음을 준비해야 합니다.

  • 표준 인터넷 브라우저 액세스 권한(Chrome 브라우저 권장)
참고: 이 실습을 실행하려면 시크릿 모드(권장) 또는 시크릿 브라우저 창을 사용하세요. 개인 계정과 학습자 계정 간의 충돌로 개인 계정에 추가 요금이 발생하는 일을 방지해 줍니다.
  • 실습을 완료하기에 충분한 시간(실습을 시작하고 나면 일시중지할 수 없음)
참고: 이 실습에는 학습자 계정만 사용하세요. 다른 Google Cloud 계정을 사용하는 경우 해당 계정에 비용이 청구될 수 있습니다.

실습을 시작하고 Google Cloud 콘솔에 로그인하는 방법

  1. 실습 시작 버튼을 클릭합니다. 실습 비용을 결제해야 하는 경우 결제 수단을 선택할 수 있는 대화상자가 열립니다. 왼쪽에는 다음과 같은 항목이 포함된 실습 세부정보 창이 있습니다.

    • Google Cloud 콘솔 열기 버튼
    • 남은 시간
    • 이 실습에 사용해야 하는 임시 사용자 인증 정보
    • 필요한 경우 실습 진행을 위한 기타 정보
  2. Google Cloud 콘솔 열기를 클릭합니다(Chrome 브라우저를 실행 중인 경우 마우스 오른쪽 버튼으로 클릭하고 시크릿 창에서 링크 열기를 선택합니다).

    실습에서 리소스가 가동되면 다른 탭이 열리고 로그인 페이지가 표시됩니다.

    팁: 두 개의 탭을 각각 별도의 창으로 나란히 정렬하세요.

    참고: 계정 선택 대화상자가 표시되면 다른 계정 사용을 클릭합니다.
  3. 필요한 경우 아래의 사용자 이름을 복사하여 로그인 대화상자에 붙여넣습니다.

    {{{user_0.username | "Username"}}}

    실습 세부정보 창에서도 사용자 이름을 확인할 수 있습니다.

  4. 다음을 클릭합니다.

  5. 아래의 비밀번호를 복사하여 시작하기 대화상자에 붙여넣습니다.

    {{{user_0.password | "Password"}}}

    실습 세부정보 창에서도 비밀번호를 확인할 수 있습니다.

  6. 다음을 클릭합니다.

    중요: 실습에서 제공하는 사용자 인증 정보를 사용해야 합니다. Google Cloud 계정 사용자 인증 정보를 사용하지 마세요. 참고: 이 실습에 자신의 Google Cloud 계정을 사용하면 추가 요금이 발생할 수 있습니다.
  7. 이후에 표시되는 페이지를 클릭하여 넘깁니다.

    • 이용약관에 동의합니다.
    • 임시 계정이므로 복구 옵션이나 2단계 인증을 추가하지 않습니다.
    • 무료 체험판을 신청하지 않습니다.

잠시 후 Google Cloud 콘솔이 이 탭에서 열립니다.

참고: Google Cloud 제품 및 서비스에 액세스하려면 탐색 메뉴를 클릭하거나 검색창에 제품 또는 서비스 이름을 입력합니다.

Cloud Shell 활성화

Cloud Shell은 다양한 개발 도구가 탑재된 가상 머신으로, 5GB의 영구 홈 디렉터리를 제공하며 Google Cloud에서 실행됩니다. Cloud Shell을 사용하면 명령줄을 통해 Google Cloud 리소스에 액세스할 수 있습니다.

  1. Google Cloud 콘솔 상단에서 Cloud Shell 활성화 를 클릭합니다.

  2. 다음 창을 클릭합니다.

    • Cloud Shell 정보 창을 통해 계속 진행합니다.
    • 사용자 인증 정보를 사용하여 Google Cloud API를 호출할 수 있도록 Cloud Shell을 승인합니다.

연결되면 사용자 인증이 이미 처리된 것이며 프로젝트가 학습자의 PROJECT_ID, (으)로 설정됩니다. 출력에 이 세션의 PROJECT_ID를 선언하는 줄이 포함됩니다.

Your Cloud Platform project in this session is set to {{{project_0.project_id | "PROJECT_ID"}}}

gcloud는 Google Cloud의 명령줄 도구입니다. Cloud Shell에 사전 설치되어 있으며 명령줄 자동 완성을 지원합니다.

  1. (선택사항) 다음 명령어를 사용하여 활성 계정 이름 목록을 표시할 수 있습니다.
gcloud auth list
  1. 승인을 클릭합니다.

출력:

ACTIVE: * ACCOUNT: {{{user_0.username | "ACCOUNT"}}} To set the active account, run: $ gcloud config set account `ACCOUNT`
  1. (선택사항) 다음 명령어를 사용하여 프로젝트 ID 목록을 표시할 수 있습니다.
gcloud config list project

출력:

[core] project = {{{project_0.project_id | "PROJECT_ID"}}} 참고: gcloud 전체 문서는 Google Cloud에서 gcloud CLI 개요 가이드를 참고하세요.

작업 1. Dataflow API가 사용 설정되어 있는지 확인

필요한 API에 액세스할 수 있도록 Dataflow API에 대한 연결을 다시 시작합니다.

중요: API가 현재 사용 설정되어 있더라도, API를 성공적으로 다시 시작하려면 아래 1~4단계에 따라 API를 사용 중지했다가 다시 사용 설정해야 합니다.
  1. Google Cloud 콘솔 제목 표시줄의 검색창Dataflow API를 입력한 다음 검색 결과에서 Dataflow API를 클릭합니다.

  2. 관리를 클릭합니다.

  3. API 사용 중지를 클릭합니다.

확인을 요청하는 메시지가 표시되면 사용 중지를 클릭합니다.

  1. 사용 설정을 클릭합니다.

API가 다시 사용 설정되면 페이지에 사용 중지 옵션이 표시됩니다.

내 진행 상황 확인하기를 클릭하여 실행한 작업을 확인합니다.

Dataflow API를 사용 중지한 후 다시 사용 설정하기

작업 2. 시작 코드 다운로드

이 실습에서 사용할 Dataflow Python 예를 다운로드합니다.

  1. Cloud Shell에서 다음 명령어를 실행하여 Google Cloud의 전문 서비스 GitHub에서 Dataflow Python 예를 가져옵니다.
gcloud storage cp -r gs://spls/gsp290/dataflow-python-examples .
  1. 프로젝트 ID의 변수를 설정합니다.
export PROJECT={{{ project_0.project_id }}} gcloud config set project $PROJECT

작업 3. Cloud Storage 버킷 만들기 및 버킷에 파일 복사

Cloud Shell에서 Cloud Storage 버킷을 만든 다음 버킷에 파일을 복사합니다. 이러한 파일은 Dataflow Python의 예입니다.

Cloud Storage 버킷 만들기

  • 계속 Cloud Shell에 있는 상태에서 버킷 만들기 명령어를 사용하여 프로젝트 내 리전에 새로운 리전 버킷을 만듭니다.
gcloud storage buckets create gs://$PROJECT --location={{{ project_0.default_region | REGION }}}

내 진행 상황 확인하기를 클릭하여 실행한 작업을 확인합니다.

Cloud Storage 버킷 만들기

버킷에 파일 복사

  • Cloud Shell에서 gsutil 명령어를 사용하여 파일을 방금 생성한 Cloud Storage 버킷에 복사합니다.
gcloud storage cp gs://spls/gsp290/data_files/usa_names.csv gs://$PROJECT/data_files/ gcloud storage cp gs://spls/gsp290/data_files/head_usa_names.csv gs://$PROJECT/data_files/

내 진행 상황 확인하기를 클릭하여 실행한 작업을 확인합니다.

버킷에 파일 복사

작업 4. BigQuery 데이터 세트 만들기

BigQuery 데이터 세트를 만듭니다. 이 데이터 세트는 BigQuery에서 테이블이 로드되는 곳입니다.

Cloud Shell에서 lake라는 이름의 데이터 세트를 만듭니다.

bq mk lake

내 진행 상황 확인하기를 클릭하여 실행한 작업을 확인합니다.

lake라는 이름의 BigQuery 데이터 세트 만들기

작업 5. 데이터 수집 파이프라인 검토 및 실행

이 작업에서는 파이프라인 코드를 검토하여 실행 방식을 확인합니다. 그런 다음 파이프라인을 설정하고 실행합니다.

데이터 수집 파이프라인은 TextIO 소스와 BigQueryIO 대상을 사용하여 Cloud Storage의 데이터를 BigQuery 테이블로 수집합니다. 구체적으로 설명하자면 파이프라인은 다음 작업을 수행합니다.

  • Cloud Storage에서 파일을 수집합니다.
  • 파일에서 헤더 행을 필터링합니다.
  • 읽은 줄을 사전 객체로 변환합니다.
  • BigQuery에 행을 출력합니다.

데이터 수집 파이프라인의 Python 코드 검토

Cloud Shell 코드 편집기를 사용하여 파이프라인 코드를 검토합니다.

  1. Cloud Shell 메뉴 바에서 편집기 열기를 클릭합니다.

  2. dataflow_python_examples > dataflow_python_examples로 이동한 다음 data_ingestion.py 파일을 엽니다.

  3. 코드 작업을 설명하는 파일의 설명을 읽어봅니다.

이 코드는 Cloud Storage의 데이터 파일로 BigQuery 테이블을 채웁니다.

  1. 터미널 열기를 클릭하여 Cloud Shell로 돌아갑니다.

Dataflow 작업을 위한 Docker 컨테이너 설정

  1. Cloud Shell 세션으로 돌아가 필요한 Python 라이브러리를 설정합니다.

이 실습의 Dataflow 작업을 수행하려면 Python3.8이 필요합니다. 알맞은 버전을 사용하고 있는지 확인할 수 있도록 Python 3.8 Docker 컨테이너에서 Dataflow 프로세스를 실행합니다.

  1. Cloud Shell에서 다음을 실행하여 Python 컨테이너를 시작합니다.
cd ~ docker run -it -e PROJECT=$PROJECT -v $(pwd)/dataflow-python-examples:/dataflow python:3.8 /bin/bash

이 명령어는 최신 Python 3.8의 안정화 버전으로 Docker 컨테이너를 가져온 다음 컨테이너 내부에서 다음 명령어를 실행할 수 있도록 명령어 셸을 실행합니다. -v 플래그는 소스 코드를 컨테이너의 volume으로 제공하므로 Cloud Shell 편집기에서 편집하고 실행 중인 컨테이너 내부에서 계속 편집기에 액세스할 수 있습니다.

  1. 컨테이너가 가져오기를 완료하고 Cloud Shell에서 실행을 시작하면 다음을 실행하여 실행 중인 컨테이너에 apache-beam을 설치합니다.
pip install apache-beam[gcp]==2.59.0
  1. 그런 다음 Cloud Shell의 실행 중인 컨테이너에서 소스 코드와 연결한 위치로 디렉터리를 변경합니다.
cd dataflow/
  1. 컨테이너에서 프로젝트 ID를 설정합니다.
export PROJECT={{{ project_0.project_id }}}

클라우드에서 데이터 수집 파이프라인 실행

  1. 다음 코드를 실행하여 데이터 수집 파이프라인을 실행합니다.
python dataflow_python_examples/data_ingestion.py \ --project=$PROJECT \ --region={{{ project_0.default_region | REGION }}} \ --runner=DataflowRunner \ --machine_type=e2-standard-2 \ --staging_location=gs://$PROJECT/test \ --temp_location gs://$PROJECT/test \ --input gs://$PROJECT/data_files/head_usa_names.csv \ --save_main_session

이 코드는 필요한 작업자를 가동하고 파이프라인이 완료되면 작업자를 종료합니다.

  1. 콘솔 제목 표시줄의 검색창Dataflow를 입력한 다음 검색 결과에서 Dataflow를 클릭합니다.

Dataflow 페이지가 열리면 작업 상태를 확인합니다.

  1. 작업 이름을 클릭하여 진행 상황을 확인합니다.

작업 상태성공이면 다음 단계로 이동합니다. 이 수집 파이프라인은 시작하여 작업을 완료한 후 종료될 때까지 약 5분이 걸립니다.

  1. BigQuery로 이동하여(탐색 메뉴 > BigQuery) 데이터가 채워졌는지 확인합니다.

  2. 프로젝트 이름을 클릭하면 lake 데이터 세트에서 usa_names 테이블을 볼 수 있습니다.

  1. 테이블을 클릭한 다음 미리보기 탭으로 이동하여 usa_names 데이터의 예를 확인합니다.
참고: usa_names 테이블이 표시되지 않으면 페이지를 새로고침하거나 기존 BigQuery UI를 사용하여 테이블을 확인합니다.

내 진행 상황 확인하기를 클릭하여 실행한 작업을 확인합니다.

데이터 수집 파이프라인 빌드

작업 6. 데이터 변환 파이프라인 검토 및 실행

이 작업에서는 데이터 변환 파이프라인을 검토하여 실행 방식을 알아봅니다. 그런 다음 파이프라인을 실행하여 Cloud Storage 파일을 처리하고 결과를 BigQuery로 출력합니다.

데이터 변환 파이프라인은 TextIO 소스와 BigQueryIO 대상을 사용하여 Cloud Storage에서 데이터를 BigQuery 테이블로 수집하기도 하지만, 이 경우 추가 데이터 변환을 수행합니다. 구체적으로 설명하자면 파이프라인은 다음 작업을 수행합니다.

  • Cloud Storage에서 파일을 수집합니다.
  • 읽은 줄을 사전 객체로 변환합니다.
  • 연도가 포함된 데이터를 BigQuery가 날짜로 인식하는 형식으로 변환합니다.
  • BigQuery에 행을 출력합니다.

데이터 변환 파이프라인의 Python 코드 검토

  • 코드 편집기에서 data_transformation.py를 엽니다.

코드 작업을 설명하는 파일의 설명을 읽어봅니다.

클라우드에서 데이터 변환 파이프라인 실행

  1. 다음 코드를 실행하여 데이터 변환 파이프라인을 실행합니다.
python dataflow_python_examples/data_transformation.py \ --project=$PROJECT \ --region={{{ project_0.default_region | REGION }}} \ --runner=DataflowRunner \ --machine_type=e2-standard-2 \ --staging_location=gs://$PROJECT/test \ --temp_location gs://$PROJECT/test \ --input gs://$PROJECT/data_files/head_usa_names.csv \ --save_main_session
  1. Google Cloud 콘솔 제목 표시줄의 검색창Dataflow를 입력한 다음 검색 결과에서 Dataflow를 클릭합니다.

  2. 이 작업의 이름을 클릭하여 작업 상태를 확인합니다.

이 Dataflow 파이프라인은 시작하여 작업을 완료한 후 종료될 때까지 약 5분이 걸립니다.

  1. Dataflow 작업 상태 화면에서 작업 상태성공이면 BigQuery로 이동하여 데이터가 채워졌는지 확인합니다.

lake 데이터 세트의 usa_names_transformed 테이블이 표시됩니다.

  1. 테이블을 클릭한 다음 미리보기 탭으로 이동하여 usa_names_transformed 데이터의 예를 확인합니다.
참고: usa_names_transformed 테이블이 표시되지 않으면 페이지를 새로고침하거나 기존 BigQuery UI를 사용하여 테이블을 확인합니다.

내 진행 상황 확인하기를 클릭하여 실행한 작업을 확인합니다.

데이터 변환 파이프라인 빌드

작업 7. 데이터 보강 파이프라인 검토 및 실행

이제 다음 작업을 수행하는 데이터 보강 파이프라인을 빌드합니다.

  • Cloud Storage에서 파일을 수집합니다.
  • 파일에서 헤더 행을 필터링합니다.
  • 읽은 줄을 사전 객체로 변환합니다.
  • BigQuery에 행을 출력합니다.

데이터 보강 파이프라인의 Python 코드 검토 및 수정

  1. 코드 편집기에서 data_enrichment.py를 엽니다.

  2. 코드 작업에 대한 설명을 확인합니다. 이 코드는 BigQuery의 데이터를 채웁니다.

현재 83행은 다음과 같습니다.

values = [x.decode('utf8') for x in csv_row]
  1. 이를 다음과 같이 편집합니다.
values = [x for x in csv_row]
  1. 이 행 편집을 마쳤으면 코드 편집기에서 파일 옵션을 선택하고 저장을 클릭하여 이 업데이트된 파일을 저장해야 합니다.

데이터 보강 파이프라인 실행

  1. 다음 코드를 실행하여 데이터 보강 파이프라인을 실행합니다.
python dataflow_python_examples/data_enrichment.py \ --project=$PROJECT \ --region={{{ project_0.default_region | REGION }}} \ --runner=DataflowRunner \ --machine_type=e2-standard-2 \ --staging_location=gs://$PROJECT/test \ --temp_location gs://$PROJECT/test \ --input gs://$PROJECT/data_files/head_usa_names.csv \ --save_main_session
  1. Dataflow 페이지에서 작업을 클릭하여 작업 상태를 확인합니다.

이 Dataflow 파이프라인은 시작하여 작업을 완료한 후 종료될 때까지 약 5분이 걸립니다.

  1. Dataflow 작업 상태 화면에서 작업 상태성공이면 콘솔에서 탐색 메뉴 > BigQuery를 클릭하여 데이터가 채워졌는지 확인합니다.

lake 데이터 세트의 usa_names_enriched 테이블이 표시됩니다.

  1. 테이블을 클릭한 다음 미리보기 탭으로 이동하여 usa_names_enriched 데이터의 예를 확인합니다.
참고: usa_names_enriched 테이블이 표시되지 않으면 페이지를 새로고침하거나 기존 BigQuery UI를 사용하여 테이블을 확인합니다.

내 진행 상황 확인하기를 클릭하여 실행한 작업을 확인합니다.

데이터 보강 파이프라인 빌드

작업 8. 데이터 레이크에서 데이터 마트로 이어지는 파이프라인 검토 및 실행

이제 두 개의 BigQuery 데이터 소스에서 데이터를 읽는 Dataflow 파이프라인을 빌드하고 데이터 소스를 조인합니다. 구체적으로는 다음과 같습니다.

  • 두 개의 BigQuery 소스에서 파일을 수집합니다.
  • 두 개의 데이터 소스를 조인합니다.
  • 파일에서 헤더 행을 필터링합니다.
  • 읽은 줄을 사전 객체로 변환합니다.
  • BigQuery에 행을 출력합니다.

데이터 수집 파이프라인을 실행하여 데이터 조인을 수행하고 결과 테이블을 BigQuery에 씁니다.

먼저 data_lake_to_mart.py 코드를 검토하여 이 코드의 작업을 파악합니다. 그런 다음 클라우드에서 파이프라인을 실행합니다.

  1. 코드 편집기에서 data_lake_to_mart.py 파일을 엽니다.

코드 작업을 설명하는 파일의 설명을 읽어봅니다. 이 코드는 두 테이블을 조인하고 BigQuery의 새 테이블에 결과를 씁니다.

  1. 다음 코드 블록을 실행하여 파이프라인을 실행합니다.
python dataflow_python_examples/data_lake_to_mart.py \ --worker_disk_type="compute.googleapis.com/projects//zones//diskTypes/pd-ssd" \ --max_num_workers=4 \ --project=$PROJECT \ --runner=DataflowRunner \ --machine_type=e2-standard-2 \ --staging_location=gs://$PROJECT/test \ --temp_location gs://$PROJECT/test \ --save_main_session \ --region={{{ project_0.default_region | REGION }}}
  1. Google Cloud 콘솔 제목 표시줄의 검색창Dataflow를 입력한 다음 검색 결과에서 Dataflow를 클릭합니다.

  2. 이 새 작업을 클릭하여 상태를 확인합니다.

이 Dataflow 파이프라인은 시작하여 작업을 완료한 후 종료될 때까지 약 5분이 걸립니다.

  1. Dataflow 작업 상태 화면에서 작업 상태성공이면 탐색 메뉴 > BigQuery를 클릭하여 데이터가 채워졌는지 확인합니다.

lake 데이터 세트의 orders_denormalized_sideinput 테이블이 표시됩니다.

  1. 테이블을 클릭한 다음 미리보기 섹션으로 이동하여 orders_denormalized_sideinput 데이터의 예를 확인합니다.
참고: orders_denormalized_sideinput 테이블이 표시되지 않으면 페이지를 새로고침하거나 기존 BigQuery UI를 사용하여 테이블을 확인합니다.

내 진행 상황 확인하기를 클릭하여 실행한 작업을 확인합니다.

Mart Dataflow 파이프라인으로 이어지는 데이터 레이크 빌드

배운 내용 테스트

아래는 이 실습에서 배운 내용을 복습하기 위한 객관식 문제입니다. 최선을 다해 풀어보세요.

수고하셨습니다

Dataflow를 사용하여 Python 코드를 실행해 Cloud Storage에서 데이터를 BigQuery로 수집한 후 BigQuery에서 데이터를 변환하고 보강했습니다.

다음 단계/더 학습하기

더 많은 정보를 찾고 싶으신가요? 다음 공식 문서를 확인해 보세요.

Google Cloud 교육 및 자격증

Google Cloud 기술을 최대한 활용하는 데 도움이 됩니다. Google 강의에는 빠른 습득과 지속적인 학습을 지원하는 기술적인 지식과 권장사항이 포함되어 있습니다. 기초에서 고급까지 수준별 학습을 제공하며 바쁜 일정에 알맞은 주문형, 실시간, 가상 옵션이 포함되어 있습니다. 인증은 Google Cloud 기술에 대한 역량과 전문성을 검증하고 입증하는 데 도움이 됩니다.

설명서 최종 업데이트: 2025년 4월 1일

실습 최종 테스트: 2025년 4월 1일

Copyright 2025 Google LLC. All rights reserved. Google 및 Google 로고는 Google LLC의 상표입니다. 기타 모든 회사명 및 제품명은 해당 업체의 상표일 수 있습니다.

시작하기 전에

  1. 실습에서는 정해진 기간 동안 Google Cloud 프로젝트와 리소스를 만듭니다.
  2. 실습에는 시간 제한이 있으며 일시중지 기능이 없습니다. 실습을 종료하면 처음부터 다시 시작해야 합니다.
  3. 화면 왼쪽 상단에서 실습 시작을 클릭하여 시작합니다.

현재 이 콘텐츠를 이용할 수 없습니다

이용할 수 있게 되면 이메일로 알려드리겠습니다.

감사합니다

이용할 수 있게 되면 이메일로 알려드리겠습니다.

한 번에 실습 1개만 가능

모든 기존 실습을 종료하고 이 실습을 시작할지 확인하세요.

시크릿 브라우징을 사용하여 실습 실행하기

이 실습을 실행하려면 시크릿 모드 또는 시크릿 브라우저 창을 사용하세요. 개인 계정과 학생 계정 간의 충돌로 개인 계정에 추가 요금이 발생하는 일을 방지해 줍니다.