체크포인트
Run a simple Dataflow job
/ 25
Run a simple Dataproc job
/ 25
Use the Google Cloud Speech API
/ 25
Use the Cloud Natural Language API
/ 25
Prepare Data for ML APIs on Google Cloud: 챌린지 실습
GSP323
개요
챌린지 실습에서는 특정 시나리오와 일련의 작업이 주어집니다. 단계별 안내를 따르는 대신, 과정의 실습에서 배운 기술을 사용하여 스스로 작업을 완료하는 방법을 알아내 보세요. 이 페이지에 표시되어 있는 자동 채점 시스템에서 작업을 올바르게 완료했는지 피드백을 제공합니다.
챌린지 실습을 진행할 때는 새로운 Google Cloud 개념에 대한 정보가 제공되지 않습니다. 학습한 기술을 응용하여 기본값을 변경하거나 오류 메시지를 읽고 조사하여 실수를 바로잡아야 합니다.
100점을 받으려면 시간 내에 모든 작업을 성공적으로 완료해야 합니다.
이 실습은 Google Cloud에서 ML API용으로 데이터 준비하기 기술 배지 과정에 등록한 수강생에게 권장됩니다. 챌린지에 도전할 준비가 되셨나요?
테스트 주제:
- 간단한 Dataproc 작업 만들기
- 간단한 Dataflow 작업 만들기
- 2가지의 Google 머신러닝 지원 API 작업 수행
설정
실습 시작 버튼을 클릭하기 전에
다음 안내를 확인하세요. 실습에는 시간 제한이 있으며 일시중지할 수 없습니다. 실습 시작을 클릭하면 타이머가 시작됩니다. 이 타이머에는 Google Cloud 리소스를 사용할 수 있는 시간이 얼마나 남았는지 표시됩니다.
실무형 실습을 통해 시뮬레이션이나 데모 환경이 아닌 실제 클라우드 환경에서 직접 실습 활동을 진행할 수 있습니다. 실습 시간 동안 Google Cloud에 로그인하고 액세스하는 데 사용할 수 있는 새로운 임시 사용자 인증 정보가 제공됩니다.
이 실습을 완료하려면 다음을 준비해야 합니다.
- 표준 인터넷 브라우저 액세스 권한(Chrome 브라우저 권장)
- 실습을 완료하기에 충분한 시간---실습을 시작하고 나면 일시중지할 수 없습니다.
실습을 시작하고 Google Cloud 콘솔에 로그인하는 방법
-
실습 시작 버튼을 클릭합니다. 실습 비용을 결제해야 하는 경우 결제 수단을 선택할 수 있는 팝업이 열립니다. 왼쪽에는 다음과 같은 항목이 포함된 실습 세부정보 패널이 있습니다.
- Google Cloud 콘솔 열기 버튼
- 남은 시간
- 이 실습에 사용해야 하는 임시 사용자 인증 정보
- 필요한 경우 실습 진행을 위한 기타 정보
-
Google Cloud 콘솔 열기를 클릭합니다(Chrome 브라우저를 실행 중인 경우 마우스 오른쪽 버튼으로 클릭하고 시크릿 창에서 링크 열기를 선택합니다).
실습에서 리소스가 가동되면 다른 탭이 열리고 로그인 페이지가 표시됩니다.
팁: 두 개의 탭을 각각 별도의 창으로 나란히 정렬하세요.
참고: 계정 선택 대화상자가 표시되면 다른 계정 사용을 클릭합니다. -
필요한 경우 아래의 사용자 이름을 복사하여 로그인 대화상자에 붙여넣습니다.
{{{user_0.username | "Username"}}} 실습 세부정보 패널에서도 사용자 이름을 확인할 수 있습니다.
-
다음을 클릭합니다.
-
아래의 비밀번호를 복사하여 시작하기 대화상자에 붙여넣습니다.
{{{user_0.password | "Password"}}} 실습 세부정보 패널에서도 비밀번호를 확인할 수 있습니다.
-
다음을 클릭합니다.
중요: 실습에서 제공하는 사용자 인증 정보를 사용해야 합니다. Google Cloud 계정 사용자 인증 정보를 사용하지 마세요. 참고: 이 실습에 자신의 Google Cloud 계정을 사용하면 추가 요금이 발생할 수 있습니다. -
이후에 표시되는 페이지를 클릭하여 넘깁니다.
- 이용약관에 동의합니다.
- 임시 계정이므로 복구 옵션이나 2단계 인증을 추가하지 않습니다.
- 무료 체험판을 신청하지 않습니다.
잠시 후 Google Cloud 콘솔이 이 탭에서 열립니다.
프로젝트 권한 확인
Google Cloud에서 작업을 시작하기 전에 프로젝트가 Identity and Access Management(IAM) 내에서 올바른 권한을 보유하고 있는지 확인해야 합니다.
-
Google Cloud 콘솔의 탐색 메뉴에서 IAM 및 관리자 > IAM을 선택합니다.
-
기본 컴퓨팅 서비스 계정
{project-number}-compute@developer.gserviceaccount.com
이 있고 이 계정에editor
및storage.admin
역할이 할당되어 있는지 확인하세요. 계정 프리픽스는 프로젝트 번호이며, 이 번호는 탐색 메뉴 > Cloud 개요 > 대시보드에서 확인할 수 있습니다.
storage.admin
역할이 없는 경우 다음 단계에 따라 필요한 역할을 할당합니다.- Google Cloud 콘솔의 탐색 메뉴에서 Cloud 개요 > 대시보드를 클릭합니다.
- 프로젝트 번호(예:
729328892908
)를 복사합니다. - 탐색 메뉴에서 IAM 및 관리자 > IAM을 선택합니다.
- 역할 테이블 상단에서 주 구성원별로 보기 아래에 있는 액세스 권한 부여를 클릭합니다.
- 새 주 구성원 필드에 다음을 입력합니다.
-
{project-number}
를 프로젝트 번호로 바꿉니다. - 역할에서 스토리지 관리자를 선택합니다.
- 저장을 클릭합니다.
챌린지 시나리오
Jooli Inc.의 주니어 데이터 엔지니어로서 최근에 Google Cloud 및 다양한 데이터 서비스 교육을 받은 여러분은 새로 학습한 기술을 보여달라는 요청을 받았습니다. 팀에서는 다음과 같은 작업을 완료해 달라고 요청했습니다.
이러한 작업에 필요한 기술과 지식을 보유하고 있어야 합니다. 단계별 안내는 제공되지 않습니다.
작업 1. 간단한 Dataflow 작업 실행
이 작업에서는 Dataflow 일괄 템플릿 중에서 '데이터 일괄 처리' 아래에 있는 Cloud Storage의 텍스트 파일을 BigQuery로를 사용하여 Cloud Storage 버킷의 데이터(gs://cloud-training/gsp323/lab.csv
)를 전송하세요. 다음 테이블에는 Dataflow 작업을 올바르게 구성하는 데 필요한 값이 나와 있습니다.
수행해야 할 작업은 다음과 같습니다.
- 테이블(
)이 포함된 BigQuery 데이터 세트( ) 만들기 - Cloud Storage 버킷(
) 만들기
필드 | 값 |
---|---|
Cloud Storage 입력 파일 | gs://cloud-training/gsp323/lab.csv |
BigQuery 스키마 파일의 Cloud Storage 위치 | gs://cloud-training/gsp323/lab.schema |
BigQuery 출력 테이블 |
|
BigQuery 로딩 프로세스를 위한 임시 디렉터리 |
|
임시 위치 |
|
선택적 매개변수 > Cloud Storage의 JavaScript UDF 경로 | gs://cloud-training/gsp323/lab.js |
선택적 매개변수 > JavaScript UDF 이름 | transform |
선택적 매개변수 > 머신 유형 | e2-standard-2 |
작업이 완료된 후 진행 상황을 확인하세요.
내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
작업 2. 간단한 Dataproc 작업 실행
이 작업에서는 Dataproc을 사용하여 예시 Spark 작업을 실행합니다.
작업을 실행하기 전에 클러스터 노드 중 하나에 로그인하고 /data.txt 파일을 hdfs에 복사하세요(hdfs dfs -cp gs://cloud-training/gsp323/data.txt /data.txt
명령어 사용).
아래의 값을 사용하여 Dataproc 작업을 실행합니다.
필드 | 값 |
---|---|
리전 |
|
작업 유형 | Spark |
기본 클래스 또는 jar | org.apache.spark.examples.SparkPageRank |
jar 파일 | file:///usr/lib/spark/examples/jars/spark-examples.jar |
인수 | /data.txt |
시간당 최대 재시작 횟수 | 1 |
Dataproc 클러스터 | Compute Engine |
리전 |
|
머신 계열 | E2 |
관리자 노드 | 머신 유형을 e2-standard-2로 설정합니다. |
워커 노드 | 머신 유형을 e2-standard-2로 설정합니다. |
최대 워커 노드 수 | 2 |
기본 디스크 크기 | 100GB |
내부 IP 전용 | Deselect "Configure all instances to have only internal IP addresses |
작업이 완료된 후 진행 상황을 확인하세요.
내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
작업 3. Google Cloud Speech-to-Text API 사용
- Google Cloud Speech-to-Text API를 사용하여 오디오 파일
gs://cloud-training/gsp323/task3.flac
를 분석합니다. 파일을 분석한 후 결과 파일을에 업로드합니다.
내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
작업 4. Cloud Natural Language API 사용
- Cloud Natural Language API를 사용하여 Odin에 대한 텍스트에서 발췌한 문장을 분석합니다. 분석해야 하는 텍스트는 "Old Norse texts portray Odin as one-eyed and long-bearded, frequently wielding a spear named Gungnir and wearing a cloak and a broad hat."입니다. 텍스트를 분석한 후 결과 파일을
에 업로드합니다.
내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
수고하셨습니다
수고하셨습니다. 이 실습에서는 간단한 Dataflow 작업 및 Dataproc 작업을 실행하고 Google Cloud Speech-to-Text API와 Cloud Natural Language API를 사용하여 실력을 입증해 봤습니다.
이 사용자 주도형 실습은 Google Cloud에서 ML API용으로 데이터 준비하기 기술 배지 과정에 포함되어 있습니다. 이 기술 배지를 완료하면 위의 배지를 획득하여 수료를 인증할 수 있습니다. 이력서 및 소셜 플랫폼에 배지를 공유하고 #GoogleCloudBadge 해시태그를 사용해 스스로 달성한 업적을 널리 알리세요.
이 기술 배지는 Google Cloud의 데이터 분석가 및 데이터 엔지니어 학습 과정의 일부입니다.
Google Cloud 교육 및 자격증
Google Cloud 기술을 최대한 활용하는 데 도움이 됩니다. Google 강의에는 빠른 습득과 지속적인 학습을 지원하는 기술적인 지식과 권장사항이 포함되어 있습니다. 기초에서 고급까지 수준별 학습을 제공하며 바쁜 일정에 알맞은 주문형, 실시간, 가상 옵션이 포함되어 있습니다. 인증은 Google Cloud 기술에 대한 역량과 전문성을 검증하고 입증하는 데 도움이 됩니다.
설명서 최종 업데이트: 2024년 3월 25일
실습 최종 테스트: 2024년 1월 15일
Copyright 2024 Google LLC All rights reserved. Google 및 Google 로고는 Google LLC의 상표입니다. 기타 모든 회사명 및 제품명은 해당 업체의 상표일 수 있습니다.