체크포인트
Create the connection resource
/ 20
Set up access to a Cloud Storage data lake
/ 30
Create the BigLake table
/ 20
Create the external table
/ 10
Update external table to Biglake table
/ 20
BigLake: Qwik Start
GSP1040
개요
BigLake는 멀티 클라우드 스토리지와 개방형 형식 전반에서 균일하게 세분화된 액세스 제어를 제공하여 데이터 웨어하우스 및 레이크에 대한 데이터 액세스를 간소화하는 통합 스토리지 엔진입니다.
BigLake는 BigQuery의 세분화된 행 및 열 수준 보안을 Amazon S3, Azure Data Lake Storage Gen2, Google Cloud Storage와 같은 데이터 상주 객체 스토어의 테이블로 확장합니다. BigLake는 액세스 위임을 통해 테이블 액세스를 기본 클라우드 스토리지 데이터에서 분리합니다. 이 기능을 사용하면 테이블에 대한 전체 액세스 권한을 제공하지 않고도 조직 내 사용자 및 파이프라인에 행 및 열 수준의 액세스를 안전하게 부여할 수 있습니다.
BigLake 테이블을 만든 후에는 이를 다른 BigQuery 테이블처럼 쿼리할 수 있습니다. BigQuery는 행 및 열 수준의 액세스 제어를 적용하며, 모든 사용자는 보기 권한이 주어진 데이터 슬라이스만 볼 수 있습니다. BigQuery API를 통한 모든 데이터 액세스에는 거버넌스 정책이 적용됩니다. 예를 들어 아래 다이어그램에 표시된 것처럼 사용자는 BigQuery Storage API를 통해 Apache Spark와 같은 오픈소스 쿼리 엔진을 사용하여 권한이 주어진 데이터에 액세스할 수 있습니다.
목표
이 실습에서 학습할 내용은 다음과 같습니다.
- 연결 리소스 만들기 및 보기
- Cloud Storage 데이터 레이크 액세스 설정
- BigLake 테이블 만들기
- BigQuery를 통해 BigLake 테이블 쿼리
- 액세스 제어 정책 설정
- 외부 테이블을 BigLake 테이블로 업그레이드
설정 및 요건
실습 시작 버튼을 클릭하기 전에
다음 안내를 확인하세요. 실습에는 시간 제한이 있으며 일시중지할 수 없습니다. 실습 시작을 클릭하면 타이머가 시작됩니다. 이 타이머에는 Google Cloud 리소스를 사용할 수 있는 시간이 얼마나 남았는지 표시됩니다.
실무형 실습을 통해 시뮬레이션이나 데모 환경이 아닌 실제 클라우드 환경에서 직접 실습 활동을 진행할 수 있습니다. 실습 시간 동안 Google Cloud에 로그인하고 액세스하는 데 사용할 수 있는 새로운 임시 사용자 인증 정보가 제공됩니다.
이 실습을 완료하려면 다음을 준비해야 합니다.
- 표준 인터넷 브라우저 액세스 권한(Chrome 브라우저 권장)
- 실습을 완료하기에 충분한 시간---실습을 시작하고 나면 일시중지할 수 없습니다.
실습을 시작하고 Google Cloud 콘솔에 로그인하는 방법
-
실습 시작 버튼을 클릭합니다. 실습 비용을 결제해야 하는 경우 결제 수단을 선택할 수 있는 팝업이 열립니다. 왼쪽에는 다음과 같은 항목이 포함된 실습 세부정보 패널이 있습니다.
- Google Cloud 콘솔 열기 버튼
- 남은 시간
- 이 실습에 사용해야 하는 임시 사용자 인증 정보
- 필요한 경우 실습 진행을 위한 기타 정보
-
Google Cloud 콘솔 열기를 클릭합니다(Chrome 브라우저를 실행 중인 경우 마우스 오른쪽 버튼으로 클릭하고 시크릿 창에서 링크 열기를 선택합니다).
실습에서 리소스가 가동되면 다른 탭이 열리고 로그인 페이지가 표시됩니다.
팁: 두 개의 탭을 각각 별도의 창으로 나란히 정렬하세요.
참고: 계정 선택 대화상자가 표시되면 다른 계정 사용을 클릭합니다. -
필요한 경우 아래의 사용자 이름을 복사하여 로그인 대화상자에 붙여넣습니다.
{{{user_0.username | "Username"}}} 실습 세부정보 패널에서도 사용자 이름을 확인할 수 있습니다.
-
다음을 클릭합니다.
-
아래의 비밀번호를 복사하여 시작하기 대화상자에 붙여넣습니다.
{{{user_0.password | "Password"}}} 실습 세부정보 패널에서도 비밀번호를 확인할 수 있습니다.
-
다음을 클릭합니다.
중요: 실습에서 제공하는 사용자 인증 정보를 사용해야 합니다. Google Cloud 계정 사용자 인증 정보를 사용하지 마세요. 참고: 이 실습에 자신의 Google Cloud 계정을 사용하면 추가 요금이 발생할 수 있습니다. -
이후에 표시되는 페이지를 클릭하여 넘깁니다.
- 이용약관에 동의합니다.
- 임시 계정이므로 복구 옵션이나 2단계 인증을 추가하지 않습니다.
- 무료 체험판을 신청하지 않습니다.
잠시 후 Google Cloud 콘솔이 이 탭에서 열립니다.
Cloud Shell 활성화
Cloud Shell은 다양한 개발 도구가 탑재된 가상 머신으로, 5GB의 영구 홈 디렉터리를 제공하며 Google Cloud에서 실행됩니다. Cloud Shell을 사용하면 명령줄을 통해 Google Cloud 리소스에 액세스할 수 있습니다.
- Google Cloud 콘솔 상단에서 Cloud Shell 활성화 를 클릭합니다.
연결되면 사용자 인증이 이미 처리된 것이며 프로젝트가 PROJECT_ID로 설정됩니다. 출력에 이 세션의 PROJECT_ID를 선언하는 줄이 포함됩니다.
gcloud
는 Google Cloud의 명령줄 도구입니다. Cloud Shell에 사전 설치되어 있으며 명령줄 자동 완성을 지원합니다.
- (선택사항) 다음 명령어를 사용하여 활성 계정 이름 목록을 표시할 수 있습니다.
-
승인을 클릭합니다.
-
다음과 비슷한 결과가 출력됩니다.
출력:
- (선택사항) 다음 명령어를 사용하여 프로젝트 ID 목록을 표시할 수 있습니다.
출력:
출력 예시:
gcloud
전체 문서는 Google Cloud에서 gcloud CLI 개요 가이드를 참조하세요.
작업 1. 연결 리소스 만들기
BigLake 테이블은 연결 리소스를 사용하여 Google Cloud Storage 데이터에 액세스합니다. 연결 리소스는 프로젝트의 단일 테이블 또는 임의 테이블 그룹과 연결될 수 있습니다.
-
탐색 메뉴에서 BigQuery > BigQuery Studio로 이동합니다. 완료를 클릭합니다.
-
연결을 만들기 위해 +추가를 클릭한 다음 외부 데이터 소스에 연결을 클릭합니다.
- '연결 유형' 목록에서 Vertex AI 원격 모델, 원격 함수, BigLake(Cloud 리소스)를 선택합니다.
-
연결 ID 필드에
my-connection
을 입력합니다. -
위치 유형에서 멀티 리전을 선택하고, 드롭다운에서 US(미국 내 여러 리전)를 선택합니다.
-
연결 만들기를 클릭합니다.
-
연결 정보를 보려면 탐색 메뉴에서 확인하려는 연결을 선택합니다.
- 연결 정보 섹션에서 서비스 계정 ID를 복사합니다. 다음 섹션에서 이 서비스 계정 ID를 사용해야 합니다.
내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
작업 2. Cloud Storage 데이터 레이크 액세스 설정
이 섹션에서는 BigQuery가 사용자 대신 Cloud Storage 파일에 액세스할 수 있도록, 새 연결 리소스에 Cloud Storage 데이터 레이크에 대한 읽기 전용 액세스 권한을 부여해 보겠습니다. 서비스 계정이 Cloud Storage 버킷에 액세스할 수 있도록 연결 리소스 서비스 계정에 스토리지 객체 뷰어 IAM 역할을 부여하는 것이 좋습니다.
-
탐색 메뉴에서 IAM 및 관리자 > IAM으로 이동합니다.
-
+액세스 권한 부여를 클릭합니다.
-
앞에서 복사한 서비스 계정 ID를 새 주 구성원 필드에 입력합니다.
-
역할 선택 필드에서 Cloud Storage를 선택한 후 스토리지 객체 뷰어를 선택합니다.
- 저장을 클릭합니다.
내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
작업 3. BigLake 테이블 만들기
다음 예시에서는 CSV 파일 형식이 사용되지만 제한사항에 표시된 것처럼 BigLake에서 지원되는 모든 형식을 사용할 수 있습니다. BigQuery에서 테이블을 만드는 방법을 잘 알고 있다면 이 프로세스도 비슷합니다. 유일한 차이점은 관련된 클라우드 리소스 연결을 지정한다는 것입니다.
스키마가 제공되지 않았고 이전 단계에서 서비스 계정에 버킷 액세스 권한이 부여되지 않았다면, 액세스 거부 메시지가 표시되면서 이 단계는 실패하게 됩니다.
데이터 세트 만들기
-
BigQuery > BigQuery Studio로 다시 이동합니다.
-
프로젝트 이름 옆에 있는 점 3개 메뉴를 클릭하고 데이터 세트 만들기를 선택합니다.
-
데이터 세트 ID를
demo_dataset
로 지정합니다. -
위치 유형에서 멀티 리전을 선택하고, 드롭다운에서 US(미국 내 여러 리전)를 선택합니다.
-
나머지 필드는 기본값으로 두고 데이터 세트 만들기를 클릭합니다.
이제 데이터 세트가 만들어졌으므로 Cloud Storage의 기존 데이터 세트를 복사해 BigQuery에 붙여넣을 수 있습니다.
테이블 만들기
- demo_dataset 옆에 있는 점 3개 메뉴를 클릭하고 테이블 만들기를 선택합니다.
- '소스'의 테이블을 만들 소스에서 Google Cloud Storage를 선택합니다.
-
둘러보기를 클릭하고 데이터 세트를 선택합니다. 이름이
인 버킷으로 이동한 다음, BigQuery에 가져올 customer.csv
파일을 찾아 선택을 클릭합니다. -
대상에서 실습 프로젝트가 선택되어 있는지 확인하고 demo_dataset를 사용 중인지도 확인합니다.
-
테이블 이름을
biglake_table
로 지정합니다. -
테이블 유형을 외부 테이블로 설정합니다.
-
Cloud 리소스 연결을 사용하여 BigLake 테이블 만들기 체크박스를 선택합니다.
연결 ID로 us.my-connection이 선택되어 있는지 확인합니다. 구성은 다음과 유사해야 합니다.
- 스키마에서 텍스트로 편집을 사용 설정하고 아래 스키마를 복사하여 텍스트 상자에 붙여넣습니다.
- 테이블 만들기를 클릭합니다.
내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
작업 4. BigQuery를 통해 BigLake 테이블 쿼리
BigLake 테이블을 만들었으므로 이제 원하는 BigQuery 클라이언트를 사용하여 쿼리를 제출할 수 있습니다.
-
biglake_table 미리보기 툴바에서 쿼리 > 새 탭에서 열기를 클릭합니다.
-
아래 코드를 실행하여 BigQuery 편집기를 통해 BigLake 테이블을 쿼리합니다.
-
실행을 클릭합니다.
-
결과 테이블에서 모든 열과 데이터를 볼 수 있는지 확인합니다.
작업 5. 액세스 제어 정책 설정
이렇게 만들어진 BigLake 테이블은 BigQuery 테이블과 비슷한 방식으로 관리할 수 있습니다. BigLake 테이블에 대한 액세스 제어 정책을 만들려면 먼저 BigQuery에서 정책 태그 분류를 만들어야 합니다. 그런 다음, 정책 태그를 민감한 행 또는 열에 적용해야 합니다. 이 섹션에서는 열 수준 정책을 만들어 보겠습니다. 행 수준 보안 설정에 대한 안내는 행 수준 보안 가이드를 참조하세요.
이번 실습에서는 이름이
열에 정책 태그 추가
이제 앞에서 만든 정책 태그를 사용해 BigQuery 테이블 내의 특정 열에 대한 액세스를 제한합니다. 이 예시에서는 주소, 우편번호, 전화번호 등 민감한 정보에 대한 액세스를 제한해 보겠습니다.
-
탐색 메뉴에서 BigQuery > BigQuery Studio로 이동합니다.
-
demo-dataset > biglake_table로 이동한 다음 테이블을 클릭하여 테이블 스키마 페이지를 엽니다.
-
스키마 수정을 클릭합니다.
-
address, postal_code, phone 필드 옆에 있는 체크박스를 선택합니다.
-
정책 태그 추가를 클릭합니다.
-
항목을 클릭하여 영역을 확장하고 biglake-policy를 선택합니다.
-
선택을 클릭합니다.
이제 해당 열에 정책 태그가 연결되었습니다.
-
저장을 클릭합니다.
-
테이블 스키마가 아래와 유사한지 확인합니다.
열 수준 보안 확인
-
biglake_table에 대한 쿼리 편집기를 엽니다.
-
아래 코드를 실행하여 BigQuery 편집기를 통해 BigLake 테이블을 쿼리합니다.
-
실행을 클릭합니다.
액세스가 거부되었다는 오류 메시지가 표시됩니다.
- 이제 아래 쿼리를 실행하여 액세스 권한이 없는 열을 생략합니다.
쿼리가 아무 문제 없이 실행되고 액세스 권한이 있는 열이 반환되면 성공입니다. 이 예시는 BigQuery를 통해 적용되는 열 수준 보안이 BigLake 테이블에도 적용될 수 있다는 것을 보여줍니다.
작업 6. 외부 테이블을 BigLake 테이블로 업그레이드
기존 테이블을 클라우드 리소스에 연결하여 기존 테이블을 BigLake 테이블로 업그레이드할 수 있습니다. 플래그와 인수의 전체 목록을 보려면 bq update
및 bq mkdef
를 참조하세요.
외부 테이블 만들기
-
demo_dataset 옆에 있는 점 3개 메뉴를 클릭하고 테이블 만들기를 선택합니다.
-
'소스'의 테이블을 만들 소스에서 Google Cloud Storage를 선택합니다.
-
둘러보기를 클릭하고 데이터 세트를 선택합니다. 이름이
인 버킷으로 이동한 다음, BigQuery에 가져올 invoice.csv
파일을 찾아 선택을 클릭합니다. -
대상에서 실습 프로젝트가 선택되어 있는지 확인하고 demo_dataset를 사용 중인지도 확인합니다.
-
테이블 이름을
external_table
로 지정합니다. -
테이블 유형을 외부 테이블로 설정합니다.
- 스키마에서 텍스트로 편집을 사용 설정하고 아래 스키마를 복사하여 텍스트 상자에 붙여넣습니다.
- 테이블 만들기를 클릭합니다.
내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
외부 테이블을 BigLake 테이블로 업데이트
- 새 Cloud Shell 창을 열고 아래 명령어를 실행하여 실습에서 사용할 연결을 지정하는 외부 테이블 정의를 새로 생성합니다.
- 테이블 정의가 잘 만들어졌는지 확인합니다.
- 테이블에서 스키마를 가져옵니다.
- 새 외부 테이블 정의를 사용하여 테이블을 업데이트합니다.
내 진행 상황 확인하기를 클릭하여 목표를 확인합니다.
업데이트된 테이블 확인
-
탐색 메뉴에서 BigQuery > BigQuery Studio로 이동합니다.
-
demo-dataset로 이동하여 external_table을 더블클릭합니다.
-
세부정보 탭을 엽니다.
-
'외부 데이터 구성'에서 테이블이 알맞은 연결 ID를 사용하고 있는지 확인합니다.
잘하셨습니다. 기존 외부 테이블을 클라우드 리소스에 연결하여 BigLake 테이블로 업그레이드하는 데 성공했습니다.
수고하셨습니다
이 실습에서는 연결 리소스를 만들고, Cloud Storage 데이터 레이크에 대한 액세스를 설정하며, 데이터 레이크에서 BigLake 테이블을 만들어 보았습니다. 또한 BigQuery를 통해 BigLake 테이블을 쿼리하고, 열 수준 액세스 제어 정책을 설정했습니다. 마지막으로는 연결 리소스를 사용해 기존 외부 테이블을 BigLake 테이블로 업데이트해 보았습니다.
다음 단계/더 학습하기
BigLake와 관련된 더 많은 실습이 궁금하다면 아래 문서를 확인해 보세요.
Google Cloud 교육 및 자격증
Google Cloud 기술을 최대한 활용하는 데 도움이 됩니다. Google 강의에는 빠른 습득과 지속적인 학습을 지원하는 기술적인 지식과 권장사항이 포함되어 있습니다. 기초에서 고급까지 수준별 학습을 제공하며 바쁜 일정에 알맞은 주문형, 실시간, 가상 옵션이 포함되어 있습니다. 인증은 Google Cloud 기술에 대한 역량과 전문성을 검증하고 입증하는 데 도움이 됩니다.
설명서 최종 업데이트: 2024년 1월 16일
실습 최종 테스트: 2024년 1월 16일
Copyright 2024 Google LLC All rights reserved. Google 및 Google 로고는 Google LLC의 상표입니다. 기타 모든 회사명 및 제품명은 해당 업체의 상표일 수 있습니다.