Markos Muche
회원 가입일: 2022
회원 가입일: 2022
이 과정에서는 신경망이 입력 시퀀스의 특정 부분에 집중할 수 있도록 하는 강력한 기술인 주목 메커니즘을 소개합니다. 주목 메커니즘의 작동 방식과 이 메커니즘을 다양한 머신러닝 작업(기계 번역, 텍스트 요약, 질문 답변 등)의 성능을 개선하는 데 활용하는 방법을 알아봅니다.
이 과정에서는 최근 이미지 생성 분야에서 가능성을 보여준 머신러닝 모델 제품군인 확산 모델을 소개합니다. 확산 모델은 열역학을 비롯한 물리학에서 착안했습니다. 지난 몇 년 동안 확산 모델은 연구계와 업계 모두에서 주목을 받았습니다. 확산 모델은 Google Cloud의 다양한 최신 이미지 생성 모델과 도구를 뒷받침합니다. 이 과정에서는 확산 모델의 이론과 Vertex AI에서 이 모델을 학습시키고 배포하는 방법을 소개합니다.
This introductory course explores the basics of data analysis, including collection, storage, exploration, visualization, and sharing. This course also introduces Google Cloud's data analytics tools and services. Through video lectures, demos, quizzes, and hands-on labs, this course demonstrates how to go from raw data to impactful visualizations and dashboards. Whether you already work with data and want to learn how to be successful on Google Cloud, or you’re looking to progress in your career, this course will help you get started.
Complete the introductory Build a Data Mesh with Dataplex skill badge to demonstrate skills in the following: building a data mesh with Dataplex to facilitate data security, governance, and discovery on Google Cloud. You practice and test your skills in tagging assets, assigning IAM roles, and assessing data quality in Dataplex. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete this Skill Badge, and the final assessment challenge lab, to receive a digital badge that you can share with your network.
In this second installment of the Dataflow course series, we are going to be diving deeper on developing pipelines using the Beam SDK. We start with a review of Apache Beam concepts. Next, we discuss processing streaming data using windows, watermarks and triggers. We then cover options for sources and sinks in your pipelines, schemas to express your structured data, and how to do stateful transformations using State and Timer APIs. We move onto reviewing best practices that help maximize your pipeline performance. Towards the end of the course, we introduce SQL and Dataframes to represent your business logic in Beam and how to iteratively develop pipelines using Beam notebooks.
This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.
Enterprise data sharing made easy with Dataplex and Analytics Hub Learn how to share data securely in your lakehouse with minimized data duplication and more data governance through Dataplex and Analytics Hub - enterprise data management made easy. Creating Data Pipelines with Data Fusion In this session, we will explore using Data Fusion to create code-free point and click pipelines that can ETL high-volumes of data with support for popular data sources, including file systems and object stores, relational and NoSQL databases, and SaaS systems.
The third course in this course series is Achieving Advanced Insights with BigQuery. Here we will build on your growing knowledge of SQL as we dive into advanced functions and how to break apart a complex query into manageable steps. We will cover the internal architecture of BigQuery (column-based sharded storage) and advanced SQL topics like nested and repeated fields through the use of Arrays and Structs. Lastly we will dive into optimizing your queries for performance and how you can secure your data through authorized views. After completing this course, enroll in the Applying Machine Learning to your Data with Google Cloud course.
This course covers BigQuery fundamentals for professionals who are familiar with SQL-based cloud data warehouses in Redshift and want to begin working in BigQuery. Through interactive lecture content and hands-on labs, you learn how to provision resources, create and share data assets, ingest data, and optimize query performance in BigQuery. Drawing upon your knowledge of Redshift, you also learn about similarities and differences between Redshift and BigQuery to help you get started with data warehouses in BigQuery. After this course, you can continue your BigQuery journey by completing the skill badge quest titled Build and Optimize Data Warehouses with BigQuery.
This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.
중급 Engineer Data for Predictive Modeling with BigQuery ML 기술 배지를 획득하여 Dataprep by Trifact로 데이터 변환 파이프라인을 BigQuery에 빌드, Cloud Storage, Dataflow, BigQuery를 사용한 ETL(추출, 변환, 로드) 워크플로 빌드, BigQuery ML을 사용한 머신러닝 모델 빌드, Cloud Composer를 사용한 여러 위치에서의 데이터 복사와 관련된 기술 역량을 입증하세요. 기술 배지는 Google Cloud 제품 및 서비스 숙련도에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 기술 배지 과정을 통해 대화형 실습 환경에서 지식을 적용하는 역량을 테스트할 수 있습니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유할 수 있는 디지털 배지를 받을 수 있습니다.
중급 Build a Data Warehouse with BigQuery 기술 배지를 완료하여 데이터를 조인하여 새 테이블 만들기, 조인 관련 문제 해결, 합집합으로 데이터 추가, 날짜로 파티션을 나눈 테이블 만들기, BigQuery에서 JSON, 배열, 구조체 작업하기와 관련된 기술 역량을 입증하세요. 기술 배지는 Google Cloud 제품 및 서비스 숙련도에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 대화형 실습 환경을 통해 지식을 적용하는 역량을 테스트할 수 있습니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유할 수 있는 기술 배지를 받을 수 있습니다.
초급 Prepare Data for ML APIs on Google Cloud 기술 배지를 완료하여 Dataprep by Trifacta로 데이터 정리, Dataflow에서 데이터 파이프라인 실행, Dataproc에서 클러스터 생성 및 Apache Spark 작업 실행, Cloud Natural Language API, Google Cloud Speech-to-Text API, Video Intelligence API를 포함한 ML API 호출과 관련된 기술 역량을 입증하세요. 기술 배지는 Google Cloud 제품 및 서비스 숙련도에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 기술 배지 과정을 통해 대화형 실습 환경에서 지식을 적용하는 역량을 테스트할 수 있습니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유할 수 있는 기술 배지를 받을 수 있습니다.
머신러닝을 데이터 파이프라인에 통합하면 데이터에서 더 많은 인사이트를 도출할 수 있습니다. 이 과정에서는 머신러닝을 Google Cloud의 데이터 파이프라인에 포함하는 방법을 알아봅니다. 맞춤설정이 거의 또는 전혀 필요 없는 경우에 적합한 AutoML에 대해 알아보고 맞춤형 머신러닝 기능이 필요한 경우를 위해 Notebooks 및 BigQuery 머신러닝(BigQuery ML)도 소개합니다. Vertex AI를 사용해 머신러닝 솔루션을 프로덕션화하는 방법도 다루어 보겠습니다.
스트리밍을 통해 비즈니스 운영에 대한 실시간 측정항목을 얻을 수 있게 되면서 스트리밍 데이터 처리의 사용이 늘고 있습니다. 이 과정에서는 Google Cloud에서 스트리밍 데이터 파이프라인을 빌드하는 방법을 다룹니다. 수신되는 스트리밍 데이터 처리와 관련해 Pub/Sub를 설명합니다. 이 과정에서는 Dataflow를 사용해 집계 및 변환을 스트리밍 데이터에 적용하는 방법과 처리된 레코드를 분석을 위해 BigQuery 또는 Bigtable에 저장하는 방법에 대해서도 다룹니다. Google Cloud에서 Qwiklabs를 사용해 스트리밍 데이터 파이프라인 구성요소를 빌드하는 실습을 진행해 볼 수도 있습니다.
데이터 파이프라인은 일반적으로 추출-로드(EL), 추출-로드-변환(ELT) 또는 추출-변환-로드(ETL) 패러다임 중 하나에 속합니다. 이 과정에서는 일괄 데이터에 사용해야 할 패러다임과 사용 시기에 대해 설명합니다. 또한 BigQuery, Dataproc에서의 Spark 실행, Cloud Data Fusion의 파이프라인 그래프, Dataflow를 사용한 서버리스 데이터 처리 등 데이터 변환을 위한 Google Cloud의 여러 가지 기술을 다룹니다. Google Cloud에서 Qwiklabs를 사용해 데이터 파이프라인 구성요소를 빌드하는 실무형 실습도 진행합니다.
이 기본 수준의 퀘스트는 다른 Qwiklab 퀘스트 중에서도 특별합니다. IT 전문가가 Google Cloud 공인 프로페셔널 클라우드 설계자 자격증에 나오는 주제 및 서비스를 직접 실습해 볼 수 있도록 선별된 실습이 제공됩니다. 이 퀘스트는 IAM, 네트워킹, Kubernetes 엔진 배포 등 Google Cloud에 관한 지식을 시험하기 위한 실습으로 구성되어 있습니다. 마지막에 제시되는 챌린지 실습을 포함해 이 퀘스트를 완료하면 특별한 Google Cloud 디지털 배지가 주어집니다. 실습을 통한 연습으로 기술과 능력이 증진되겠지만, 시험 가이드 및 제공되는 다른 준비용 리소스도 검토하는 것이 좋습니다.
데이터 파이프라인의 두 가지 주요 구성요소는 데이터 레이크와 웨어하우스입니다. 이 과정에서는 스토리지 유형별 사용 사례를 살펴보고 Google Cloud에서 사용 가능한 데이터 레이크 및 웨어하우스 솔루션을 기술적으로 자세히 설명합니다. 또한 데이터 엔지니어의 역할, 성공적인 데이터 파이프라인이 비즈니스 운영에 가져오는 이점, 클라우드 환경에서 데이터 엔지니어링을 수행해야 하는 이유도 알아봅니다. 'Data Engineering on Google Cloud' 시리즈의 첫 번째 과정입니다. 이 과정을 완료한 후 Building Batch Data Pipelines on Google Cloud 과정에 등록하세요.
이 과정에서는 데이터-AI 수명 주기를 지원하는 Google Cloud 빅데이터 및 머신러닝 제품과 서비스를 소개합니다. Google Cloud에서 Vertex AI를 사용하여 빅데이터 파이프라인 및 머신러닝 모델을 빌드하는 프로세스, 문제점 및 이점을 살펴봅니다.
This course helps learners create a study plan for the PCA (Professional Cloud Architect) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.
Want to scale your data analysis efforts without managing database hardware? Learn the best practices for querying and getting insights from your data warehouse with this interactive series of BigQuery labs. BigQuery is Google's fully managed, NoOps, low cost analytics database. With BigQuery you can query terabytes and terabytes of data without having any infrastructure to manage or needing a database administrator. BigQuery uses SQL and can take advantage of the pay-as-you-go model. BigQuery allows you to focus on analyzing data to find meaningful insights.
Getting Started with Google Kubernetes Engine 과정에 오신 것을 환영합니다. 애플리케이션과 하드웨어 인프라 사이에 위치하는 소프트웨어 레이어인 Kubernetes에 관심이 있으시다면 잘 찾아오셨습니다. Google Kubernetes Engine을 사용하면 Kubernetes를 Google Cloud에서 관리형 서비스로 사용할 수 있습니다. 이 과정의 목표는 흔히 GKE로 불리는 Google Kubernetes Engine의 기본사항을 소개하고 Google Cloud에서 애플리케이션을 컨테이너화하고 실행하는 방법을 설명하는 것입니다. 이 과정에서는 먼저 Google Cloud에 대해 기본적인 사항을 소개한 후 이어서 컨테이너 및 Kubernetes, Kubernetes 아키텍처, Kubernetes 작업에 대해 간략히 설명합니다.
이 과정에서는 학습자가 검증된 설계 패턴을 사용하여 Google Cloud에서 고도로 안정적이고 효율적인 솔루션을 빌드하는 데 필요한 역량을 기를 수 있습니다. 'Architecting with Google Compute Engine' 또는 'Architecting with Google Kubernetes Engine' 과정에서 이어지는 내용이며, 학습자가 두 과정에서 다루는 기술을 실무에서 사용해 본 경험이 있다는 전제로 진행됩니다. 학습자는 프레젠테이션, 설계 활동, 실무형 실습을 통해 고도로 안정적이고 안전하고 비용 효율적이며 가용성이 높은 Google Cloud 배포를 설계하는 데 필요한 비즈니스 요구사항과 기술 요구사항을 정의하고 이 사이의 적절한 균형을 유지하는 방법을 익힐 수 있습니다.
이 속성 주문형 과정은 참가자에게 Google Cloud에서 제공하는 포괄적이고 유연한 인프라 및 플랫폼 서비스를 Compute Engine을 중심으로 소개합니다. 참가자는 동영상 강의, 데모, 실무형 실습을 통해 네트워크, 시스템, 애플리케이션 서비스와 같은 인프라 구성요소를 포함한 솔루션 요소를 탐색하고 배포해 볼 수 있습니다. 또한 이 과정에서는 고객 제공 암호화 키, 보안 및 액세스 관리, 할당량 및 요금 청구, 리소스 모니터링 등 실용적인 솔루션을 배포하는 방법에 대해서도 설명합니다.
이 속성 주문형 과정은 참가자에게 Google Cloud에서 제공하는 포괄적이고 유연한 인프라 및 플랫폼 서비스를 Compute Engine을 중심으로 소개합니다. 참가자는 동영상 강의, 데모, 실무형 실습을 통해 네트워크, 가상 머신, 애플리케이션 서비스와 같은 인프라 구성요소를 포함한 솔루션 요소를 탐색하고 배포해 볼 수 있습니다. Console과 Cloud Shell을 통해 Google Cloud를 사용하는 방법을 학습합니다. 또한 클라우드 설계자의 역할, 인프라 설계 접근 방식은 물론 Virtual Private Cloud(VPC), 프로젝트, 네트워크, 서브네트워크, IP 주소, 경로, 방화벽 규칙을 사용한 가상 네트워킹 구성에 대해 알아봅니다.
Google Cloud Fundamentals: Core Infrastructure 과정은 Google Cloud 사용에 관한 중요한 개념 및 용어를 소개합니다. 이 과정에서는 동영상 및 실무형 실습을 통해 중요한 리소스 및 정책 관리 도구와 함께 Google Cloud의 다양한 컴퓨팅 및 스토리지 서비스를 살펴보고 비교합니다.
This course offers hands-on practice with migrating MySQL data to Cloud SQL using Database Migration Service. You start with an introductory lab that briefly reviews how to get started with Cloud SQL for MySQL, including how to connect to Cloud SQL instances using the Cloud Console. Then, you continue with two labs focused on migrating MySQL databases to Cloud SQL using different job types and connectivity options available in Database Migration Service. The course ends with a lab on migrating MySQL user data when running Database Migration Service jobs.
Complete the intermediate Build Infrastructure with Terraform on Google Cloud skill badge to demonstrate skills in the following: Infrastructure as Code (IaC) principles using Terraform, provisioning and managing Google Cloud resources with Terraform configurations, effective state management (local and remote), and modularizing Terraform code for reusability and organization. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete this skill badge course and the final assessment challenge lab to receive a skill badge that you can share with your network.
이 기본 수준의 퀘스트는 다른 Qwiklab 퀘스트 중에서도 특별합니다. IT 전문가가 Google Cloud 공인 어소시에이트 클라우드 엔지니어 자격증에 나오는 주제 및 서비스를 직접 실습해 볼 수 있도록 선별된 실습이 제공됩니다. 이 퀘스트는 IAM, 네트워킹, Kubernetes 엔진 배포 등 Google Cloud에 관한 지식을 시험하기 위한 실습으로 구성되어 있습니다. 마지막에 제시되는 챌린지 실습을 포함해 이 퀘스트를 완료하면 특별한 Google Cloud 디지털 배지가 주어집니다. 실습을 통한 연습으로 기술과 능력이 증진되겠지만, 시험 가이드 및 제공되는 다른 준비용 리소스도 검토하는 것이 좋습니다.
이 과정에서는 예측 및 생성형 AI 프로젝트를 모두 빌드하는 Google Cloud 기반 AI 및 머신러닝(ML) 제품군을 소개합니다. AI 기반, 개발, 솔루션을 모두 포함하여 데이터에서 AI로 이어지는 수명 주기 전반에 걸쳐 사용할 수 있는 기술과 제품, 도구를 살펴봅니다. 이 과정의 목표는 흥미로운 학습 경험과 실제적인 실무형 실습을 통해 데이터 과학자, AI 개발자, ML 엔지니어의 기술 및 지식 역량 강화를 지원하는 것입니다.
‘시작하기 - 클라우드 리소스 만들기 및 관리하기’ 후에 완료할 실습을 찾고 있는 초보 클라우드 개발자라면 이 퀘스트가 안성맞춤입니다. Cloud Storage 및 Stackdriver와 Cloud Functions와 같은 핵심 애플리케이션 서비스를 자세히 살펴보는 실습을 통해 실무 경험을 쌓게 됩니다. 이 퀘스트를 완료하고 나면 어떤 Google Cloud 이니셔티브에도 적용할 수 있는 유용한 기술을 얻을 수 있습니다. 마지막에 제시되는 챌린지 실습을 포함해 이 퀘스트를 완료하면 특별한 Google Cloud 디지털 배지가 주어집니다. 1분 정도의 동영상을 통해 실습의 주요 개념을 알아볼 수 있습니다.
입문 Implement Load Balancing on Compute Engine 기술 배지 과정을 완료하여 gcloud 명령어 작성 및 Cloud Shell 사용, Compute Engine에서 가상 머신 만들기 및 배포, 네트워크 및 HTTP 부하 분산기 구성에 관한 본인의 기술을 입증하세요. 기술 배지는 Google Cloud 제품 및 서비스에 대한 개인의 숙련도를 인정하기 위해 Google Cloud에서 단독 발급하는 디지털 배지로서 대화형 실습 환경을 통해 지식을 적용하는 역량을 테스트합니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유할 수 있는 기술 배지를 받게 됩니다.
가장 인기 있는 이 탐구 과정에서 Google Cloud를 처음으로 실습할 수 있습니다. Stackdriver 및 Kubernetes의 고급 개념으로 실습하여 VM 가동, 키 인프라 도구 구성과 같은 기본사항을 익혀 보세요.