가입 로그인

Francisco Colomer

회원 가입일: 2023

실버 리그

30035포인트
Machine Learning in the Enterprise - 한국어 배지 Machine Learning in the Enterprise - 한국어 Earned 9월 29, 2024 EDT
How Google Does Machine Learning - 한국어 배지 How Google Does Machine Learning - 한국어 Earned 5월 29, 2024 EDT
Engineer Data for Predictive Modeling with BigQuery ML 배지 Engineer Data for Predictive Modeling with BigQuery ML Earned 11월 15, 2023 EST
Build a Data Warehouse with BigQuery 배지 Build a Data Warehouse with BigQuery Earned 11월 14, 2023 EST
Prepare Data for ML APIs on Google Cloud 배지 Prepare Data for ML APIs on Google Cloud Earned 11월 13, 2023 EST
Serverless Data Processing with Dataflow: Operations 배지 Serverless Data Processing with Dataflow: Operations Earned 11월 9, 2023 EST
Serverless Data Processing with Dataflow: Develop Pipelines 배지 Serverless Data Processing with Dataflow: Develop Pipelines Earned 11월 4, 2023 EDT
Serverless Data Processing with Dataflow: Foundations 배지 Serverless Data Processing with Dataflow: Foundations Earned 10월 26, 2023 EDT
Smart Analytics, Machine Learning, and AI on Google Cloud - 한국어 배지 Smart Analytics, Machine Learning, and AI on Google Cloud - 한국어 Earned 10월 23, 2023 EDT
Building Batch Data Pipelines on Google Cloud - 한국어 배지 Building Batch Data Pipelines on Google Cloud - 한국어 Earned 10월 22, 2023 EDT
Building Resilient Streaming Analytics Systems on Google Cloud - 한국어 배지 Building Resilient Streaming Analytics Systems on Google Cloud - 한국어 Earned 10월 20, 2023 EDT
Modernizing Data Lakes and Data Warehouses with Google Cloud - 한국어 배지 Modernizing Data Lakes and Data Warehouses with Google Cloud - 한국어 Earned 10월 14, 2023 EDT
Google Cloud Big Data and Machine Learning Fundamentals - 한국어 배지 Google Cloud Big Data and Machine Learning Fundamentals - 한국어 Earned 10월 12, 2023 EDT
Preparing for your Professional Data Engineer Journey 배지 Preparing for your Professional Data Engineer Journey Earned 10월 4, 2023 EDT

이 과정에서는 우수사례를 중심으로 ML 워크플로에 대한 실질적인 접근 방식을 취합니다. ML팀은 다양한 ML 비즈니스 요구사항과 사용 사례에 직면합니다. 팀에서는 데이터 관리 및 거버넌스에 필요한 도구를 이해하고 가장 효과적으로 데이터 전처리에 접근하는 방식을 파악해야 합니다. 두 가지 사용 사례를 위한 ML 모델을 빌드하는 세 가지 옵션이 팀에 제시됩니다. 이 과정에서는 목표를 달성하기 위해 AutoML, BigQuery ML 또는 커스텀 학습을 사용하는 이유를 설명합니다.

자세히 알아보기

Google Cloud에서 머신러닝을 구현하기 위한 권장사항에는 어떤 것이 있을까요? Vertex AI란 무엇이고, 이 플랫폼을 사용하여 코드는 한 줄도 작성하지 않고 AutoML 머신러닝 모델을 빠르게 빌드, 학습, 배포하려면 어떻게 해야 할까요? 머신러닝이란 무엇이며 어떤 종류의 문제를 해결할 수 있을까요? Google은 머신러닝을 조금 다른 방식으로 바라봅니다. Google이 머신러닝과 관련하여 중요하게 생각하는 것은 관리형 데이터 세트를 위한 통합 플랫폼과 특징 저장소를 제공하고, 코드를 작성하지 않고도 머신러닝 모델을 빌드, 학습, 배포할 방법을 제공하고, 데이터에 라벨을 지정하고, TensorFlow, scikit-learn, Pytorch, R 등과 같은 프레임워크를 사용하여 Workbench 노트북을 만들 수 있도록 지원하는 것입니다. Google의 Vertex AI 플랫폼에는 커스텀 모델을 학습시키고, 구성요소 파이프라인을 빌드하고, 온라인 및 일괄 예측을 실행하는 기능이 포함되어 있습니다. 후보 사용 사례를 머신러닝으로 구동되도록 변환하는 5단계를 살펴보고, 단계를 건너뛰지 않는 것이 중요한 이유를 알아봅니다. 마지막으로, 머신러닝이 증폭시킬 수 있는 편향과 이를 인식할 방법을 살펴봅니다.

자세히 알아보기

중급 Engineer Data for Predictive Modeling with BigQuery ML 기술 배지를 획득하여 Dataprep by Trifact로 데이터 변환 파이프라인을 BigQuery에 빌드, Cloud Storage, Dataflow, BigQuery를 사용한 ETL(추출, 변환, 로드) 워크플로 빌드, BigQuery ML을 사용한 머신러닝 모델 빌드, Cloud Composer를 사용한 여러 위치에서의 데이터 복사와 관련된 기술 역량을 입증하세요. 기술 배지는 Google Cloud 제품 및 서비스 숙련도에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 기술 배지 과정을 통해 대화형 실습 환경에서 지식을 적용하는 역량을 테스트할 수 있습니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유할 수 있는 디지털 배지를 받을 수 있습니다.

자세히 알아보기

중급 Build a Data Warehouse with BigQuery 기술 배지를 완료하여 데이터를 조인하여 새 테이블 만들기, 조인 관련 문제 해결, 합집합으로 데이터 추가, 날짜로 파티션을 나눈 테이블 만들기, BigQuery에서 JSON, 배열, 구조체 작업하기와 관련된 기술 역량을 입증하세요. 기술 배지는 Google Cloud 제품 및 서비스 숙련도에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 대화형 실습 환경을 통해 지식을 적용하는 역량을 테스트할 수 있습니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유할 수 있는 기술 배지를 받을 수 있습니다.

자세히 알아보기

초급 Prepare Data for ML APIs on Google Cloud 기술 배지를 완료하여 Dataprep by Trifacta로 데이터 정리, Dataflow에서 데이터 파이프라인 실행, Dataproc에서 클러스터 생성 및 Apache Spark 작업 실행, Cloud Natural Language API, Google Cloud Speech-to-Text API, Video Intelligence API를 포함한 ML API 호출과 관련된 기술 역량을 입증하세요. 기술 배지는 Google Cloud 제품 및 서비스 숙련도에 따라 Google Cloud에서 독점적으로 발급하는 디지털 배지로, 기술 배지 과정을 통해 대화형 실습 환경에서 지식을 적용하는 역량을 테스트할 수 있습니다. 이 기술 배지 과정과 최종 평가 챌린지 실습을 완료하면 네트워크에 공유할 수 있는 기술 배지를 받을 수 있습니다.

자세히 알아보기

In the last installment of the Dataflow course series, we will introduce the components of the Dataflow operational model. We will examine tools and techniques for troubleshooting and optimizing pipeline performance. We will then review testing, deployment, and reliability best practices for Dataflow pipelines. We will conclude with a review of Templates, which makes it easy to scale Dataflow pipelines to organizations with hundreds of users. These lessons will help ensure that your data platform is stable and resilient to unanticipated circumstances.

자세히 알아보기

In this second installment of the Dataflow course series, we are going to be diving deeper on developing pipelines using the Beam SDK. We start with a review of Apache Beam concepts. Next, we discuss processing streaming data using windows, watermarks and triggers. We then cover options for sources and sinks in your pipelines, schemas to express your structured data, and how to do stateful transformations using State and Timer APIs. We move onto reviewing best practices that help maximize your pipeline performance. Towards the end of the course, we introduce SQL and Dataframes to represent your business logic in Beam and how to iteratively develop pipelines using Beam notebooks.

자세히 알아보기

This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.

자세히 알아보기

머신러닝을 데이터 파이프라인에 통합하면 데이터에서 더 많은 인사이트를 도출할 수 있습니다. 이 과정에서는 머신러닝을 Google Cloud의 데이터 파이프라인에 포함하는 방법을 알아봅니다. 맞춤설정이 거의 또는 전혀 필요 없는 경우에 적합한 AutoML에 대해 알아보고 맞춤형 머신러닝 기능이 필요한 경우를 위해 Notebooks 및 BigQuery 머신러닝(BigQuery ML)도 소개합니다. Vertex AI를 사용해 머신러닝 솔루션을 프로덕션화하는 방법도 다루어 보겠습니다.

자세히 알아보기

데이터 파이프라인은 일반적으로 추출-로드(EL), 추출-로드-변환(ELT) 또는 추출-변환-로드(ETL) 패러다임 중 하나에 속합니다. 이 과정에서는 일괄 데이터에 사용해야 할 패러다임과 사용 시기에 대해 설명합니다. 또한 BigQuery, Dataproc에서의 Spark 실행, Cloud Data Fusion의 파이프라인 그래프, Dataflow를 사용한 서버리스 데이터 처리 등 데이터 변환을 위한 Google Cloud의 여러 가지 기술을 다룹니다. Google Cloud에서 Qwiklabs를 사용해 데이터 파이프라인 구성요소를 빌드하는 실무형 실습도 진행합니다.

자세히 알아보기

스트리밍을 통해 비즈니스 운영에 대한 실시간 측정항목을 얻을 수 있게 되면서 스트리밍 데이터 처리의 사용이 늘고 있습니다. 이 과정에서는 Google Cloud에서 스트리밍 데이터 파이프라인을 빌드하는 방법을 다룹니다. 수신되는 스트리밍 데이터 처리와 관련해 Pub/Sub를 설명합니다. 이 과정에서는 Dataflow를 사용해 집계 및 변환을 스트리밍 데이터에 적용하는 방법과 처리된 레코드를 분석을 위해 BigQuery 또는 Bigtable에 저장하는 방법에 대해서도 다룹니다. Google Cloud에서 Qwiklabs를 사용해 스트리밍 데이터 파이프라인 구성요소를 빌드하는 실습을 진행해 볼 수도 있습니다.

자세히 알아보기

데이터 파이프라인의 두 가지 주요 구성요소는 데이터 레이크와 웨어하우스입니다. 이 과정에서는 스토리지 유형별 사용 사례를 살펴보고 Google Cloud에서 사용 가능한 데이터 레이크 및 웨어하우스 솔루션을 기술적으로 자세히 설명합니다. 또한 데이터 엔지니어의 역할, 성공적인 데이터 파이프라인이 비즈니스 운영에 가져오는 이점, 클라우드 환경에서 데이터 엔지니어링을 수행해야 하는 이유도 알아봅니다. 'Data Engineering on Google Cloud' 시리즈의 첫 번째 과정입니다. 이 과정을 완료한 후 Building Batch Data Pipelines on Google Cloud 과정에 등록하세요.

자세히 알아보기

이 과정에서는 데이터-AI 수명 주기를 지원하는 Google Cloud 빅데이터 및 머신러닝 제품과 서비스를 소개합니다. Google Cloud에서 Vertex AI를 사용하여 빅데이터 파이프라인 및 머신러닝 모델을 빌드하는 프로세스, 문제점 및 이점을 살펴봅니다.

자세히 알아보기

This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.

자세히 알아보기