Omar Irfan Khan
Date d'abonnement : 2021
Date d'abonnement : 2021
Quelles sont les bonnes pratiques pour implémenter le machine learning sur Google Cloud ? En quoi consiste la plate-forme Vertex AI et comment pouvez-vous l'utiliser pour créer, entraîner et déployer rapidement des modèles de machine learning AutoML sans écrire une seule ligne de code ? Qu'est-ce que le machine learning et quels types de problèmes permet-il de résoudre ? Google aborde le machine learning d'une façon particulière, qui consiste à fournir une plate-forme unifiée pour les ensembles de données gérés, ainsi qu'un magasin de caractéristiques et un moyen de créer, d'entraîner et de déployer des modèles de machine learning sans écrire une seule ligne de code. Il s'agit également de permettre aux utilisateurs d'étiqueter les données et de créer des notebooks Workbench à l'aide de frameworks tels que TensorFlow, Scikit Learn, Pytorch et R. Avec notre plate-forme Vertex AI, il est également possible d'entraîner des modèles personnalisés, de créer des pipelines de composants, …
This course helps learners create a study plan for the PDE (Professional Data Engineer) certification exam. Learners explore the breadth and scope of the domains covered in the exam. Learners assess their exam readiness and create their individual study plan.
This course is part 1 of a 3-course series on Serverless Data Processing with Dataflow. In this first course, we start with a refresher of what Apache Beam is and its relationship with Dataflow. Next, we talk about the Apache Beam vision and the benefits of the Beam Portability framework. The Beam Portability framework achieves the vision that a developer can use their favorite programming language with their preferred execution backend. We then show you how Dataflow allows you to separate compute and storage while saving money, and how identity, access, and management tools interact with your Dataflow pipelines. Lastly, we look at how to implement the right security model for your use case on Dataflow.
Intégrer le machine learning à des pipelines de données renforce la capacité à dégager des insights des données. Ce cours passera en revue plusieurs façons d'intégrer le machine learning à des pipelines de données sur Google Cloud. Vous découvrirez AutoML pour les cas ne nécessitant que peu de personnalisation (voire aucune), ainsi que Notebooks et BigQuery ML pour les situations qui requièrent des capacités de machine learning plus adaptées. Enfin, vous apprendrez à utiliser des solutions de machine learning en production avec Vertex AI.
Le traitement de flux de données est une pratique de plus en plus courante, car elle permet aux entreprises d'obtenir des métriques sur leurs activités commerciales en temps réel. Ce cours explique comment créer des pipelines de flux de données sur Google Cloud et présente Pub/Sub, une solution qui permet de gérer des données de flux entrants. Par ailleurs, vous verrez comment appliquer des agrégations et des transformations à des flux de données à l'aide de Dataflow, mais aussi comment stocker des enregistrements traités dans BigQuery ou Bigtable pour qu'ils puissent être analysés. Les participants mettront en pratique les connaissances qu'ils auront acquises en créant des composants de pipelines de flux de données sur Google Cloud à l'aide de Qwiklabs.
Les lacs de données et les entrepôts de données sont les deux principaux composants des pipelines de données. Ce cours présente des cas d'utilisation de chaque type de stockage, ainsi que les détails techniques des solutions de lacs et d'entrepôts de données disponibles sur Google Cloud. Il décrit également le rôle des ingénieurs de données et les avantages d'un pipeline de données réussi sur les opérations commerciales, avant d'expliquer pourquoi il est important de procéder à l'ingénierie des données dans un environnement cloud. Il s'agit du premier cours de la série "Data Engineering on Google Cloud". Après l'avoir terminé, inscrivez-vous au cours "Building Batch Data Pipelines on Google Cloud".
Complete the intermediate Engineer Data for Predictive Modeling with BigQuery ML skill badge to demonstrate skills in the following: building data transformation pipelines to BigQuery using Dataprep by Trifacta; using Cloud Storage, Dataflow, and BigQuery to build extract, transform, and load (ETL) workflows; building machine learning models using BigQuery ML; and using Cloud Composer to copy data across multiple locations. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete the skill badge course, and final assessment challenge lab, to receive a digital badge that you can share with your network.
In this course, you learn how to create APIs that utilize multiple services and how you can use custom code on Apigee. You will also learn about fault handling, and how to share logic between proxies. You learn about traffic management and caching. You also create a developer portal, and publish your API to the portal. You learn about logging and analytics, as well as CI/CD and the different deployment models supported by Apigee. Through a combination of lectures, hands-on labs, and supplemental materials, you will learn how to design, build, secure, deploy, and manage API solutions using Google Cloud's Apigee API Platform.This is the third and final course of the Developing APIs with Google Cloud's Apigee API Platform course series.
In this course, you learn how to secure your APIs. You explore the security concerns you will encounter for your APIs. You learn about OAuth, the primary authorization method for REST APIs. You will learn about JSON Web Tokens (JWTs) and federated security. You also learn about securing against malicious requests, safely sending requests across a public network, and how to secure your data for users of Apigee. Through a combination of lectures, hands-on labs, and supplemental materials, you will learn how to design, build, secure, deploy, and manage API solutions using Google Cloud's Apigee API Platform. This is the second course of the Developing APIs with Google Cloud's Apigee API Platform series. After completing this course, enroll in the API Development on Google Cloud's Apigee API Platform course.
In this course, you learn how to design APIs, and how to use OpenAPI specifications to document them. You learn about the API life cycle, and how the Apigee API platform helps you manage all aspects of the life cycle. You learn about how APIs can be designed using API proxies, and how APIs are packaged as API products to be used by app developers. Through a combination of lectures, hands-on labs, and supplemental materials, you will learn how to design, build, secure, deploy, and manage API solutions using Google Cloud's Apigee API Platform. This is the first course of the Developing APIs with Google Cloud's Apigee API Platform series. After completing this course, enroll in the API Security on Google Cloud's Apigee API Platform course.
Ce cours présente les produits et services Google Cloud pour le big data et le machine learning compatibles avec le cycle de vie "des données à l'IA". Il explore les processus, défis et avantages liés à la création d'un pipeline de big data et de modèles de machine learning avec Vertex AI sur Google Cloud.
Si vous êtes un développeur cloud débutant et que vous souhaitez vous faire la main au-delà de "Getting Started - Create and Manage Cloud Resources", cette quête est faite pour vous. Elle vous permettra d'acquérir de l'expérience pratique grâce aux ateliers qui traitent en profondeur de Cloud Storage et d'autres services applicatifs clés tels que Stackdriver et Cloud Functions. En participant à cette quête, vous développerez des compétences précieuses que vous pourrez utiliser dans tous vos projets Google Cloud. Terminez cette quête, y compris le laboratoire de défi à la fin, pour recevoir un badge numérique exclusif de Google Cloud. Des vidéos d'une minute résument les concepts clés de chaque atelier.
Complete the introductory Implement Load Balancing on Compute Engine skill badge to demonstrate skills in the following: writing gcloud commands and using Cloud Shell, creating and deploying virtual machines in Compute Engine, and configuring network and HTTP load balancers. A skill badge is an exclusive digital badge issued by Google Cloud in recognition of your proficiency with Google Cloud products and services and tests your ability to apply your knowledge in an interactive hands-on environment. Complete this skill badge, and the final assessment challenge lab, to receive a skill badge that you can share with your network.
Cette quête d'introduction se compose d'ateliers pratiques qui vous permettent de vous familiariser avec les outils et services de base de Google Cloud Platform. "GCP Essentials" est la première quête recommandée pour les personnes s'intéressant à Google Cloud. Vous pouvez la suivre sans aucune connaissance (ou presque) du cloud et, une fois la quête terminée, vous disposerez de compétences pratiques qui vous seront utiles pour n'importe quel projet GCP. De l'écriture de lignes de commande Cloud Shell au déploiement de votre première machine virtuelle en passant par l'exécution d'applications sur Kubernetes Engine avec l'équilibrage de charge, "GCP Essentials" constitue une excellente introduction aux fonctionnalités de base de la plate-forme. Des vidéos d'une minute résument les concepts clés de ces ateliers.