Контрольні точки
Run a simple Dataflow job
/ 25
Run a simple Dataproc job
/ 25
Use the Google Cloud Speech API
/ 25
Use the Cloud Natural Language API
/ 25
Практична робота підвищеного рівня складності "Підготовка даних для інтерфейсів API машинного навчання в Google Cloud"
GSP323
Огляд
Практична робота підвищеного рівня складності передбачає сценарій і кілька завдань. Покрокових інструкцій немає. Натомість ви маєте застосувати навички, які здобули під час практичних робіт курсу, і самостійно з’ясувати, як виконувати завдання. Автоматична система оцінювання (показана на цій сторінці) згенерує відгук щодо того, чи правильно виконано завдання.
Під час практичної роботи підвищеного рівня складності ви не вивчаєте нові поняття Google Cloud, а розвиваєте опановані навички (наприклад, змінюєте значення за умовчанням і переглядаєте повідомлення про помилки для їх виправлення).
Щоб набрати 100%, слід правильно виконати всі завдання за визначений період часу.
Цю практичну роботу рекомендовано для слухачів, які зареєструвалися на кваліфікаційний курс Підготовка даних для інтерфейсів API машинного навчання в Google Cloud. Готові почати?
Ви будете виконувати такі дії:
- створювати просте завдання Dataproc;
- створювати просте завдання Dataflow;
- виконувати два завдання API на основі машинного навчання Google.
Налаштування
Перш ніж натиснути кнопку Start Lab (Почати практичну роботу)
Ознайомтеся з наведеними нижче вказівками. На виконання практичної роботи відводиться обмежений час, і її не можна призупинити. Щойно ви натиснете Start Lab (Почати практичну роботу), з’явиться таймер, який показуватиме, скільки часу для роботи з ресурсами Google Cloud у вас залишилося.
Ви зможете виконати практичну роботу в дійсному робочому хмарному середовищі (не в симуляції або демонстраційному середовищі). Для цього на час виконання практичної роботи вам надаються тимчасові облікові дані для реєстрації і входу в Google Cloud.
Щоб виконати цю практичну роботу, потрібно мати:
- стандартний веб-переглядач, наприклад Chrome (рекомендовано)
- достатню кількість часу, оскільки почавши практичну роботу, ви не зможете призупинити її
Як почати виконувати практичну роботу й увійти в Google Cloud Console
-
Натисніть кнопку Start Lab (Почати практичну роботу). Якщо за практичну роботу необхідно заплатити, відкриється спливаюче вікно, де ви зможете обрати спосіб оплати. Ліворуч розміщено панель Lab Details (Відомості про практичну роботу) з такими даними:
- кнопка Open Google Cloud console (Відкрити Google Cloud Console);
- час до закінчення;
- тимчасові облікові дані, які потрібно використовувати для доступу до цієї практичної роботи;
- інша інформація, необхідна для виконання цієї практичної роботи.
-
Натисніть Open Google Cloud console (Відкрити Google Cloud Console) або натисніть правою кнопкою миші й виберіть Open Link in Incognito Window (Відкрити посилання в анонімному вікні), якщо ви використовуєте вебпереглядач Chrome.
Завантажаться необхідні ресурси. Потім відкриється нова вкладка зі сторінкою Sign in (Вхід).
Порада. Упорядковуйте вкладки в окремих вікнах, розміщуючи їх поруч.
Примітка. Якщо з’явиться вікно Choose an account (Виберіть обліковий запис), натисніть Use Another Account (Увійти в інший обліковий запис). -
За потреби скопіюйте значення в полі Username (Ім’я користувача) нижче й вставте його у вікні Sign in (Вхід).
{{{user_0.username | "Username"}}} Поле Username (Ім’я користувача) також можна знайти на панелі Lab Details (Відомості про практичну роботу).
-
Натисніть Next (Далі).
-
Скопіюйте значення в полі Password (Пароль) нижче й вставте його у вікні Welcome (Привітання).
{{{user_0.password | "Password"}}} Поле Password (Пароль) також можна знайти на панелі Lab Details (Відомості про практичну роботу).
-
Натисніть Next (Далі).
Важливо. Обов’язково використовуйте облікові дані, призначені для відповідної практичної роботи. Не використовуйте облікові дані Google Cloud. Примітка. Якщо ввійти у власний обліковий запис Google Cloud, може стягуватися додаткова плата. -
Виконайте наведені нижче дії.
- Прийміть Умови використання.
- Не додавайте способи відновлення й двохетапну перевірку (оскільки це тимчасовий обліковий запис).
- Не реєструйте безкоштовні пробні версії.
Через кілька секунд Google Cloud Console відкриється в новій вкладці.
Перевірте дозволи проекту
Перш ніж почати роботу з Google Cloud, переконайтеся, що ваш проект має правильні дозволи в системі керування ідентифікацією і доступом.
-
У меню навігації Google Cloud Console виберіть IAM & Admin (Адміністрування й керування ідентифікацією і доступом) > IAM.
-
Переконайтеся, що стандартний сервісний обліковий запис Compute Engine
{project-number}-compute@developer.gserviceaccount.com
включено й що йому призначено роліeditor
іstorage.admin
. Префікс облікового запису – це номер проекту, який можна знайти, вибравши меню навігації > Cloud Overview (Огляд Cloud) > Dashboard (Інформаційна панель).
storage.admin
, виконайте наведені нижче кроки для призначення необхідної ролі.- У меню навігації Google Cloud Console натисніть Cloud Overview (Огляд Cloud) > Dashboard (Інформаційна панель).
- Скопіюйте номер проекту (наприклад,
729328892908
). - У меню навігації виберіть IAM & Admin (Адміністрування й керування ідентифікацією і доступом) > IAM.
- Угорі таблиці ролей під розділом View by Principals (Перегляд за учасниками) натисніть Grant Access (Надати доступ).
- У вікні New principals (Нові учасники) введіть:
- Замініть
{project-number}
номером свого проекту. - Для параметра Role (Роль) виберіть Storage Admin (Адміністратор сховища).
- Натисніть Save (Зберегти).
Сценарій
Ви – молодший розробник даних компанії Jooli Inc., який нещодавно пройшов навчання з використання Google Cloud і кількох сервісів для роботи з даними. Вас попросили продемонструвати нові навички й виконати описані нижче завдання.
Очікується, що ви вже маєте знання й навички для виконання таких завдань, тому покрокові інструкції не надаються.
Завдання 1. Запустіть просте завдання Dataflow
У цьому завданні потрібно використати пакетний шаблон Dataflow Text Files on Cloud Storage to BigQuery (Передавання текстових файлів Cloud Storage у BigQuery) з розділу Process Data in Bulk (batch) (Пакетна обробка даних) для перенесення даних із сегмента Cloud Storage (gs://cloud-training/gsp323/lab.csv
). Щоб правильно налаштувати завдання Dataflow, використайте значення з таблиці нижче.
Переконайтеся, що ви виконали наведені нижче дії.
- Створіть набір даних BigQuery
з таблицею . - Створіть сегмент Cloud Storage під назвою
.
Поле | Значення |
---|---|
Cloud Storage input file(s) (Вхідні файли Cloud Storage) | gs://cloud-training/gsp323/lab.csv |
Cloud Storage location of your BigQuery schema file (Розташування файлу схеми BigQuery в Cloud Storage) | gs://cloud-training/gsp323/lab.schema |
Вихідна таблиця BigQuery |
|
Temporary directory for BigQuery loading process (Тимчасовий каталог для даних, які завантажуються в BigQuery) |
|
Тимчасове розташування |
|
Optional Parameters (Додаткові параметри) > JavaScript UDF path in Cloud Storage (Шлях визначеної користувачем функції JavaScript у Cloud Storage) | gs://cloud-training/gsp323/lab.js |
Optional Parameters (Додаткові параметри) > JavaScript UDF name (Назва визначеної користувачем функції JavaScript) | transform |
Optional Parameters (Додаткові параметри) > Machine Type (Тип машини) | e2-standard-2 |
Зачекайте, доки завдання завершиться, а потім підтвердьте його виконання.
Щоб підтвердити виконання завдання, натисніть Підтвердити виконання.
Завдання 2. Запустіть просте завдання Dataproc
Вам потрібно виконати пробне завдання Spark за допомогою Dataproc.
Перш ніж запускати завдання, увійдіть в один із вузлів кластера й скопіюйте файл /data.txt у hdfs (використовуйте команду hdfs dfs -cp gs://cloud-training/gsp323/data.txt /data.txt
).
Застосовуйте наведені нижче значення для запуску завдання Dataproc.
Поле | Значення |
---|---|
Region (Регіон) |
|
Job type (Вид завдання) | Spark |
Main class or jar (Основний клас або файл JAR) | org.apache.spark.examples.SparkPageRank |
Jar files (Файли JAR) | file:///usr/lib/spark/examples/jars/spark-examples.jar |
Arguments (Аргументи) | /data.txt |
Max restarts per hour (Макс. кількість перезапусків на годину) | 1 |
Dataproc Cluster (Кластер Dataproc) | Compute Engine |
Region (Регіон) |
|
Machine Series (Серія машини) | E2 |
Керуючий вузол | У розділі Machine Type (Тип машини) виберіть e2-standard-2 |
Робочий вузол | У розділі Machine Type (Тип машини) виберіть e2-standard-2 |
Max Worker Nodes (Максимальна кількість робочих вузлів) | 2 |
Primary disk size (Розмір основного диска) | 100 ГБ |
Internal IP only (Лише внутрішні IP-адреси) | Зніміть прапорець Configure all instances to have only internal IP addresses (Налаштувати для всіх екземплярів лише внутрішні IP-адреси) |
Зачекайте, доки завдання завершиться, а потім підтвердьте його виконання.
Щоб підтвердити виконання завдання, натисніть Підтвердити виконання.
Завдання 3. Скористайтеся Google Cloud Speech-to-Text API
- Проаналізуйте аудіофайл
gs://cloud-training/gsp323/task3.flac
за допомогою Google Cloud Speech-to-Text API. Готовий аналіз завантажте в.
Щоб підтвердити виконання завдання, натисніть Підтвердити виконання.
Завдання 4. Скористайтеся Cloud Natural Language API
- Проаналізуйте речення з тексту про Одіна за допомогою Cloud Natural Language API: "Old Norse texts portray Odin as one-eyed and long-bearded, frequently wielding a spear named Gungnir and wearing a cloak and a broad hat" ("У давньоскандинавських текстах Одіна зображено однооким, довгобородим, часто зі списом під назвою Гунгнір, у плащі й капелюсі із широкими крисами"). Готовий аналіз завантажте в
.
Щоб підтвердити виконання завдання, натисніть Підтвердити виконання.
Вітаємо!
Вітаємо! У цій практичній роботі ви продемонстрували, що вмієте запускати прості завдання Dataflow й Dataproc, а також використовувати Google Cloud Speech-to-Text API і Cloud Natural Language API.
Цю практичну роботу можна виконувати у власному темпі, і вона входить до кваліфікаційного курсу Підготовка даних для інтерфейсів API машинного навчання в Google Cloud. Пройшовши курс, ви отримаєте значок як відзнаку за досягнення. Додайте його у своє резюме й на сторінки в соціальних мережах і розкажіть про свої досягнення за допомогою хештегу #GoogleCloudBadge.
Цей кваліфікаційний курс входить до планів навчання Google Cloud для аналітиків даних і розробників даних.
Навчання й сертифікація Google Cloud
…допомагають ефективно використовувати технології Google Cloud. Наші курси передбачають опанування технічних навичок, а також ознайомлення з рекомендаціями, що допоможуть вам швидко зорієнтуватися й вивчити матеріал. Ми пропонуємо курси різних рівнів – від базового до високого. Ви можете вибрати формат навчання (за запитом, онлайн або офлайн) відповідно до власного розкладу. Пройшовши сертифікацію, ви перевірите й підтвердите свої навички та досвід роботи з технологіями Google Cloud.
Посібник востаннє оновлено 25 березня 2024 року
Практичну роботу востаннє протестовано 15 січня 2024 року
© Google LLC 2024. Усі права захищено. Назва та логотип Google є торговельними марками Google LLC. Усі інші назви компаній і продуктів можуть бути торговельними марками відповідних компаній, з якими вони пов’язані.