arrow_back

Dataproc: Qwik Start – консоль

Test and share your knowledge with our community!

Dataproc: Qwik Start – консоль

Lab 30 годин universal_currency_alt 1 кредит show_chart Початковий
info This lab may incorporate AI tools to support your learning.
Test and share your knowledge with our community!

GSP103

Огляд

Dataproc – це швидкий, зручний і простий у керуванні хмарний сервіс для запуску кластерів Apache Spark та Apache Hadoop без зайвих клопотів і витрат. Дії, що раніше тривали кілька годин або днів, тепер можна виконати за лічені хвилини чи навіть секунди. Завдяки цьому сервісу можна швидко створювати кластери Dataproc і будь-коли змінювати їх розмір відповідно до розміру конвеєрів для обробки даних.

Під час цієї практичної роботи ви навчитеся створювати кластер Dataproc, виконувати в ньому просте завдання Apache Spark і змінювати кількість робочих вузлів за допомогою Google Cloud Console.

Завдання

Під час цієї практичної роботи ви навчитеся виконувати наведені нижче дії.

  • Створювати кластер Dataproc у Google Cloud Console
  • Виконувати просте завдання Apache Spark
  • Змінювати кількість робочих вузлів у кластері

Налаштування й вимоги

Перш ніж натиснути кнопку Start Lab (Почати практичну роботу)

Ознайомтеся з наведеними нижче вказівками. На виконання практичного заняття відводиться обмежений час, і його не можна призупинити. Щойно ви натиснете Почати заняття, з’явиться таймер, який показуватиме, скільки часу для роботи з ресурсами Google Cloud у вас залишилося.

Ви зможете виконати практичне заняття в дійсному робочому хмарному середовищі (не в симуляції або демонстраційному середовищі). Для цього на час практичного заняття вам надаються тимчасові облікові дані для реєстрації і входу в Google Cloud.

Для цього практичного заняття потрібно мати:

  • стандартний вебпереглядач, наприклад Chrome (рекомендовано);
Примітка. Виконуйте практичне заняття в анонімному вікні вебпереглядача (рекомендовано). Так ви уникнете додаткової плати, що може стягуватися з вашого особистого облікового запису внаслідок його помилкового використання замість облікового запису для навчання.
  • достатню кількість часу, оскільки почавши практичне заняття, ви не зможете призупинити його.
Примітка. Для виконання цього практичного заняття використовуйте лише обліковий запис для навчання, оскільки з іншого облікового запису Google Cloud може стягуватися плата.

Як почати виконувати практичну роботу й увійти в Google Cloud Console

  1. Натисніть кнопку Start Lab (Почати практичне заняття). Якщо за практичне заняття необхідно заплатити, відкриється вікно, де ви зможете обрати спосіб оплати. Ліворуч розміщено панель "Відомості про практичне заняття" з такими компонентами:

    • кнопка "Відкрити консоль Google";
    • час до закінчення;
    • тимчасові облікові дані, які потрібно використовувати для доступу до цього практичного заняття;
    • інша інформація, необхідна для виконання цього практичного заняття.
  2. Натисніть Відкрити консоль Google або натисніть правою кнопкою миші й виберіть Відкрити анонімне вікно, якщо ви використовуєте вебпереглядач Chrome.

    Завантажаться необхідні ресурси. Потім відкриється нова вкладка зі сторінкою "Увійти".

    Порада. Упорядковуйте вкладки в окремих вікнах, розміщуючи їх поруч.

    Примітка. Якщо з’явиться вікно Виберіть обліковий запис, натисніть Вибрати інший обліковий запис.
  3. За потреби скопіюйте значення в полі Username (Ім’я користувача) нижче й вставте його у вікні Вхід.

    {{{user_0.username | "Username"}}}

    Поле "Ім’я користувача" також можна знайти на панелі "Відомості про практичне заняття".

  4. Натисніть Далі.

  5. Скопіюйте значення в полі Password (Пароль) нижче й вставте його у вікні Welcome (Привітання).

    {{{user_0.password | "Password"}}}

    Поле "Пароль" також можна знайти на панелі "Відомості про практичне заняття".

  6. Натисніть Далі.

    Важливо. Обов’язково використовуйте облікові дані, призначені для відповідного практичного заняття. Не використовуйте облікові дані Google Cloud. Примітка. Якщо ввійти у власний обліковий запис Google Cloud, може стягуватися додаткова плата.
  7. Що від вас очікується

    • Прийміть Умови використання.
    • Не додавайте способи відновлення й двохетапну перевірку (оскільки це тимчасовий обліковий запис).
    • Не реєструйте безкоштовні пробні версії.

Через кілька секунд консоль Google Cloud відкриється в новій вкладці.

Примітка. Щоб отримати доступ до продуктів і сервісів Google Cloud, натисніть меню навігації або введіть назву сервісу чи продукту в полі пошуку.

Переконайтеся, що Cloud Dataproc API увімкнено

Щоб створити кластер Dataproc у Google Cloud, слід увімкнути Cloud Dataproc API. Переконайтеся, що API увімкнено.

  1. Натисніть меню навігації > APIs & Services (API і сервіси) > Library (Бібліотека):

  2. Введіть Cloud Dataproc у вікні Search for APIs & Services (Пошук API і сервісів). У результатах пошуку на консолі з’явиться Cloud Dataproc API.

  3. Натисніть Cloud Dataproc API, щоб переглянути статус API. Якщо API не ввімкнено, натисніть кнопку Enable (Увімкнути).

Увімкнувши API, дотримуйтеся вказівок щодо виконання практичної роботи.

Надайте сервісному обліковому запису необхідні дозволи

Щоб створити кластер, потрібно надати сервісному обліковому запису дозвіл на доступ до сховища.

  1. Відкрийте меню навігації > IAM & Admin (Адміністрування й керування ідентифікацією і доступом) > IAM.

  2. Натисніть значок олівця біля сервісного облікового запису compute@developer.gserviceaccount.com.

  3. Натисніть кнопку + ADD ANOTHER ROLE (+ ДОДАТИ ІНШУ РОЛЬ) і виберіть роль Storage Admin (Адміністратор сховища)

Вибравши потрібну роль, натисніть Save (Зберегти)

Завдання 1. Створіть кластер

  1. У меню навігації консолі Cloud Platform виберіть Dataproc > Clusters (Кластери), а потім натисніть Create cluster (Створити кластер).

  2. Натисніть Create (Створити) біля Cluster on Compute Engine (Кластер у Compute Engine).

  3. Налаштуйте наведені нижче поля кластера, а в решті полів підтвердьте значення за умовчанням.

Примітка. Переконайтеся, що в розділі Configure nodes (Налаштуйте вузли) для головного й робочих вузлів вибрано правильну серію і тип машини.
Поле Значення
Name (Назва) example-cluster
Region (Регіон)
Zone (Зона)
Серія машини (керуючий вузол) E2
Тип машини (керуючий вузол) e2-standard-2
Розмір основного диска (керуючі вузли) 30 ГБ
Кількість робочих вузлів 2
Серія машини (робочі вузли) E2
Тип машини (робочі вузли) e2-standard-2
Розмір основного диска (робочі вузли) 30 ГБ
Internal IP only (Лише внутрішні IP-адреси) Зніміть прапорець Configure all instances to have only internal IP addresses (Налаштувати для всіх екземплярів лише внутрішні IP-адреси)
Примітка. Zone (Зона) – це спеціальний простір імен для кількох регіонів, що використовується для розгортання екземплярів у всіх зонах Google Compute у всьому світі. Також можна вказати конкретні регіони, наприклад us-central1 або europe-west1, щоб ізолювати ресурси (зокрема екземпляри віртуальних машин та Cloud Storage) і місця збереження метаданих, що використовуються в Cloud Dataproc, у межах указаного користувачем регіону.
  1. Щоб створити кластер, натисніть Create (Створити).

Новий кластер з’явиться в списку Clusters (Кластери) через кілька хвилин. Спочатку він матиме статус Provisioning (Надання доступу), а коли буде готовий до використання – статус Running (Активний).

Перевірка виконаного завдання

Щоб підтвердити виконання завдання, натисніть Підтвердити виконання.

Створіть кластер Dataproc

Завдання 2. Надішліть завдання

Щоб запустити просте завдання Spark, виконайте наведені нижче дії.

  1. На панелі ліворуч натисніть Jobs (Завдання), щоб перейти до перегляду завдань Dataproc, а потім натисніть Submit job (Надіслати завдання).

  2. Налаштуйте наведені нижче поля, щоб оновити завдання, а в решті полів підтвердьте значення за умовчанням.

Поле Значення
Region (Регіон)
Cluster (Кластер) example-cluster
Вид завдання Spark
Main class or jar (Основний клас або файл JAR) org.apache.spark.examples.SparkPi
Файли JAR file:///usr/lib/spark/examples/jars/spark-examples.jar
Аргументи 1000 (це показник кількості завдань)
  1. Натисніть Submit (Надіслати).
Примітка. Як завдання визначає число пі. Завдання Spark обчислює значення числа пі методом Монте-Карло. Воно генерує точки x,y на площині координат, будуючи модель кола всередині одиничного квадрата. Вхідний аргумент (1000) визначає, скільки пар x,y потрібно згенерувати: що більше пар, то вища точність обчислення. Щоб розпаралелити обчислення, використовуються робочі вузли Cloud Dataproc. Більше інформації наведено в статтях Визначення числа пі методом Монте-Карло й JavaSparkPi.java на GitHub.

Завдання має з’явитися в списку на сторінці Jobs (Завдання), де відображається інформація про завдання вашого проекту, зокрема про відповідний кластер, тип і поточний статус завдання. Спочатку завдання матиме статус Running (Активне), а після виконання – Succeeded (Виконано).

Перевірка виконаного завдання

Щоб підтвердити виконання завдання, натисніть Підтвердити виконання.

Надішліть завдання

Завдання 3. Перегляньте вивід завдання

Щоб переглянути вивід завдання, виконайте наведені нижче дії.

  1. Натисніть ідентифікатор завдання в списку Jobs (Завдання).

  2. Щоб переглянути значення числа пі, увімкніть опцію LINE WRAP (ПЕРЕНЕСЕННЯ РЯДКА) (значення ON) або прокрутіть сторінку до кінця праворуч. Після цього вивід виглядатиме десь так:

Приблизне значення числа пі отримано.

Завдання 4. Змініть кількість робочих вузлів у кластері

Щоб змінити кількість робочих екземплярів у кластері, виконайте наведені нижче дії.

  1. Виберіть Clusters (Кластери) на панелі навігації ліворуч, щоб повернутися до перегляду кластерів Dataproc.

  2. У списку Clusters (Кластери) натисніть example-cluster. За умовчанням на сторінці відображається показник використання ЦП кластером.

  3. Щоб переглянути поточні налаштування кластера, натисніть Configuration (Конфігурація).

  4. Натисніть Edit (Редагувати). Тепер можна змінювати кількість робочих вузлів.

  5. Введіть 4 в полі Worker nodes (Робочі вузли).

  6. Натисніть Зберегти.

Кластер оновлено. Перевірте кількість екземплярів віртуальної машини в кластері.

Перевірка виконаного завдання

Щоб підтвердити виконання завдання, натисніть Підтвердити виконання.

Оновіть кластер
  1. Щоб повторно виконати завдання з оновленим кластером, потрібно натиснути Jobs (Завдання) на панелі ліворуч, а потім – SUBMIT JOB (НАДІСЛАТИ ЗАВДАННЯ).

  2. Налаштуйте ті самі поля, що й у розділі Submit a job (Надіслати завдання):

Поле Значення
Region (Регіон)
Cluster (Кластер) example-cluster
Вид завдання Spark
Main class or jar (Основний клас або файл JAR) org.apache.spark.examples.SparkPi
Файли JAR file:///usr/lib/spark/examples/jars/spark-examples.jar
Аргументи 1000 (це показник кількості завдань)
  1. Натисніть Submit (Надіслати).

Завдання 5. Перевірте свої знання

Дайте відповіді на запитання з кількома варіантами відповіді нижче, щоб закріпити розуміння понять, які зустрічаються в практичній роботі.

Вітаємо!

Тепер ви знаєте, як створити й оновити кластер Dataproc, а також надіслати в ньому завдання за допомогою Google Cloud Console.

Наступні кроки/Докладніше

Це завдання також входить до низки практичних робіт під назвою Qwik Starts. Вони призначені для ознайомлення з функціями Google Cloud. Такі практичні роботи можна знайти в каталозі за запитом "Qwik Starts".

Навчання й сертифікація Google Cloud

…допомагають ефективно використовувати технології Google Cloud. Наші курси передбачають опанування технічних навичок, а також ознайомлення з рекомендаціями, що допоможуть вам швидко зорієнтуватися й вивчити матеріал. Ми пропонуємо курси різних рівнів – від базового до високого. Ви можете вибрати формат навчання (за запитом, онлайн або офлайн) відповідно до власного розкладу. Пройшовши сертифікацію, ви перевірите й підтвердите свої навички та досвід роботи з технологіями Google Cloud.

Посібник востаннє оновлено 2 липня 2023 року

Практичну роботу востаннє протестовано 2 липня 2024 року

© Google LLC 2025. Усі права захищено. Назва та логотип Google є торговельними марками Google LLC. Усі інші назви компаній і продуктів можуть бути торговельними марками відповідних компаній, з якими вони пов’язані.

Before you begin

  1. Labs create a Google Cloud project and resources for a fixed time
  2. Labs have a time limit and no pause feature. If you end the lab, you'll have to restart from the beginning.
  3. On the top left of your screen, click Start lab to begin

This content is not currently available

We will notify you via email when it becomes available

Great!

We will contact you via email if it becomes available

One lab at a time

Confirm to end all existing labs and start this one

Use private browsing to run the lab

Use an Incognito or private browser window to run this lab. This prevents any conflicts between your personal account and the Student account, which may cause extra charges incurred to your personal account.