
Before you begin
- Labs create a Google Cloud project and resources for a fixed time
- Labs have a time limit and no pause feature. If you end the lab, you'll have to restart from the beginning.
- On the top left of your screen, click Start lab to begin
Disable and re-enable the Dataflow API
/ 20
Create a BigQuery Dataset (name: taxirides)
/ 20
Create a table in BigQuery Dataset
/ 20
Create a Cloud Storage bucket
/ 20
Run the Pipeline
/ 20
Di lab ini, Anda akan mempelajari cara membuat pipeline streaming menggunakan salah satu template Dataflow Google. Lebih tepatnya, Anda akan menggunakan template Pub/Sub to BigQuery, yang membaca pesan yang ditulis dalam JSON dari topik Pub/Sub dan mengirimnya ke tabel BigQuery. Anda dapat menemukan dokumentasi untuk template ini di bagian Panduan penggunaan template yang disediakan Google.
Anda diberi opsi untuk menggunakan command line Cloud Shell atau Konsol Cloud untuk membuat set data dan tabel BigQuery. Pilih satu metode yang akan digunakan, lalu lanjutkan dengan metode tersebut hingga akhir lab. Jika Anda ingin merasakan pengalaman menggunakan kedua metode tersebut, jalankan melalui lab ini untuk kedua kalinya.
Baca petunjuk ini. Lab memiliki timer dan Anda tidak dapat menjedanya. Timer yang dimulai saat Anda mengklik Start Lab akan menampilkan durasi ketersediaan resource Google Cloud untuk Anda.
Lab interaktif ini dapat Anda gunakan untuk melakukan aktivitas lab di lingkungan cloud sungguhan, bukan di lingkungan demo atau simulasi. Untuk mengakses lab ini, Anda akan diberi kredensial baru yang bersifat sementara dan dapat digunakan untuk login serta mengakses Google Cloud selama durasi lab.
Untuk menyelesaikan lab ini, Anda memerlukan:
Klik tombol Start Lab. Jika Anda perlu membayar lab, dialog akan terbuka untuk memilih metode pembayaran. Di sebelah kiri ada panel Lab Details yang berisi hal-hal berikut:
Klik Open Google Cloud console (atau klik kanan dan pilih Open Link in Incognito Window jika Anda menjalankan browser Chrome).
Lab akan menjalankan resource, lalu membuka tab lain yang menampilkan halaman Sign in.
Tips: Atur tab di jendela terpisah secara berdampingan.
Jika perlu, salin Username di bawah dan tempel ke dialog Sign in.
Anda juga dapat menemukan Username di panel Lab Details.
Klik Next.
Salin Password di bawah dan tempel ke dialog Welcome.
Anda juga dapat menemukan Password di panel Lab Details.
Klik Next.
Klik halaman berikutnya:
Setelah beberapa saat, Konsol Google Cloud akan terbuka di tab ini.
Cloud Shell adalah mesin virtual yang dilengkapi dengan berbagai alat pengembangan. Mesin virtual ini menawarkan direktori beranda persisten berkapasitas 5 GB dan berjalan di Google Cloud. Cloud Shell menyediakan akses command-line untuk resource Google Cloud Anda.
Klik Activate Cloud Shell di bagian atas Konsol Google Cloud.
Klik jendela berikut:
Setelah terhubung, Anda sudah diautentikasi, dan project ditetapkan ke Project_ID,
gcloud
adalah alat command line untuk Google Cloud. Alat ini sudah terinstal di Cloud Shell dan mendukung pelengkapan command line.
Output:
Output:
gcloud
yang lengkap di Google Cloud, baca panduan ringkasan gcloud CLI.
Untuk memastikan akses ke API yang diperlukan, mulai ulang koneksi ke Dataflow API.
Di Konsol Cloud, masukkan "Dataflow API" di kotak penelusuran teratas. Klik hasil untuk Dataflow API.
Klik Manage.
Klik Disable API.
Jika diminta untuk mengonfirmasi, klik Disable.
Jika API sudah diaktifkan kembali, halaman akan menampilkan opsi untuk menonaktifkannya.
Menguji tugas yang sudah selesai
Klik Check my progress untuk memverifikasi tugas yang telah diselesaikan.
Pertama-tama, mari kita buat set data dan tabel BigQuery.
bq
. Lompat ke Tugas 3 jika Anda ingin menyelesaikan langkah ini menggunakan Konsol Cloud.
taxirides
:Output Anda akan terlihat seperti ini:
Menguji tugas yang sudah selesai
Klik Check my progress untuk memverifikasi tugas yang telah diselesaikan. Jika berhasil membuat set data BigQuery, Anda akan melihat skor penilaian.
Sekarang setelah set data dibuat, Anda akan menggunakannya pada langkah berikut untuk membuat instance tabel BigQuery.
Output Anda akan terlihat seperti ini:
Menguji tugas yang sudah selesai
Klik Check my progress untuk memverifikasi tugas yang telah diselesaikan. Jika berhasil membuat tabel dalam set data BigQuery, Anda akan melihat skor penilaian.
Sepintas lalu, perintah bq mk
terlihat agak kompleks. Namun, dengan bantuan dari dokumentasi command line BigQuery, kita dapat menguraikan prosesnya. Sebagai contoh, dokumentasi ini memberikan informasi lebih lanjut tentang skema:
[FIELD]
:[DATA_TYPE]
, [FIELD]
:[DATA_TYPE]
.Dalam hal ini, kita menggunakan format yang kedua, yaitu daftar yang dipisahkan koma.
Setelah membuat instance tabel, mari kita membuat bucket.
Gunakan Project ID sebagai nama bucket untuk memastikan nama unik secara global:
Menguji tugas yang sudah selesai
Klik Check my progress untuk memverifikasi tugas yang telah diselesaikan. Jika berhasil membuat bucket Cloud Storage, Anda akan melihat skor penilaian.
Setelah membuat bucket, scroll ke bawah ke bagian Menjalankan Pipeline.
Dari menu di sebelah kiri, di bagian Big Data, klik BigQuery.
Kemudian, klik Done.
Klik tiga titik di samping nama project Anda di bagian Explorer, lalu klik Create dataset.
Masukkan taxirides
sebagai ID set data Anda:
Pilih us (multiple regions in United States) untuk Data location.
Tetap gunakan setelan default untuk semua setelan lainnya, lalu klik CREATE DATASET.
Menguji tugas yang sudah selesai
Klik Check my progress untuk memverifikasi tugas yang telah diselesaikan. Jika berhasil membuat set data BigQuery, Anda akan melihat skor penilaian.
Saat ini Anda seharusnya dapat melihat set data taxirides
di bawah project ID, di konsol sebelah kiri.
Klik tiga titik di samping set data taxirides
dan pilih Open.
Lalu pilih CREATE TABLE di sisi kanan konsol.
Pada input Destination > Table Name, masukkan realtime
.
Di bagian Schema, aktifkan tombol pengalih Edit as text, lalu masukkan perintah berikut:
Konsol Anda akan tampak seperti berikut:
Menguji tugas yang sudah selesai
Klik Check my progress untuk memverifikasi tugas yang telah diselesaikan. Jika berhasil membuat tabel dalam set data BigQuery, Anda akan melihat skor penilaian.
Kembali ke Konsol Cloud dan buka Cloud Storage > Buckets > Create bucket.
Gunakan Project ID sebagai nama bucket untuk memastikan nama unik secara global:
Tetap gunakan setelan default untuk semua setelan lainnya, lalu klik Create.
Menguji tugas yang sudah selesai
Klik Check my progress untuk memverifikasi tugas yang telah diselesaikan. Jika berhasil membuat bucket Cloud Storage, Anda akan melihat skor penilaian.
Deploy Template Dataflow berikut:
Pada Konsol Google Cloud, di Navigation menu, klik Dataflow > Jobs, dan Anda akan melihat tugas dataflow Anda.
Baca dokumen ini untuk mengetahui informasi lebih lanjut.
Menguji tugas yang sudah selesai
Klik Check my progress untuk memverifikasi tugas yang telah diselesaikan. Jika telah berhasil menjalankan pipeline Dataflow, Anda akan melihat skor penilaian.
Anda akan menyaksikan resource Anda dibuat dan siap digunakan.
Sekarang, mari kita lihat data yang ditulis ke BigQuery dengan mengklik BigQuery yang ada di Navigation menu.
Anda dapat mengirimkan kueri menggunakan SQL standar.
Jika Anda mengalami masalah atau error, jalankan kueri lagi (pipeline membutuhkan waktu beberapa saat untuk memulai.)
Kerja bagus! Anda baru saja menarik 1000 perjalanan dengan taksi dari topik Pub/Sub dan memasukkannya ke tabel BigQuery. Seperti yang Anda lihat sendiri, template adalah cara yang praktis dan mudah digunakan untuk menjalankan tugas Dataflow. Pastikan untuk mempelajari beberapa Template Google lainnya di bagian Panduan penggunaan template yang disediakan Google di Dokumentasi Dataflow.
Di bawah ini terdapat pertanyaan pilihan ganda untuk memperkuat pemahaman Anda tentang konsep lab ini. Jawab pertanyaan tersebut sebaik mungkin.
Anda membuat pipeline streaming menggunakan template Pub/Sub to BigQuery Dataflow, yang membaca pesan yang ditulis dalam JSON dari topik Pub/Sub dan mengirimnya ke tabel BigQuery.
Lab ini merupakan bagian dari rangkaian lab yang disebut Qwik Start. Lab ini dirancang agar Anda dapat mencoba berbagai fitur yang tersedia dengan Google Cloud. Telusuri "Qwik Starts" di katalog Google Cloud Skills Boost untuk menemukan lab berikutnya yang ingin Anda ikuti.
...membantu Anda mengoptimalkan teknologi Google Cloud. Kelas kami mencakup keterampilan teknis dan praktik terbaik untuk membantu Anda memahami dengan cepat dan melanjutkan proses pembelajaran. Kami menawarkan pelatihan tingkat dasar hingga lanjutan dengan opsi on demand, live, dan virtual untuk menyesuaikan dengan jadwal Anda yang sibuk. Sertifikasi membantu Anda memvalidasi dan membuktikan keterampilan serta keahlian Anda dalam teknologi Google Cloud.
Manual Terakhir Diperbarui pada 4 Februari 2024
Lab Terakhir Diuji pada 10 November 2023
Hak cipta 2025 Google LLC. Semua hak dilindungi undang-undang. Google dan logo Google adalah merek dagang dari Google LLC. Semua nama perusahaan dan produk lain mungkin adalah merek dagang masing-masing perusahaan yang bersangkutan.
Konten ini tidak tersedia untuk saat ini
Kami akan memberi tahu Anda melalui email saat konten tersedia
Bagus!
Kami akan menghubungi Anda melalui email saat konten tersedia
One lab at a time
Confirm to end all existing labs and start this one