
Before you begin
- Labs create a Google Cloud project and resources for a fixed time
- Labs have a time limit and no pause feature. If you end the lab, you'll have to restart from the beginning.
- On the top left of your screen, click Start lab to begin
Disable and re-enable the Dataflow API
/ 20
Create a BigQuery Dataset (name: taxirides)
/ 20
Create a table in BigQuery Dataset
/ 20
Create a Cloud Storage bucket
/ 20
Run the Pipeline
/ 20
Bu laboratuvarda, Google'ın Dataflow şablonlarından birini kullanarak akış ardışık düzeni oluşturmayı öğreneceksiniz. Daha net açıklamak gerekirse "Pub/Sub'dan BigQuery'ye" şablonunu kullanacaksınız. Bu şablon, JSON biçiminde yazılmış mesajları Pub/Sub konusundan okuyarak BigQuery tablosuna aktarır. Bu şablonla ilgili belgeleri, Google tarafından sağlanan şablonlar için başlangıç kılavuzunda bulabilirsiniz.
BigQuery veri kümesi ve tablosunu oluşturmak için size Cloud Shell komut satırı veya Cloud Console'u kullanma seçeneği sunulacak. Kullanılacak yöntemi seçip laboratuvarın geri kalan kısımlarında bu yöntemi kullanmaya devam edin. Her iki yöntemi de kullanmayı denemek istiyorsanız bu laboratuvara iki defa katılın.
Buradaki talimatları okuyun. Laboratuvarlar süreli olduğundan duraklatılamaz. Start Lab'i (Laboratuvarı başlat) tıkladığınızda başlayan zamanlayıcı, Google Cloud kaynaklarının ne süreyle kullanımınıza açık durumda kalacağını gösterir.
Bu uygulamalı laboratuvarı kullanarak, laboratuvar etkinliklerini simülasyon veya demo ortamı yerine gerçek bir bulut ortamında gerçekleştirebilirsiniz. Bunu yapabilmeniz için size yeni, geçici kimlik bilgileri verilir. Bu kimlik bilgilerini laboratuvar süresince Google Cloud'da oturum açmak ve Google Cloud'a erişmek için kullanabilirsiniz.
Bu laboratuvarı tamamlamak için gerekenler:
Laboratuvarı Başlat düğmesini tıklayın. Laboratuvar için ödeme yapmanız gerekiyorsa ödeme yöntemini seçebileceğiniz bir iletişim kutusu açılır. Soldaki "Laboratuvar ayrıntıları" panelinde şunlar yer alır:
Google Cloud Console'u aç'ı tıklayın (veya Chrome Tarayıcı'yı kullanıyorsanız sağ tıklayıp Bağlantıyı gizli pencerede aç'ı seçin).
Laboratuvar, kaynakları çalıştırır ve sonra "Oturum aç" sayfasını gösteren başka bir sekme açar.
İpucu: Sekmeleri ayrı pencerelerde, yan yana açın.
Gerekirse aşağıdaki kullanıcı adını kopyalayıp Oturum açın iletişim kutusuna yapıştırın.
Kullanıcı adını "Laboratuvar ayrıntıları" panelinde de bulabilirsiniz.
İleri'yi tıklayın.
Aşağıdaki şifreyi kopyalayıp Hoş geldiniz iletişim kutusuna yapıştırın.
Şifreyi "Laboratuvar ayrıntıları" panelinde de bulabilirsiniz.
İleri'yi tıklayın.
Sonraki sayfalarda ilgili düğmeleri tıklayarak ilerleyin:
Birkaç saniye sonra Google Cloud konsolu bu sekmede açılır.
Cloud Shell, çok sayıda geliştirme aracı içeren bir sanal makinedir. 5 GB boyutunda kalıcı bir ana dizin sunar ve Google Cloud üzerinde çalışır. Cloud Shell, Google Cloud kaynaklarınıza komut satırı erişimi sağlar.
Google Cloud konsolunun üst kısmından Activate Cloud Shell (Cloud Shell'i etkinleştir) simgesini tıklayın.
Aşağıdaki pencereleri tıklayın:
Bağlandığınızda kimliğiniz zaten doğrulanmıştır. Proje ise Project_ID'nize (
gcloud
, Google Cloud'un komut satırı aracıdır. Cloud Shell'e önceden yüklenmiştir ve sekmeyle tamamlamayı destekler.
Çıkış:
Çıkış:
gcloud
ile ilgili tüm belgeleri, Google Cloud'daki gcloud CLI'a genel bakış rehberinde bulabilirsiniz.
Gerekli API'ye erişilebilmesi için Dataflow API bağlantısını yeniden başlatın.
Cloud Console'un üst kısmındaki arama çubuğuna "Dataflow API" yazın. Listelenen sonuçlarda Dataflow API'yi tıklayın.
Yönet'i tıklayın.
API'yi devre dışı bırak'ı tıklayın.
Onaylamanız istenirse Devre dışı bırak'ı tıklayın.
API tekrar etkinleştirildiğinde, sayfada devre dışı bırakma seçeneği gösterilir.
Tamamlanan görevi test etme
Tamamladığınız görevi doğrulamak için İlerleme durumumu kontrol et'i tıklayın.
Öncelikle BigQuery veri kümesi ve tablosu oluşturalım.
bq
komut satırı aracı kullanılmaktadır. Bu adımları Cloud Console'u kullanarak tamamlamak istiyorsanız 3. göreve geçin.
taxirides
adlı bir veri kümesi oluşturmak için aşağıdaki komutu çalıştırın:Elde ettiğiniz çıkış şuna benzer şekilde görünecektir:
Tamamlanan görevi test etme
Tamamladığınız görevi doğrulamak için İlerleme durumumu kontrol et'i tıklayın. BigQuery veri kümesi oluşturma işlemi tamamlandıysa değerlendirme puanı görürsünüz.
Artık veri kümeniz oluşturulduğuna göre bir BigQuery tablosu örneklendirmek için aşağıdaki adımda bu veri kümesini kullanacaksınız.
Elde ettiğiniz çıkış şuna benzer şekilde görünecektir:
Tamamlanan görevi test etme
Tamamladığınız görevi doğrulamak için İlerleme durumumu kontrol et'i tıklayın. BigQuery veri kümesinde tablo oluşturma işlemi tamamlandıysa değerlendirme puanı görürsünüz.
bq mk
komutu ilk bakışta biraz karmaşık görünür. Ancak bu komutun ne anlama geldiğini çözmek için BigQuery komut satırı belgelerinden yardım alabiliriz. Örneğin, belgelerde şema hakkında daha fazla bilgi edinebiliriz.
[FIELD]
:[DATA_TYPE]
, [FIELD]
:[DATA_TYPE]
biçiminde virgülle ayrılmış listesine giden yoldur.Bu durumda ikinci seçeneği, yani virgülle ayrılmış listeyi kullanıyoruz.
Artık tablomuzu örneklendirdiğimize göre bir paket oluşturalım.
Paket adının global olarak benzersiz olması için proje kimliğini kullanın:
Tamamlanan görevi test etme
Tamamladığınız görevi doğrulamak için İlerleme durumumu kontrol et'i tıklayın. Cloud Storage paketi oluşturma işlemi tamamlandıysa değerlendirme puanı görürsünüz.
Paketinizi oluşturduktan sonra sayfayı aşağı kaydırarak Ardışık düzeni çalıştırma bölümüne gidin.
Soldaki menüde, Büyük Veri bölümünden BigQuery'yi tıklayın.
Ardından Bitti'yi tıklayın.
Gezgin bölümünde proje adının yanındaki üç noktayı tıklayın, ardından Veri kümesi oluştur'u tıklayın.
Veri kümesi kimliğiniz olarak taxirides
değerini girin:
Veri konumu için us (Amerika Birleşik Devletleri'nde birden fazla bölge) seçeneğini belirleyin.
Diğer varsayılan ayarları değiştirmeden VERİ KÜMESİ OLUŞTUR'u tıklayın.
Tamamlanan görevi test etme
Tamamladığınız görevi doğrulamak için İlerleme durumumu kontrol et'i tıklayın. BigQuery veri kümesi oluşturma işlemi tamamlandıysa değerlendirme puanı görürsünüz.
Soldaki konsolda, proje kimliğinin altında taxirides
veri kümesini görüyor olmanız gerekir.
taxirides
veri kümesinin yanındaki üç noktayı tıklayıp Aç'ı seçin.
Ardından, konsolun sağ tarafında TABLO OLUŞTUR'u seçin.
Hedef > Tablo Adı kısmına realtime
yazın.
Şema bölümünde Metin olarak düzenle kaydırma çubuğunu açın ve aşağıdaki kodu girin:
Konsolunuz aşağıdaki gibi görünecektir:
Tamamlanan görevi test etme
Tamamladığınız görevi doğrulamak için İlerleme durumumu kontrol et'i tıklayın. BigQuery veri kümesinde tablo oluşturma işlemi tamamlandıysa değerlendirme puanı görürsünüz.
Cloud Console'a dönüp Cloud Storage > Paketler > Paket oluştur adımlarını izleyin.
Paket adının global olarak benzersiz olması için proje kimliğini kullanın:
Diğer varsayılan ayarları değiştirmeden Oluştur'u tıklayın.
Tamamlanan görevi test etme
Tamamladığınız görevi doğrulamak için İlerleme durumumu kontrol et'i tıklayın. Cloud Storage paketi oluşturma işlemi tamamlandıysa değerlendirme puanı görürsünüz.
Dataflow şablonunu dağıtın:
Google Cloud Console'da, gezinme menüsünde, Dataflow > İşler'i tıklayın. Dataflow işiniz gösterilir.
Daha fazla bilgi için lütfen belgeye göz atın.
Tamamlanan görevi test etme
Tamamladığınız görevi doğrulamak için İlerleme durumumu kontrol et'i tıklayın. Dataflow ardışık düzenini başarıyla çalıştırdıysanız bir değerlendirme puanı görürsünüz.
Kaynaklarınızın oluşturulduğunu ve kullanıma hazır hale geldiğini görürsünüz.
Şimdiyse gezinme menüsünde BigQuery'yi tıklayarak BigQuery'ye yazılan verileri görüntüleyelim.
Sorguları standart SQL kullanarak gönderebilirsiniz.
Herhangi bir sorun veya hatayla karşılaşırsanız sorguyu tekrar çalıştırın. Ardışık düzenin başlaması bir dakika sürebilir.
İyi iş çıkardınız! Pub/Sub konusundan 1.000 taksi yolculuğu çekip bunları BigQuery tablosuna aktardınız. Sizin de gördüğünüz gibi şablonlar, Dataflow işlerini çalıştırmanın pratik ve kullanımı kolay bir yoludur. Google tarafından sağlanan şablonlar için başlangıç kılavuzunu inceleyerek Dataflow belgelerindeki diğer Google şablonlarına da göz atmayı unutmayın.
Aşağıda, bu laboratuvarda ele alınan kavramlarla ilgili bilginizi pekiştirecek çoktan seçmeli sorular verilmiştir. Bu soruları elinizden geldiğince yanıtlamaya çalışın.
"Pub/Sub'dan BigQuery'ye" Dataflow şablonunu kullanarak akış ardışık düzeni oluşturdunuz. Bu şablon, JSON biçiminde yazılmış mesajları Pub/Sub konusundan okuyarak BigQuery tablosuna aktarır.
Bu laboratuvar, Qwik Starts laboratuvar serisinin bir parçasıdır. Bu laboratuvarlar, Google Cloud'daki pek çok özelliği biraz olsun tanıtabilmek için tasarlamıştır. Katılabileceğiniz bir sonraki laboratuvarı bulmak için Google Cloud Öğrenim Merkezi kataloğunda "Qwik Starts" araması yapın.
...Google Cloud teknolojilerinden en iyi şekilde yararlanmanıza yardımcı olur. Derslerimizde teknik becerilere odaklanırken en iyi uygulamalara da yer veriyoruz. Gerekli yetkinlik seviyesine hızlıca ulaşmanız ve öğrenim maceranızı sürdürebilmeniz için sizlere yardımcı olmayı amaçlıyoruz. Temel kavramlardan ileri seviyeye kadar farklı eğitim programlarımız mevcut. Ayrıca, yoğun gündeminize uyması için talep üzerine sağlanan, canlı ve sanal eğitim alternatiflerimiz de var. Sertifikasyonlar ise Google Cloud teknolojilerindeki becerilerinizi ve uzmanlığınızı doğrulamanıza ve kanıtlamanıza yardımcı oluyor.
Kılavuzun Son Güncellenme Tarihi: 4 Şubat 2024
Laboratuvarın Son Test Edilme Tarihi: 10 Kasım 2023
Telif Hakkı 2025 Google LLC. Tüm hakları saklıdır. Google ve Google logosu, Google LLC şirketinin ticari markalarıdır. Diğer tüm şirket ve ürün adları ilişkili oldukları şirketlerin ticari markaları olabilir.
This content is not currently available
We will notify you via email when it becomes available
Great!
We will contact you via email if it becomes available
One lab at a time
Confirm to end all existing labs and start this one