
Before you begin
- Labs create a Google Cloud project and resources for a fixed time
- Labs have a time limit and no pause feature. If you end the lab, you'll have to restart from the beginning.
- On the top left of your screen, click Start lab to begin
Disable and re-enable the Dataflow API
/ 20
Create a BigQuery Dataset (name: taxirides)
/ 20
Create a table in BigQuery Dataset
/ 20
Create a Cloud Storage bucket
/ 20
Run the Pipeline
/ 20
In questo lab imparerai a creare una pipeline di flussi di dati utilizzando uno dei modelli Dataflow di Google. In particolare, utilizzerai il modello Da Pub/Sub a BigQuery, che legge i messaggi scritti in formato JSON da un argomento Pub/Sub e ne esegue il push in una tabella BigQuery. Puoi trovare la documentazione per questo modello nella Guida introduttiva ai modelli forniti da Google.
Ti verrà data la possibilità di utilizzare la riga di comando di Cloud Shell o la console Cloud per creare il set di dati e la tabella BigQuery. Scegli il metodo da utilizzare e continua a usarlo per il resto del lab. Se vuoi provare a utilizzare entrambi i metodi, ripeti il lab una seconda volta.
Leggi le seguenti istruzioni. I lab sono a tempo e non possono essere messi in pausa. Il timer si avvia quando fai clic su Inizia il lab e ti mostra per quanto tempo avrai a disposizione le risorse Google Cloud.
Con questo lab pratico avrai la possibilità di completare le attività in un ambiente cloud reale e non di simulazione o demo. Riceverai delle nuove credenziali temporanee che potrai utilizzare per accedere a Google Cloud per la durata del lab.
Per completare il lab, avrai bisogno di:
Fai clic sul pulsante Avvia lab. Se devi effettuare il pagamento per il lab, si aprirà una finestra di dialogo per permetterti di selezionare il metodo di pagamento. A sinistra, trovi il riquadro Dettagli lab con le seguenti informazioni:
Fai clic su Apri console Google Cloud (o fai clic con il tasto destro del mouse e seleziona Apri link in finestra di navigazione in incognito se utilizzi il browser Chrome).
Il lab avvia le risorse e apre un'altra scheda con la pagina di accesso.
Suggerimento: disponi le schede in finestre separate posizionate fianco a fianco.
Se necessario, copia il Nome utente di seguito e incollalo nella finestra di dialogo di accesso.
Puoi trovare il Nome utente anche nel riquadro Dettagli lab.
Fai clic su Avanti.
Copia la Password di seguito e incollala nella finestra di dialogo di benvenuto.
Puoi trovare la Password anche nel riquadro Dettagli lab.
Fai clic su Avanti.
Fai clic nelle pagine successive:
Dopo qualche istante, la console Google Cloud si apre in questa scheda.
Cloud Shell è una macchina virtuale in cui sono caricati strumenti per sviluppatori. Offre una home directory permanente da 5 GB e viene eseguita su Google Cloud. Cloud Shell fornisce l'accesso da riga di comando alle risorse Google Cloud.
Fai clic su Attiva Cloud Shell nella parte superiore della console Google Cloud.
Fai clic nelle seguenti finestre:
Quando la connessione è attiva, l'autenticazione è già avvenuta e il progetto è impostato sul tuo Project_ID,
gcloud
è lo strumento a riga di comando di Google Cloud. È preinstallato su Cloud Shell e supporta il completamento tramite tasto Tab.
Output:
Output:
gcloud
, in Google Cloud, fai riferimento alla guida Panoramica dell'interfaccia a riga di comando gcloud.
Per garantire l'accesso all'API necessaria, riavvia la connessione all'API Dataflow.
Nella console Cloud, inserisci "API Dataflow" nella barra di ricerca in alto. Fai clic sul risultato per API Dataflow.
Fai clic su Gestisci.
Fai clic su Disabilita API.
Se ti viene chiesto di confermare, fai clic su Disabilita.
Quando l'API è stata nuovamente abilitata, la pagina mostrerà l'opzione per disabilitare.
Verifica l'attività completata
Fai clic su Controlla i miei progressi per verificare l'attività eseguita.
Innanzitutto, creiamo un set di dati e una tabella BigQuery.
bq
. Vai all'attività 3 per completare questi passaggi utilizzando la console Cloud.
taxirides
:L'output dovrebbe essere simile a questo:
Verifica l'attività completata
Fai clic su Controlla i miei progressi per verificare l'attività eseguita. Se hai creato correttamente un set di dati BigQuery, visualizzerai un punteggio di valutazione.
Ora che hai creato il tuo set di dati, lo utilizzerai nel passaggio successivo per creare l'istanza di una tabella BigQuery.
L'output dovrebbe essere simile a questo:
Verifica l'attività completata
Fai clic su Controlla i miei progressi per verificare l'attività eseguita. Se hai creato correttamente una tabella in un set di dati BigQuery, visualizzerai un punteggio di valutazione.
A prima vista, il comando bq mk
sembra un po' complicato. Tuttavia, anche con l'aiuto della documentazione sulla riga di comando di BigQuery, possiamo riuscire a decifrarlo. Ad esempio, la documentazione ci spiega meglio il concetto di schema:
[CAMPO]
:[TIPO_DI_DATI]
, [CAMPO]
:[TIPO_DI_DATI]
.Nel nostro caso, la definizione è la seconda delle due, ovvero un elenco separato da virgole.
Ora che abbiamo creato l'istanza della tabella, passiamo alla creazione di un bucket.
Utilizza l'ID progetto come nome del bucket così da assegnare un nome univoco globale:
Verifica l'attività completata
Fai clic su Controlla i miei progressi per verificare l'attività eseguita. Se hai creato correttamente un bucket Cloud Storage, visualizzerai un punteggio di valutazione.
Una volta creato il bucket, scorri verso il basso fino alla sezione Esegui la pipeline.
Nel menu sulla sinistra, nella sezione Big Data, fai clic su BigQuery.
Dopodiché, fai clic su Fine.
Fai clic sui tre puntini accanto al nome del progetto nella sezione Esplora, quindi fai clic su Crea set di dati.
Inserisci taxirides
come ID del set di dati:
Seleziona us (più regioni negli Stati Uniti) in Località dei dati.
Lascia invariate tutte le altre impostazioni predefinite e fai clic su CREA SET DI DATI.
Verifica l'attività completata
Fai clic su Controlla i miei progressi per verificare l'attività eseguita. Se hai creato correttamente un set di dati BigQuery, visualizzerai un punteggio di valutazione.
Ora dovresti vedere il set di dati taxirides
sotto l'ID progetto nella console a sinistra.
Fai clic sui tre punti accanto al set di dati taxirides
e seleziona Apri.
Quindi seleziona CREA TABELLA nella parte destra della console.
In Destinazione > Nome tabella, inserisci realtime
.
Sotto Schema, attiva/disattiva il dispositivo di scorrimento Modifica come testo e inserisci quanto segue:
La console deve avere questo aspetto:
Verifica l'attività completata
Fai clic su Controlla i miei progressi per verificare l'attività eseguita. Se hai creato correttamente una tabella in un set di dati BigQuery, visualizzerai un punteggio di valutazione.
Torna alla console Cloud e vai a Cloud Storage > Bucket > Crea bucket.
Utilizza l'ID progetto come nome del bucket così da assegnare un nome univoco globale:
Lascia invariate tutte le altre impostazioni predefinite e fai clic su Crea.
Verifica l'attività completata
Fai clic su Controlla i miei progressi per verificare l'attività eseguita. Se hai creato correttamente un bucket Cloud Storage, visualizzerai un punteggio di valutazione.
Esegui il deployment del modello Dataflow:
Nella console Google Cloud, nel menu di navigazione, fai clic su Dataflow > Job, per visualizzare il job di Dataflow.
Per ulteriori informazioni, consulta questo documento.
Verifica l'attività completata
Fai clic su Controlla i miei progressi per verificare l'attività eseguita. Se hai eseguito correttamente la pipeline Dataflow, visualizzerai un punteggio di valutazione.
Potrai osservare la compilazione delle tue risorse quando diventano pronte per l'uso.
Passiamo ora a esaminare i dati scritti in BigQuery facendo clic su BigQuery nel menu di navigazione.
Puoi inviare query utilizzando SQL standard.
Se riscontri problemi o errori, esegui di nuovo la query (l'avvio della pipeline richiede qualche minuto).
Ottimo! Hai appena estratto 1000 corse di taxi da un argomento Pub/Sub e le hai inviate tramite push a una tabella BigQuery. Come hai potuto constatare personalmente, i modelli rappresentano un modo pratico e facile per eseguire i job Dataflow. Assicurati di controllare, nella documentazione di Dataflow, alcuni altri modelli Google nella Guida introduttiva ai modelli forniti da Google.
Di seguito sono riportate alcune domande a scelta multipla che servono a consolidare le tue conoscenze relative ai concetti di questo lab. Rispondi alle domande al meglio delle tue capacità.
Hai creato una pipeline di flussi di dati utilizzando il modello Dataflow Da Pub/Sub a BigQuery, che legge i messaggi scritti in JSON da un argomento Pub/Sub e ne esegue il push in una tabella BigQuery.
Questo lab fa parte di una serie chiamata Qwik Starts, pensata per offrirti un piccolo assaggio delle diverse funzionalità disponibili in Google Cloud. Cerca "Qwik Starts" nel catalogo di Google Cloud Skills Boost per trovare il prossimo lab da seguire.
… per utilizzare al meglio le tecnologie Google Cloud. I nostri corsi ti consentono di sviluppare competenze tecniche e best practice per aiutarti a metterti subito al passo e avanzare nel tuo percorso di apprendimento. Offriamo vari livelli di formazione, dal livello base a quello avanzato, con opzioni di corsi on demand, dal vivo e virtuali, in modo da poter scegliere il più adatto in base ai tuoi impegni. Le certificazioni ti permettono di confermare e dimostrare le tue abilità e competenze relative alle tecnologie Google Cloud.
Ultimo aggiornamento del manuale: 4 febbraio 2024
Ultimo test del lab: 10 novembre 2023
Copyright 2025 Google LLC. Tutti i diritti riservati. Google e il logo Google sono marchi di Google LLC. Tutti gli altri nomi di società e prodotti sono marchi delle rispettive società a cui sono associati.
Questi contenuti non sono al momento disponibili
Ti invieremo una notifica via email quando sarà disponibile
Bene.
Ti contatteremo via email non appena sarà disponibile
One lab at a time
Confirm to end all existing labs and start this one