
Before you begin
- Labs create a Google Cloud project and resources for a fixed time
- Labs have a time limit and no pause feature. If you end the lab, you'll have to restart from the beginning.
- On the top left of your screen, click Start lab to begin
Disable and re-enable the Dataflow API
/ 20
Create a BigQuery Dataset (name: taxirides)
/ 20
Create a table in BigQuery Dataset
/ 20
Create a Cloud Storage bucket
/ 20
Run the Pipeline
/ 20
En este lab, aprenderás a crear una canalización de transmisión con una de las plantillas de Dataflow de Google. En especial, usarás la plantilla Pub/Sub to BigQuery, que lee mensajes escritos en JSON de un tema de Pub/Sub y los envía a una tabla de BigQuery. Puedes encontrar la documentación para esta plantilla en la guía Comienza con las plantillas proporcionadas por Google.
También tendrás la opción de usar la línea de comandos de Cloud Shell o la consola de Cloud para crear el conjunto de datos y la tabla de BigQuery. Elige un método para usar, luego continúa con ese método el resto del lab. Si quieres probar ambos métodos, realiza este lab por segunda vez.
Lee estas instrucciones. Los labs cuentan con un temporizador que no se puede pausar. El temporizador, que comienza a funcionar cuando haces clic en Comenzar lab, indica por cuánto tiempo tendrás a tu disposición los recursos de Google Cloud.
Este lab práctico te permitirá realizar las actividades correspondientes en un entorno de nube real, no en uno de simulación o demostración. Para ello, se te proporcionan credenciales temporales nuevas que utilizarás para acceder a Google Cloud durante todo el lab.
Para completar este lab, necesitarás lo siguiente:
Haz clic en el botón Comenzar lab. Si debes pagar por el lab, se abrirá un diálogo para que selecciones la forma de pago. A la izquierda, se encuentra el panel Detalles del lab, que tiene estos elementos:
Haz clic en Abrir la consola de Google Cloud (o haz clic con el botón derecho y selecciona Abrir el vínculo en una ventana de incógnito si ejecutas el navegador Chrome).
El lab inicia recursos y abre otra pestaña en la que se muestra la página de acceso.
Sugerencia: Ordena las pestañas en ventanas separadas, una junto a la otra.
De ser necesario, copia el nombre de usuario a continuación y pégalo en el diálogo Acceder.
También puedes encontrar el nombre de usuario en el panel Detalles del lab.
Haz clic en Siguiente.
Copia la contraseña que aparece a continuación y pégala en el diálogo Te damos la bienvenida.
También puedes encontrar la contraseña en el panel Detalles del lab.
Haz clic en Siguiente.
Haz clic para avanzar por las páginas siguientes:
Después de un momento, se abrirá la consola de Google Cloud en esta pestaña.
Cloud Shell es una máquina virtual que cuenta con herramientas para desarrolladores. Ofrece un directorio principal persistente de 5 GB y se ejecuta en Google Cloud. Cloud Shell proporciona acceso de línea de comandos a tus recursos de Google Cloud.
Haz clic en Activar Cloud Shell en la parte superior de la consola de Google Cloud.
Haz clic para avanzar por las siguientes ventanas:
Cuando te conectes, habrás completado la autenticación, y el proyecto estará configurado con tu Project_ID,
gcloud
es la herramienta de línea de comandos de Google Cloud. Viene preinstalada en Cloud Shell y es compatible con la función de autocompletado con tabulador.
Resultado:
Resultado:
gcloud
, en Google Cloud, consulta la guía con la descripción general de gcloud CLI.
Para garantizar el acceso a la API necesaria, reinicia la conexión a la API de Dataflow.
En la consola de Cloud, escribe “API de Dataflow” en la barra de búsqueda superior. Haz clic en el resultado de API de Dataflow.
Haz clic en Administrar.
Haz clic en Inhabilitar API.
Si se te solicita confirmar, haz clic en Inhabilitar.
Cuando se haya habilitado de nuevo la API, se mostrará en la página la opción para inhabilitarla.
Prueba la tarea completada
Haz clic en Revisar mi progreso para verificar la tarea realizada.
Primero, crearemos un conjunto de datos y una tabla de BigQuery.
bq
. Pasa a la Tarea 3 si quieres completar estos pasos con la consola de Cloud.
taxirides
:El resultado debería ser similar a este:
Prueba la tarea completada
Haz clic en Revisar mi progreso para verificar la tarea realizada. Si creaste un conjunto de datos de BigQuery con éxito, verás una puntuación de evaluación.
Ahora que creaste el conjunto de datos, lo usarás en el paso siguiente para crear una instancia de una tabla de BigQuery.
El resultado debería ser similar a este:
Prueba la tarea completada
Haz clic en Revisar mi progreso para verificar la tarea realizada. Si creaste con éxito una tabla en el conjunto de datos de BigQuery, verás una puntuación de evaluación.
A primera vista, el comando bq mk
parece un poco complicado. Sin embargo, con un poco de ayuda de la documentación sobre la línea de comandos de BigQuery, podemos descifrar qué sucede aquí. Por ejemplo, en la documentación se brinda más información sobre el esquema:
[FIELD]
:[DATA_TYPE]
, [FIELD]
:[DATA_TYPE]
.En este caso, estamos usando la última opción, una lista separada por comas.
Ahora que ya creamos las instancias de la tabla, vamos a crear un bucket.
Usa el ID del proyecto como nombre del bucket para asegurarte de usar un nombre único a nivel global:
Prueba la tarea completada
Haz clic en Revisar mi progreso para verificar la tarea realizada. Si creaste con éxito un bucket de Cloud Storage, verás una puntuación de evaluación.
Una vez que hayas creado el bucket, desplázate hacia abajo hasta la sección Ejecuta la canalización.
En el menú de la izquierda, en la sección Macrodatos, haz clic en BigQuery.
Luego, haz clic en Listo.
Haz clic en los tres puntos junto al nombre de tu proyecto en la sección Explorador y, luego, en Crear conjunto de datos.
Ingresa taxirides
como el ID de tu conjunto de datos:
Selecciona us (varias regiones de Estados Unidos) en Ubicación de los datos.
Conserva los demás parámetros de configuración predeterminados y haz clic en CREAR CONJUNTO DE DATOS.
Prueba la tarea completada
Haz clic en Revisar mi progreso para verificar la tarea realizada. Si creaste un conjunto de datos de BigQuery con éxito, verás una puntuación de evaluación.
Ahora deberías ver el conjunto de datos taxirides
debajo del ID de tu proyecto en la sección izquierda de la consola.
Haz clic en los tres puntos junto al conjunto de datos taxirides
y elige Abrir.
Luego, elige CREAR TABLA en la sección derecha de la consola.
En la entrada Destino > Nombre de la tabla, escribe realtime
.
En Esquema, activa el control deslizante Editar como texto y, luego, escribe lo siguiente:
La consola debería verse como se muestra a continuación:
Prueba la tarea completada
Haz clic en Revisar mi progreso para verificar la tarea realizada. Si creaste con éxito una tabla en el conjunto de datos de BigQuery, verás una puntuación de evaluación.
Regresa a la consola de Cloud y navega a Cloud Storage > Buckets > Crear bucket.
Usa el ID del proyecto como nombre del bucket para asegurarte de usar un nombre único a nivel global:
Deja el resto de los parámetros de configuración como predeterminados y haz clic en Crear.
Prueba la tarea completada
Haz clic en Revisar mi progreso para verificar la tarea realizada. Si creaste con éxito un bucket de Cloud Storage, verás una puntuación de evaluación.
Implementa la plantilla de Dataflow:
En la consola de Google Cloud, en el menú de navegación, haz clic en Dataflow > Trabajos para ver tu trabajo de Dataflow.
Consulta el documento para obtener más información.
Prueba la tarea completada
Haz clic en Revisar mi progreso para verificar la tarea realizada. Si ejecutaste con éxito la canalización de Dataflow, verás una puntuación de evaluación.
Verás cómo se compilan tus recursos y se preparan para su uso.
Para ver los datos escritos en BigQuery, haz clic en BigQuery en Menú de navegación.
Puedes enviar consultas con SQL estándar.
Si surge algún problema o error, ejecuta de nuevo la consulta (la canalización puede tardar un minuto en iniciarse).
¡Muy bien! Extrajiste 1,000 viajes en taxi de un tema Pub/Sub y los enviaste a una tabla de BigQuery. Como viste de primera mano, las plantillas son una forma práctica y sencilla de ejecutar trabajos de Dataflow. En la documentación de Dataflow, asegúrate de consultar otras plantillas de Google en la guía Comienza con las plantillas proporcionadas por Google.
A continuación, se presentan algunas preguntas de opción múltiple para reforzar tus conocimientos de los conceptos de este lab. Trata de responderlas lo mejor posible.
Creaste una canalización de transmisión con la plantilla de Dataflow Pub/Sub to BigQuery, que lee mensajes escritos en JSON de un tema de Pub/Sub y los envía a una tabla de BigQuery.
Este lab forma parte de una serie llamada Qwik Starts. Estos labs están diseñados para ofrecerte una visión general de las numerosas funciones disponibles de Google Cloud. Busca “Qwik Starts” en el catálogo de Google Cloud Skills Boost para elegir el próximo lab que desees completar.
Recibe la formación que necesitas para aprovechar al máximo las tecnologías de Google Cloud. Nuestras clases incluyen habilidades técnicas y recomendaciones para ayudarte a avanzar rápidamente y a seguir aprendiendo. Para que puedas realizar nuestros cursos cuando más te convenga, ofrecemos distintos tipos de capacitación de nivel básico a avanzado: a pedido, presenciales y virtuales. Las certificaciones te ayudan a validar y demostrar tus habilidades y tu conocimiento técnico respecto a las tecnologías de Google Cloud.
Última actualización del manual: 4 de febrero de 2024
Prueba más reciente del lab: 10 de noviembre de 2023
Copyright 2025 Google LLC. All rights reserved. Google y el logotipo de Google son marcas de Google LLC. Los demás nombres de productos y empresas pueden ser marcas de las respectivas empresas a las que estén asociados.
Este contenido no está disponible en este momento
Te enviaremos una notificación por correo electrónico cuando esté disponible
¡Genial!
Nos comunicaremos contigo por correo electrónico si está disponible
One lab at a time
Confirm to end all existing labs and start this one