
Before you begin
- Labs create a Google Cloud project and resources for a fixed time
- Labs have a time limit and no pause feature. If you end the lab, you'll have to restart from the beginning.
- On the top left of your screen, click Start lab to begin
Run a simple Dataflow job
/ 25
Run a simple Dataproc job
/ 25
Use the Google Cloud Speech API
/ 25
Use the Cloud Natural Language API
/ 25
En un lab de desafío, se le proporcionarán una situación y un conjunto de tareas. En lugar de seguir instrucciones paso a paso, deberás utilizar las habilidades aprendidas en los labs del curso para decidir cómo completar las tareas por tu cuenta. Un sistema automatizado de puntuación (en esta página) mostrará comentarios y determinará si completaste tus tareas correctamente.
En un lab de desafío, no se explican conceptos nuevos de Google Cloud, sino que se espera que amplíes las habilidades que adquiriste, como cambiar los valores predeterminados y leer o investigar los mensajes de error para corregir sus propios errores.
Debe completar correctamente todas las tareas dentro del período establecido para obtener una puntuación del 100%.
Se recomienda este lab a los estudiantes que se inscribieron en la insignia de habilidad Prepara datos para las APIs de AA en Google Cloud. ¿Aceptas el desafío?
Temas evaluados:
Lee estas instrucciones. Los labs cuentan con un temporizador que no se puede pausar. El temporizador, que comienza a funcionar cuando haces clic en Comenzar lab, indica por cuánto tiempo tendrás a tu disposición los recursos de Google Cloud.
Este lab práctico te permitirá realizar las actividades correspondientes en un entorno de nube real, no en uno de simulación o demostración. Para ello, se te proporcionan credenciales temporales nuevas que utilizarás para acceder a Google Cloud durante todo el lab.
Para completar este lab, necesitarás lo siguiente:
Haz clic en el botón Comenzar lab. Si debes pagar por el lab, se abrirá un diálogo para que selecciones la forma de pago. A la izquierda, se encuentra el panel Detalles del lab, que tiene estos elementos:
Haz clic en Abrir la consola de Google Cloud (o haz clic con el botón derecho y selecciona Abrir el vínculo en una ventana de incógnito si ejecutas el navegador Chrome).
El lab inicia recursos y abre otra pestaña en la que se muestra la página de acceso.
Sugerencia: Ordena las pestañas en ventanas separadas, una junto a la otra.
De ser necesario, copia el nombre de usuario a continuación y pégalo en el diálogo Acceder.
También puedes encontrar el nombre de usuario en el panel Detalles del lab.
Haz clic en Siguiente.
Copia la contraseña que aparece a continuación y pégala en el diálogo Te damos la bienvenida.
También puedes encontrar la contraseña en el panel Detalles del lab.
Haz clic en Siguiente.
Haz clic para avanzar por las páginas siguientes:
Después de un momento, se abrirá la consola de Google Cloud en esta pestaña.
Antes de comenzar a trabajar en Google Cloud, asegúrate de que tu proyecto tenga los permisos correctos en Identity and Access Management (IAM).
En la consola de Google Cloud, en el Menú de navegación, selecciona IAM y administración > IAM.
Confirma que aparezca la cuenta de servicio predeterminada de Compute {project-number}-compute@developer.gserviceaccount.com
con los roles editor
y storage.admin
asignados. El prefijo de la cuenta es el número del proyecto, que puedes encontrar en el Menú de navegación > Descripción general de Cloud > Panel.
storage.admin
, sigue los pasos que se indican a continuación para asignar el rol necesario.729328892908
).{project-number}
por el número de tu proyecto.Como ingeniero de datos júnior en Jooli Inc. y recientemente capacitado en Google Cloud y varios servicios de datos, tienes que demostrar tus nuevas habilidades. El equipo te pidió que completes las tareas que figuran a continuación.
Se espera que tengas las habilidades y el conocimiento necesarios para realizar estas tareas, por lo que no recibirás guías paso a paso.
En esta tarea, usarás la plantilla por lotes de Dataflow Text Files on Cloud Storage to BigQuery de la sección “Process Data in Bulk (batch)” para transferir datos desde un bucket de Cloud Storage (gs://cloud-training/gsp323/lab.csv
). La siguiente tabla tiene los valores que necesitas para configurar correctamente el trabajo de Dataflow.
Asegúrate de haber hecho lo siguiente:
Campo | Valor |
---|---|
Archivos de entrada de Cloud Storage | gs://cloud-training/gsp323/lab.csv |
Ubicación en Cloud Storage del archivo de esquema de BigQuery | gs://cloud-training/gsp323/lab.schema |
Tabla de salida de BigQuery |
|
Directorio temporal para el proceso de carga de BigQuery |
|
Ubicación temporal |
|
Parámetros opcionales > Ruta de acceso de UDF de JavaScript en Cloud Storage | gs://cloud-training/gsp323/lab.js |
Parámetros opcionales > Nombre de UDF de JavaScript | transform |
Parámetros opcionales > Tipo de máquina | e2-standard-2 |
Espera a que se complete el trabajo antes de revisar tu progreso.
Haz clic en Revisar mi progreso para verificar el objetivo.
En esta tarea, ejecutarás un trabajo de Spark de ejemplo con Dataproc.
Antes de ejecutar el trabajo, accede a uno de los nodos del clúster y copia el archivo /data.txt en HDFS (usa el comando hdfs dfs -cp gs://cloud-training/gsp323/data.txt /data.txt
).
Ejecuta un trabajo de Dataproc con los valores que se indican a continuación.
Campo | Valor |
---|---|
Región |
|
Tipo de trabajo | Spark |
Clase principal o jar | org.apache.spark.examples.SparkPageRank |
Archivos jar | file:///usr/lib/spark/examples/jars/spark-examples.jar |
Argumentos | /data.txt |
Cantidad máxima de reinicios por hora | 1 |
Clúster de Dataproc | Compute Engine |
Región |
|
Serie de máquinas | E2 |
Nodo administrador | Configura el tipo de máquina como e2-standard-2 |
Nodo trabajador | Configura el tipo de máquina como e2-standard-2 |
Máx. de nodos trabajadores | 2 |
Tamaño del disco principal | 100 GB |
Solo IP internas |
Anula la selección de “Configurar todas las instancias para tener solo direcciones IP internas ”. |
Espera a que se complete el trabajo antes de revisar tu progreso.
Haz clic en Revisar mi progreso para verificar el objetivo.
gs://cloud-training/gsp323/task3.flac
. Cuando hayas analizado el archivo, sube el archivo resultante aquí: Haz clic en Revisar mi progreso para verificar el objetivo.
Haz clic en Revisar mi progreso para verificar el objetivo.
¡Felicitaciones! En este lab, demostraste tus habilidades ejecutando un trabajo simple de Dataproc y usando la API de Google Cloud Speech-to-Text y la API de Cloud Natural Language.
Este lab de autoaprendizaje es parte del curso para obtener la insignia de habilidad Prepara datos para las APIs de AA en Google Cloud. Si completas el curso, obtendrás la insignia de habilidad que se muestra arriba como reconocimiento de tu logro. Comparte la insignia en tu currículum y tus plataformas sociales, y anuncia tu logro con el hashtag #GoogleCloudBadge.
Esta insignia de habilidad forma parte de las rutas de aprendizaje de Ingeniero de datos y Analista de datos de Google Cloud.
Recibe la formación que necesitas para aprovechar al máximo las tecnologías de Google Cloud. Nuestras clases incluyen habilidades técnicas y recomendaciones para ayudarte a avanzar rápidamente y a seguir aprendiendo. Para que puedas realizar nuestros cursos cuando más te convenga, ofrecemos distintos tipos de capacitación de nivel básico a avanzado: a pedido, presenciales y virtuales. Las certificaciones te ayudan a validar y demostrar tus habilidades y tu conocimiento técnico respecto a las tecnologías de Google Cloud.
Última actualización del manual: 25 de marzo de 2024
Prueba más reciente del lab: 15 de enero de 2024
Copyright 2025 Google LLC. All rights reserved. Google y el logotipo de Google son marcas de Google LLC. Los demás nombres de productos y empresas pueden ser marcas de las respectivas empresas a las que estén asociados.
Este contenido no está disponible en este momento
Te enviaremos una notificación por correo electrónico cuando esté disponible
¡Genial!
Nos comunicaremos contigo por correo electrónico si está disponible
One lab at a time
Confirm to end all existing labs and start this one