
Before you begin
- Labs create a Google Cloud project and resources for a fixed time
- Labs have a time limit and no pause feature. If you end the lab, you'll have to restart from the beginning.
- On the top left of your screen, click Start lab to begin
Create a Dataproc cluster
/ 50
Submit a job
/ 30
Update a cluster
/ 20
Dataproc es un servicio de nube rápido, fácil de usar y completamente administrado para ejecutar clústeres de Apache Spark y Apache Hadoop de forma más sencilla y rentable. Las operaciones que solían tardar horas o días ahora tardan segundos o minutos. Crea clústeres de Dataproc con rapidez y cambia el tamaño en cualquier momento. Así, la posibilidad de que las canalizaciones de datos superen la capacidad de los clústeres ya no será una preocupación.
En este lab, aprenderás a usar la consola de Google Cloud para crear un clúster de Dataproc, ejecutar un trabajo simple de Apache Spark en el clúster y modificar la cantidad de trabajadores en él.
En este lab, aprenderás a realizar las siguientes tareas:
Lee estas instrucciones. Los labs cuentan con un temporizador que no se puede pausar. El temporizador, que comienza a funcionar cuando haces clic en Comenzar lab, indica por cuánto tiempo tendrás a tu disposición los recursos de Google Cloud.
Este lab práctico te permitirá realizar las actividades correspondientes en un entorno de nube real, no en uno de simulación o demostración. Para ello, se te proporcionan credenciales temporales nuevas que utilizarás para acceder a Google Cloud durante todo el lab.
Para completar este lab, necesitarás lo siguiente:
Haz clic en el botón Comenzar lab. Si debes pagar por el lab, se abrirá un diálogo para que selecciones la forma de pago. A la izquierda, se encuentra el panel Detalles del lab, que tiene estos elementos:
Haz clic en Abrir la consola de Google Cloud (o haz clic con el botón derecho y selecciona Abrir el vínculo en una ventana de incógnito si ejecutas el navegador Chrome).
El lab inicia recursos y abre otra pestaña en la que se muestra la página de acceso.
Sugerencia: Ordena las pestañas en ventanas separadas, una junto a la otra.
De ser necesario, copia el nombre de usuario a continuación y pégalo en el diálogo Acceder.
También puedes encontrar el nombre de usuario en el panel Detalles del lab.
Haz clic en Siguiente.
Copia la contraseña que aparece a continuación y pégala en el diálogo Te damos la bienvenida.
También puedes encontrar la contraseña en el panel Detalles del lab.
Haz clic en Siguiente.
Haz clic para avanzar por las páginas siguientes:
Después de un momento, se abrirá la consola de Google Cloud en esta pestaña.
Para crear un clúster de Dataproc en Google Cloud, debes habilitar la API de Cloud Dataproc. Realiza lo siguiente para confirmar que la API esté habilitada:
Haz clic en el menú de navegación > APIs y servicios > Biblioteca:
Escribe Cloud Dataproc en el diálogo Buscar APIs y servicios. La API de Cloud Dataproc aparecerá en los resultados de la búsqueda de la consola.
Haz clic en API de Cloud Dataproc para mostrar el estado de la API. Si la API no está habilitada, haz clic en el botón Habilitar.
Una vez que se habilite la API, continúa con las instrucciones del lab.
Para asignarle el permiso de almacenamiento a la cuenta de servicio, que se requiere para crear un clúster, sigue estos pasos:
Ve al menú de navegación > IAM y administración > IAM.
Haz clic en el ícono de lápiz en la cuenta de servicio compute@developer.gserviceaccount.com
.
Haz clic en el botón + AGREGAR OTRO ROL. Selecciona el rol Administrador de almacenamiento.
Una vez que hayas seleccionado el rol Administrador de almacenamiento, haz clic en Guardar.
En la consola de Cloud Platform, selecciona el menú de navegación > Dataproc > Clústeres y, luego, haz clic en Crear clúster.
Haz clic en Crear en Clúster en Compute Engine.
Configura los siguientes campos para tu clúster y acepta los valores predeterminados de todos los otros campos:
Campo | Valor |
---|---|
Nombre | example-cluster |
Región | |
Zona | |
Serie de máquinas (nodo administrador) | E2 |
Tipo de máquina (nodo administrador) | e2-standard-2 |
Tamaño del disco principal (nodos administradores) | 30 GB |
Cantidad de nodos trabajadores | 2 |
Serie de máquinas (nodos trabajadores) | E2 |
Tipo de máquina (nodos de trabajo) | e2-standard-2 |
Tamaño del disco principal (nodos de trabajo) | 30 GB |
Solo IP internas | Anula la selección de “Configurar todas las instancias para tener solo direcciones IP internas” |
us-central1
o europe-west1
, para aislar recursos (como las instancias de VM y Cloud Storage) y las ubicaciones de almacenamiento de metadatos que Cloud Dataproc usa en la región especificada por el usuario.
El nuevo clúster aparecerá en la lista de clústeres. Crearlo puede llevar algunos minutos. El estado del clúster aparecerá como Aprovisionando hasta que esté listo para usarse y después cambiará a En ejecución.
Prueba la tarea completada
Haz clic en Revisar mi progreso para verificar la tarea realizada.
Haz lo siguiente para ejecutar un trabajo de Spark de muestra:
Haz clic en Trabajos en el panel izquierdo para cambiar a la vista de trabajos de Dataproc; luego haz clic en Enviar trabajo.
Configura los siguientes campos para actualizar el trabajo. Acepta los valores predeterminados de todos los otros campos:
Campo | Valor |
---|---|
Región | |
Clúster | example-cluster |
Tipo de trabajo | Spark |
Clase principal o jar | org.apache.spark.examples.SparkPi |
Archivos JAR | file:///usr/lib/spark/examples/jars/spark-examples.jar |
Argumentos | 1,000 (esto configura la cantidad de tareas) |
Tu trabajo debería aparecer en la lista de Trabajos, que muestra los trabajos de tu proyecto con el clúster, el tipo y el estado actual. El estado del trabajo aparece como En ejecución y cambia a Completado cuando se completa.
Prueba la tarea completada
Haz clic en Revisar mi progreso para verificar la tarea realizada.
Sigue estos pasos para ver el resultado del trabajo finalizado:
Haz clic en el ID de trabajo, en la lista de Trabajos.
Marca la casilla de ON
para LINE WRAP o desplázate hacia la derecha para ver el valor calculado de pi. El resultado, con LINE WRAP con la opción ON
, debería verse así:
El trabajo calculó un valor aproximado de pi en forma correcta.
Sigue estos pasos para cambiar la cantidad de instancias de trabajadores de tu clúster:
En el panel de navegación izquierdo, selecciona Clústeres para regresar a la vista de clústeres de Dataproc.
Haz clic en example-cluster en la lista de Clústeres. De forma predeterminada, la página muestra una descripción general del uso de CPU de tu clúster.
Haz clic en Configuración para mostrar la configuración actual de tu clúster.
Haz clic en Editar. Ahora, puedes editar la cantidad de nodos trabajadores.
Ingresa 4 en el campo Nodos trabajadores.
Haz clic en Guardar.
El clúster ya se actualizó. Confirma la cantidad de instancias de VM en el clúster.
Prueba la tarea completada
Haz clic en Revisar mi progreso para verificar la tarea realizada.
Para volver a ejecutar el trabajo con el clúster actualizado, deberías hacer clic en Trabajos en el panel izquierdo y, luego, en ENVIAR TRABAJO.
Configura los mismos campos que configuraste en la sección Enviar un trabajo:
Campo | Valor |
---|---|
Región | |
Clúster | example-cluster |
Tipo de trabajo | Spark |
Clase principal o jar | org.apache.spark.examples.SparkPi |
Archivos JAR | file:///usr/lib/spark/examples/jars/spark-examples.jar |
Argumentos | 1,000 (esto configura la cantidad de tareas) |
A continuación, se presentan algunas preguntas de opción múltiple para reforzar tus conocimientos de los conceptos de este lab. Trata de responderlas lo mejor posible.
Ahora ya sabes cómo usar la consola de Google Cloud para crear y actualizar un clúster de Dataproc y, luego, enviar un trabajo en ese clúster.
Este lab también forma parte de una serie de labs denominada Qwik Starts. Estos labs están diseñados para ofrecerte una visión general de las numerosas funciones disponibles en Google Cloud. Busca “Qwik Starts” en el catálogo de labs para elegir el próximo lab que quieras completar.
Recibe la formación que necesitas para aprovechar al máximo las tecnologías de Google Cloud. Nuestras clases incluyen habilidades técnicas y recomendaciones para ayudarte a avanzar rápidamente y a seguir aprendiendo. Para que puedas realizar nuestros cursos cuando más te convenga, ofrecemos distintos tipos de capacitación de nivel básico a avanzado: a pedido, presenciales y virtuales. Las certificaciones te ayudan a validar y demostrar tus habilidades y tu conocimiento técnico respecto a las tecnologías de Google Cloud.
Última actualización del manual: 2 de julio de 2022
Prueba más reciente del lab: 2 de julio de 2023
Copyright 2025 Google LLC. All rights reserved. Google y el logotipo de Google son marcas de Google LLC. Los demás nombres de productos y empresas pueden ser marcas de las respectivas empresas a las que estén asociados.
Este contenido no está disponible en este momento
Te enviaremos una notificación por correo electrónico cuando esté disponible
¡Genial!
Nos comunicaremos contigo por correo electrónico si está disponible
One lab at a time
Confirm to end all existing labs and start this one