Puntos de control
Create a lake, zone, and asset
/ 20
Query BigQuery table to review data quality
/ 20
Create and upload a data quality specification file
/ 20
Define and run a data quality job
/ 20
Review data quality results in BigQuery
/ 20
Evalúa la calidad de los datos con Dataplex
- GSP1158
- Descripción general
- Configuración y requisitos
- Tarea 1: Crear un lake, una zona y un recurso en Dataplex
- Tarea 2: Consultar una tabla de BigQuery para revisar la calidad de los datos
- Tarea 3: Crear y subir un archivo de especificación de calidad de los datos
- Tarea 4: Definir y ejecutar un trabajo de calidad de los datos en Dataplex
- Tarea 5. Revisar los resultados de la calidad de los datos en BigQuery
- ¡Felicitaciones!
GSP1158
Descripción general
Dataplex es un tejido de datos inteligente que permite a las organizaciones descubrir, administrar, supervisar y controlar de forma centralizada sus datos en todos los data lakes, almacenes de datos y data marts para potenciar la analítica a gran escala.
Una función valiosa de Dataplex es la capacidad para definir y ejecutar verificaciones de calidad de sus recursos, como tablas de BigQuery y archivos de Cloud Storage. Con las tareas de calidad de los datos de Dataplex, puedes integrar estas verificaciones en los flujos de trabajo diarios a través de la validación de los datos que forman parte de una canalización de producción de datos, la supervisión habitual de la calidad de los datos en relación con un conjunto de criterios y la elaboración de informes de calidad de los datos para cumplir con requisitos reglamentarios.
En este lab, aprenderás a evaluar la calidad de los datos con Dataplex creando un archivo personalizado de especificación de calidad de los datos y usándolo para definir una ejecución un trabajo relacionado en datos de BigQuery.
Actividades
- Crear un lake, una zona y un recurso de Dataplex
- Consultar una tabla de BigQuery para revisar la calidad de los datos
- Crear y subir un archivo de especificación de calidad de los datos
- Definir y ejecutar un trabajo de calidad de los datos
- Revisar los resultados de un trabajo de calidad de los datos
Configuración y requisitos
Antes de hacer clic en el botón Comenzar lab
Lee estas instrucciones. Los labs son cronometrados y no se pueden pausar. El cronómetro, que comienza a funcionar cuando haces clic en Comenzar lab, indica por cuánto tiempo tendrás a tu disposición los recursos de Google Cloud.
Este lab práctico te permitirá realizar las actividades correspondientes en un entorno de nube real, no en uno de simulación o demostración. Para ello, se te proporcionan credenciales temporales nuevas que utilizarás para acceder a Google Cloud durante todo el lab.
Para completar este lab, necesitarás lo siguiente:
- Acceso a un navegador de Internet estándar (se recomienda el navegador Chrome)
- Tiempo para completar el lab: Recuerda que, una vez que comienzas un lab, no puedes pausarlo.
Cómo iniciar tu lab y acceder a la consola de Google Cloud
-
Haga clic en el botón Comenzar lab. Si debe pagar por el lab, se abrirá una ventana emergente para que seleccione su forma de pago. A la izquierda, se encuentra el panel Detalles del lab, que tiene estos elementos:
- El botón Abrir la consola de Google Cloud
- El tiempo restante
- Las credenciales temporales que debe usar para el lab
- Otra información para completar el lab, si es necesaria
-
Haz clic en Abrir la consola de Google Cloud (o haz clic con el botón derecho y selecciona Abrir el vínculo en una ventana de incógnito si ejecutas el navegador Chrome).
El lab inicia recursos y abre otra pestaña en la que se muestra la página de acceso.
Sugerencia: Ordene las pestañas en ventanas separadas, una junto a la otra.
Nota: Si ves el diálogo Elegir una cuenta, haz clic en Usar otra cuenta. -
De ser necesario, copia el nombre de usuario a continuación y pégalo en el diálogo Acceder.
{{{user_0.username | "Username"}}} También puedes encontrar el nombre de usuario en el panel Detalles del lab.
-
Haz clic en Siguiente.
-
Copia la contraseña que aparece a continuación y pégala en el diálogo Te damos la bienvenida.
{{{user_0.password | "Password"}}} También puedes encontrar la contraseña en el panel Detalles del lab.
-
Haz clic en Siguiente.
Importante: Debes usar las credenciales que te proporciona el lab. No uses las credenciales de tu cuenta de Google Cloud. Nota: Usar tu propia Cuenta de Google podría generar cargos adicionales. -
Haga clic para avanzar por las páginas siguientes:
- Acepta los Términos y Condiciones.
- No agregues opciones de recuperación o autenticación de dos factores (esta es una cuenta temporal).
- No te registres para obtener pruebas gratuitas.
Después de un momento, se abrirá la consola de Google Cloud en esta pestaña.
Activa Cloud Shell
Cloud Shell es una máquina virtual que cuenta con herramientas para desarrolladores. Ofrece un directorio principal persistente de 5 GB y se ejecuta en Google Cloud. Cloud Shell proporciona acceso de línea de comandos a tus recursos de Google Cloud.
- Haz clic en Activar Cloud Shell en la parte superior de la consola de Google Cloud.
Cuando te conectes, habrás completado la autenticación, y el proyecto estará configurado con tu PROJECT_ID. El resultado contiene una línea que declara el PROJECT_ID para esta sesión:
gcloud
es la herramienta de línea de comandos de Google Cloud. Viene preinstalada en Cloud Shell y es compatible con la función de autocompletado con tabulador.
- Puedes solicitar el nombre de la cuenta activa con este comando (opcional):
-
Haz clic en Autorizar.
-
Ahora, el resultado debería verse de la siguiente manera:
Resultado:
- Puedes solicitar el ID del proyecto con este comando (opcional):
Resultado:
Resultado de ejemplo:
gcloud
, consulta la guía con la descripción general de gcloud CLI en Google Cloud.
Habilita la API de Dataproc
-
En la consola de Google Cloud, ingresa API de Cloud Dataproc en la barra de búsqueda superior.
-
Haz clic en el resultado de la API de Cloud Dataproc en Marketplace.
-
Haz clic en Habilitar.
Tarea 1: Crear un lake, una zona y un recurso en Dataplex
Para definir y ejecutar tareas de calidad de los datos, primero debes crear algunos recursos de Dataplex.
En esta tarea, crearás un nuevo lake de Dataplex para almacenar información de clientes de comercio electrónico, agregarás una zona sin procesar al lake y, luego, conectarás un conjunto de datos de BigQuery creado previamente como un recurso nuevo en la zona.
Crea un lake
- En la consola de Google Cloud, en el menú de navegación (), navega a Analytics > Dataplex.
Si aparece el mensaje Te damos la bienvenida a la nueva experiencia de Dataplex
, haz clic en Cerrar.
-
En Administrar lakes, haz clic en Administrar.
-
Haz clic en Crear lake.
-
Ingresa la siguiente información requerida para crear un nuevo lake:
Propiedad | Valor |
---|---|
Nombre visible | Ecommerce Lake |
ID | Conserva el valor predeterminado. |
Región |
Conserva los otros valores predeterminados.
- Haz clic en Crear.
El lake puede tardar hasta 3 minutos en crearse.
Agrega una zona al lake
-
En la pestaña Administrar, haz clic en el nombre de tu lake.
-
Haz clic en Agregar zona.
-
Ingresa la siguiente información requerida para crear una nueva zona:
Propiedad | Valor |
---|---|
Nombre visible | Customer Contact Raw Zone |
ID | Conserva el valor predeterminado. |
Tipo | Zona sin procesar |
Ubicaciones de los datos | Regional |
Conserva los otros valores predeterminados.
Por ejemplo, la opción para Habilitar la detección de metadatos en Discovery settings está habilitada de forma predeterminada y les permite a los usuarios autorizados detectar los datos de la zona.
- Haz clic en Crear.
La zona puede tardar hasta 2 minutos en crearse.
Conecta un recurso a una zona
-
En la pestaña Zonas, haz clic en el nombre de tu zona.
-
En la pestaña Recursos, haz clic en Agregar recursos.
-
Haz clic en Agregar elemento.
-
Ingresa la siguiente información requerida para conectar un recurso nuevo:
Propiedad | Valor |
---|---|
Tipo | Conjunto de datos de BigQuery |
Nombre visible | Contact Info |
ID | Conserva el valor predeterminado. |
Conjunto de datos |
|
Conserva los otros valores predeterminados.
-
Haz clic en Listo.
-
Haz clic en Continuar.
-
En la configuración de Detección, selecciona Heredar para heredar la configuración de Detección del nivel de la zona y, luego, haz clic en Continuar.
-
Haz clic en Enviar.
Haz clic en Revisar mi progreso para verificar el objetivo.
Tarea 2: Consultar una tabla de BigQuery para revisar la calidad de los datos
En la tarea previa, creaste un recurso nuevo de Dataplex a partir de un conjunto de datos de BigQuery llamado customers que se creó previamente para este lab. Este conjunto de datos contiene una tabla llamada contact_info que incluye información de contacto sin procesar de clientes de una empresa de comercio electrónico ficticia.
En esta tarea, consultarás esta tabla para comenzar a identificar algunos problemas potenciales de calidad de los datos que puedes incluir como verificaciones en un trabajo de ese tipo. También identificarás otro conjunto de datos creado previamente que puedes usar para almacenar resultados de los trabajos mencionados en una tarea posterior.
-
En la consola de Google Cloud, en el menú de navegación (), navega a BigQuery > Espacio de trabajo de SQL.
-
En el panel Explorador, expande la flecha que aparece junto al ID de tu proyecto para enumerar el contenido:
Además del conjunto de datos customer_contact_raw_zone que creó Dataplex para administrar esa zona, hay dos conjuntos de datos de BigQuery que se crearon previamente para este lab:
- clientes
- customers_dq_dataset
El conjunto de datos llamado customers contiene una tabla llamada contact_info, que incluye información de contacto de clientes, como ID de cliente, nombre, correo electrónico y mucho más. Esta es la tabla que explorarás y verificarás en busca de problemas de calidad de los datos durante este lab.
El conjunto de datos llamado customers_dq_dataset no contiene ninguna tabla. Cuando defines un trabajo de calidad de los datos en una tarea posterior, usas este conjunto de datos como el destino de una tabla nueva que contiene resultados de trabajos de este tipo.
- En el Editor de SQL, haz clic en Redactar una nueva consulta. Pega la siguiente consulta y, luego, haz clic en Ejecutar:
Esta consulta selecciona 50 registros de la tabla original y los ordena según el ID de cliente en los resultados.
- Desplázate por los resultados en el panel Resultados.
Ten en cuenta que a algunos registros les faltan los IDs de cliente o tienen correos electrónicos incorrectos, lo que puede dificultar la administración de pedidos de clientes.
Haz clic en Revisar mi progreso para verificar el objetivo.
Tarea 3: Crear y subir un archivo de especificación de calidad de los datos
Los requisitos de verificación de calidad de los datos de Dataplex se definen usando archivos de especificación YAML de CloudDQ. Una vez creado, el archivo de especificación YAML se sube a un bucket de Cloud Storage al que puede acceder un trabajo de calidad de los datos.
El archivo YAML tiene las siguientes cuatro secciones clave:
- una lista de reglas para ejecutar (ya sean reglas predefinidas o personalizadas)
- filtros de fila para seleccionar un subconjunto de datos para la validación
- vinculaciones de reglas para aplicar las reglas a las tablas
- dimensiones de reglas opcionales para especificar los tipos de reglas que puede contener el archivo YAML
En esta tarea, definirás un nuevo archivo de especificación YAML para verificaciones de calidad de los datos en las que se identifiquen IDs y correos electrónicos nulos de clientes en la tabla de BigQuery especificada. Después de que definas el archivo, lo subirás a un bucket de Cloud Storage creado previamente para usarlo en una tarea posterior para ejecutar el trabajo de calidad de los datos.
Crea el archivo de especificación de calidad de los datos
- En Cloud Shell, ejecuta el siguiente comando para crear un archivo vacío nuevo para la especificación de calidad de los datos:
- Pega el siguiente código:
- Revisa el código para identificar las dos reglas principales de calidad de los datos que se definen en este archivo.
El archivo dq-customer-raw-data.yaml
comienza con los parámetros clave para identificar los recursos de Dataplex, incluidos el ID del proyecto, la región y los nombres del lake y la zona de Dataplex.
A continuación, este especifica las dimensiones de regla permitidas y dos reglas principales:
- La regla para los valores NOT_NULL se refiere a la dimensión de integridad como los valores nulos.
- La regla para los valores VALID_EMAIL se refiere a la dimensión de cumplimiento como los valores válidos.
Por último, las reglas se vinculan a entidades (tablas) y columnas usando las vinculaciones de regla para la validación de la calidad de los datos:
- La primera vinculación de regla llamada VALID_CUSTOMER vincula la regla NOT_NULL con la columna id de la tabla contact_info, que se validará si la columna ID tiene valores NULL.
- La segunda vinculación de regla llamada VALID_EMAIL_ID vincula la regla VALID_EMAIL con la columna email de la tabla contact_info, que verificará si hay correos electrónicos válidos.
- Ingresa
Ctrl+X
y, luego,Y
para guardar y cerrar el archivo.
Sube el archivo a Cloud Storage
- En Cloud Shell, ejecuta el siguiente comando para subir el archivo a un bucket de Cloud Storage que se creó para este lab:
Haz clic en Revisar mi progreso para verificar el objetivo.
Tarea 4: Definir y ejecutar un trabajo de calidad de los datos en Dataplex
El proceso de calidad de los datos usa un archivo de especificación YAML para ejecutar un trabajo de este tipo y genera métricas relacionadas que se escriben en un conjunto de datos de BigQuery.
En esta tarea, definirás y ejecutarás un trabajo de calidad de los datos usando el archivo de especificación YAML correspondiente que se subió a Cloud Storage en la tarea previa. Cuando defines el trabajo, también especificas un conjunto de datos de BigQuery creado previamente llamado customer_dq_dataset para almacenar los resultados de calidad de los datos.
-
En la consola de Google Cloud, en el menú de navegación (), navega a Analytics > Dataplex.
-
En Administrar lakes, haz clic en Procesar.
-
Haz clic en Crear tarea.
-
En Verificar la calidad de los datos, haz clic en Crear tarea.
-
Ingresa la siguiente información requerida para crear un trabajo nuevo de calidad de los datos:
Propiedad | Valor |
---|---|
Lake de Dataplex | Lake de comercio electrónico |
Nombre visible | Customer Data Quality Job |
ID | Conserva el valor predeterminado. |
Selecciona el archivo de GCS |
|
Selecciona un conjunto de datos de BigQuery |
|
Tabla de BigQuery | dq_results |
Cuenta de servicio de usuario | Cuenta de servicio predeterminada de Compute Engine |
Conserva los otros valores predeterminados.
Ten en cuenta que la cuenta de servicio predeterminada de Compute Engine se configuró previamente para que este lab incluyera los roles y permisos de IAM adecuados. Para obtener más información, revisa la documentación de Dataplex titulada Crea una cuenta de servicio.
-
Haz clic en Continuar.
-
En Iniciar, selecciona Inmediatamente.
-
Haz clic en Crear.
Haz clic en Revisar mi progreso para verificar el objetivo.
Tarea 5. Revisar los resultados de la calidad de los datos en BigQuery
En esta tarea, revisarás las tablas en el conjunto de datos customers_dq_dataset para identificar registros a los que les faltan valores de ID de cliente o tienen valores no válidos de correos electrónicos.
-
En la consola de Google Cloud, en el menú de navegación (), navega a BigQuery > Espacio de trabajo de SQL.
-
En el panel Explorador, expande la flecha que aparece junto al ID de tu proyecto para enumerar el contenido:
-
Expande la flecha que está al lado del conjunto de datos customer_dq_dataset.
-
Haz clic en la tabla dq_summary.
-
Haz clic en la pestaña Vista previa para consultar los resultados.
En la tabla dq summary, se proporciona información útil sobre la calidad general de los datos, lo que incluye la cantidad de registros que se identificaron como que no cumplen con las dos reglas del archivo de especificación de calidad de los datos.
-
Desplázate hasta la última columna llamada failed_records_query.
-
Haz clic en la flecha hacia abajo en la primera fila para expandir el texto y ver la consulta completa de los resultados de la regla VALID_EMAIL.
Ten en cuenta que la consulta es bastante larga y termina con ORDER BY _dq_validation_rule_id
.
- Haz clic en Redactar consulta nueva. Copia y pega la consulta en el Editor de SQL y haz clic en Ejecutar.
Los resultados de la consulta proporcionan valores de correo electrónico en la tabla contact_info que no son válidos.
- Repite los pasos 7 y 8 para la segunda celda que incluye la consulta para los resultados de la regla VALID_CUSTOMER.
Estos resultados identifican que hay 10 registros en la tabla contact_info a los que les faltan los valores de ID.
Haz clic en Revisar mi progreso para verificar el objetivo.
¡Felicitaciones!
Evaluaste la calidad de los datos con Dataplex creando un archivo de especificación de calidad de los datos personalizado y usándolo para ejecutar un trabajo relacionado en una tabla de BigQuery.
Capacitación y certificación de Google Cloud
Recibe la formación que necesitas para aprovechar al máximo las tecnologías de Google Cloud. Nuestras clases incluyen habilidades técnicas y recomendaciones para ayudarte a avanzar rápidamente y a seguir aprendiendo. Para que puedas realizar nuestros cursos cuando más te convenga, ofrecemos distintos tipos de capacitación de nivel básico a avanzado: a pedido, presenciales y virtuales. Las certificaciones te ayudan a validar y demostrar tus habilidades y tu conocimiento técnico respecto a las tecnologías de Google Cloud.
Última actualización del manual: 4 de julio de 2023
Prueba más reciente del lab: 4 de julio de 2023
Copyright 2025 Google LLC. All rights reserved. Google y el logotipo de Google son marcas de Google LLC. Los demás nombres de productos y empresas pueden ser marcas de las respectivas empresas a las que estén asociados.