arrow_back

Cómo compilar y ejecutar MySQL, PostgreSQL y SQL Server en los conectores de Data Catalog

Acceder Unirse
Pon a prueba tus conocimientos y compártelos con nuestra comunidad
done
Obtén acceso a más de 700 labs prácticos, insignias de habilidad y cursos

Cómo compilar y ejecutar MySQL, PostgreSQL y SQL Server en los conectores de Data Catalog

Lab 1 hora universal_currency_alt 1 crédito show_chart Introductorio
info Es posible que este lab incorpore herramientas de IA para facilitar tu aprendizaje.
Pon a prueba tus conocimientos y compártelos con nuestra comunidad
done
Obtén acceso a más de 700 labs prácticos, insignias de habilidad y cursos

GSP814

Labs de autoaprendizaje de Google Cloud

Descripción general

Dataplex es un tejido de datos inteligente que permite a las organizaciones descubrir, administrar, supervisar y controlar de forma centralizada sus datos en todos los data lakes, almacenes de datos y data marts para potenciar la analítica a gran escala.

Data Catalog es un servicio de administración de metadatos escalable y completamente administrado dentro de Dataplex. Ofrece una interfaz de búsqueda simple y fácil de usar para descubrir datos, y un sistema de catalogación flexible y potente que permite capturar metadatos técnicos y empresariales. Además, brinda una base sólida de seguridad y cumplimiento gracias a las integraciones en Cloud Data Loss Prevention (DLP) y Cloud Identity and Access Management (IAM).

Usa Data Catalog

Con Data Catalog en Dataplex, puedes buscar los recursos a los que tienes acceso y etiquetar los recursos de datos para admitir el descubrimiento y el control de acceso. Las etiquetas permiten conectar campos de metadatos personalizados a recursos de datos específicos para facilitar la identificación y la recuperación (por ejemplo, etiquetar determinados recursos para indicar que tienen datos protegidos o sensibles). También puedes crear plantillas de etiquetas reutilizables para asignar de manera rápida las mismas etiquetas a diferentes recursos de datos.

Objetivos

En este lab, aprenderás a hacer lo siguiente:

  • Habilitar la API de Data Catalog
  • Configurar los conectores de Dataplex para SQL Server, PostgreSQL y MySQL
  • Buscar entradas de SQL Server, PostgreSQL y MySQL en Data Catalog dentro de Dataplex

Requisitos previos

Nota: Antes de comenzar este lab, sal de tu cuenta de Gmail personal o corporativa, o bien ejecútalo en modo Incógnito. De este modo, se evitará la confusión de accesos mientras se ejecuta este lab.

Configuración y requisitos

Antes de hacer clic en el botón Comenzar lab

Lee estas instrucciones. Los labs son cronometrados y no se pueden pausar. El cronómetro, que comienza a funcionar cuando haces clic en Comenzar lab, indica por cuánto tiempo tendrás a tu disposición los recursos de Google Cloud.

Este lab práctico te permitirá realizar las actividades correspondientes en un entorno de nube real, no en uno de simulación o demostración. Para ello, se te proporcionan credenciales temporales nuevas que utilizarás para acceder a Google Cloud durante todo el lab.

Para completar este lab, necesitarás lo siguiente:

  • Acceso a un navegador de Internet estándar (se recomienda el navegador Chrome)
Nota: Usa una ventana de navegador privada o de Incógnito para ejecutar este lab. Así evitarás cualquier conflicto entre tu cuenta personal y la cuenta de estudiante, lo que podría generar cargos adicionales en tu cuenta personal.
  • Tiempo para completar el lab: Recuerda que, una vez que comienzas un lab, no puedes pausarlo.
Nota: Si ya tienes un proyecto o una cuenta personal de Google Cloud, no los uses en este lab para evitar cargos adicionales en tu cuenta.

Cómo iniciar tu lab y acceder a la consola de Google Cloud

  1. Haga clic en el botón Comenzar lab. Si debe pagar por el lab, se abrirá una ventana emergente para que seleccione su forma de pago. A la izquierda, se encuentra el panel Detalles del lab, que tiene estos elementos:

    • El botón Abrir la consola de Google Cloud
    • El tiempo restante
    • Las credenciales temporales que debe usar para el lab
    • Otra información para completar el lab, si es necesaria
  2. Haz clic en Abrir la consola de Google Cloud (o haz clic con el botón derecho y selecciona Abrir el vínculo en una ventana de incógnito si ejecutas el navegador Chrome).

    El lab inicia recursos y abre otra pestaña en la que se muestra la página de acceso.

    Sugerencia: Ordene las pestañas en ventanas separadas, una junto a la otra.

    Nota: Si ves el diálogo Elegir una cuenta, haz clic en Usar otra cuenta.
  3. De ser necesario, copia el nombre de usuario a continuación y pégalo en el diálogo Acceder.

    {{{user_0.username | "Username"}}}

    También puedes encontrar el nombre de usuario en el panel Detalles del lab.

  4. Haz clic en Siguiente.

  5. Copia la contraseña que aparece a continuación y pégala en el diálogo Te damos la bienvenida.

    {{{user_0.password | "Password"}}}

    También puedes encontrar la contraseña en el panel Detalles del lab.

  6. Haz clic en Siguiente.

    Importante: Debes usar las credenciales que te proporciona el lab. No uses las credenciales de tu cuenta de Google Cloud. Nota: Usar tu propia Cuenta de Google podría generar cargos adicionales.
  7. Haga clic para avanzar por las páginas siguientes:

    • Acepta los Términos y Condiciones.
    • No agregues opciones de recuperación o autenticación de dos factores (esta es una cuenta temporal).
    • No te registres para obtener pruebas gratuitas.

Después de un momento, se abrirá la consola de Google Cloud en esta pestaña.

Nota: Para ver un menú con una lista de productos y servicios de Google Cloud, haz clic en el menú de navegación que se encuentra en la parte superior izquierda. Ícono del menú de navegación

Activa Cloud Shell

Cloud Shell es una máquina virtual que cuenta con herramientas para desarrolladores. Ofrece un directorio principal persistente de 5 GB y se ejecuta en Google Cloud. Cloud Shell proporciona acceso de línea de comandos a tus recursos de Google Cloud.

  1. Haz clic en Activar Cloud Shell Ícono de Activar Cloud Shell en la parte superior de la consola de Google Cloud.

Cuando te conectes, habrás completado la autenticación, y el proyecto estará configurado con tu PROJECT_ID. El resultado contiene una línea que declara el PROJECT_ID para esta sesión:

Your Cloud Platform project in this session is set to YOUR_PROJECT_ID

gcloud es la herramienta de línea de comandos de Google Cloud. Viene preinstalada en Cloud Shell y es compatible con la función de autocompletado con tabulador.

  1. Puedes solicitar el nombre de la cuenta activa con este comando (opcional):
gcloud auth list
  1. Haz clic en Autorizar.

  2. Ahora, el resultado debería verse de la siguiente manera:

Resultado:

ACTIVE: * ACCOUNT: student-01-xxxxxxxxxxxx@qwiklabs.net To set the active account, run: $ gcloud config set account `ACCOUNT`
  1. Puedes solicitar el ID del proyecto con este comando (opcional):
gcloud config list project

Resultado:

[core] project = <project_ID>

Resultado de ejemplo:

[core] project = qwiklabs-gcp-44776a13dea667a6 Nota: Para obtener toda la documentación de gcloud, consulta la guía con la descripción general de gcloud CLI en Google Cloud.

Tarea 1: Habilita la API de Data Catalog

  1. Abre el menú de navegación y selecciona APIs y servicios > Biblioteca.

  2. En la barra de búsqueda, ingresa “Data Catalog” y selecciona la API de Data Catalog de Google Cloud.

  3. Haz clic en Habilitar.

Nota: Si te encuentras con el error "No se pudo realizar la acción" después de intentar habilitar la API de Data Catalog, prueba con los siguientes pasos: haz clic en Cerrar, actualiza la pestaña del navegador y, luego, haz clic en Habilitar de nuevo.

Haz clic en Revisar mi progreso para verificar el objetivo. Habilitar la API de Data Catalog

Tarea 2: SQL Server en Dataplex

Para comenzar, configura el entorno.

  1. Para abrir una sesión nueva de Cloud Shell, haz clic en el ícono Activar Cloud Shell en la parte superior derecha de la consola:

  2. Ejecuta el siguiente comando para configurar tu ID del proyecto como una variable de entorno:

export PROJECT_ID=$(gcloud config get-value project)

Crea la base de datos de SQL Server

  1. En tu sesión de Cloud Shell, ejecuta el siguiente comando para descargar las secuencias de comandos y, luego, crear y propagar la instancia de SQL Server:
gsutil cp gs://spls/gsp814/cloudsql-sqlserver-tooling.zip . unzip cloudsql-sqlserver-tooling.zip
  1. Ahora, cambia el directorio de trabajo actual al que descargaste:
cd cloudsql-sqlserver-tooling/infrastructure/terraform
  1. Ejecuta el siguiente comando para cambiar la región us-central1 por la región que tienes asignada de manera predeterminada:
export REGION={{{project_0.default_region|REGION}}} sed -i "s/us-central1/$REGION/g" variables.tf
  1. Ahora, ejecuta la secuencia de comandos init-db.sh.
cd ~/cloudsql-sqlserver-tooling bash init-db.sh

Se creará tu instancia de SQL Server y se propagará con un esquema aleatorio.

Nota: Si recibes el mensaje Error: Failed to load "tfplan" as a plan file, vuelve a ejecutar la secuencia de comandos init-db.

Este proceso tardará entre 5 y 10 minutos en completarse. Podrás continuar cuando recibas el siguiente resultado:

CREATE TABLE factory_warehouse15797.employees53b82dc5 ( school80581 REAL, reason91250 DATETIME, randomdata32431 BINARY, phone_number52754 REAL, person66471 REAL, credit_card75527 DATETIME ) COMPLETED

Haz clic en Revisar mi progreso para verificar el objetivo. Crear la base de datos de SQL Server

Configura la cuenta de servicio

  1. Ejecuta el siguiente comando para crear una cuenta de servicio:
gcloud iam service-accounts create sqlserver2dc-credentials \ --display-name "Service Account for SQL Server to Data Catalog connector" \ --project $PROJECT_ID
  1. A continuación, crea y descarga la clave de la cuenta de servicio.
gcloud iam service-accounts keys create "sqlserver2dc-credentials.json" \ --iam-account "sqlserver2dc-credentials@$PROJECT_ID.iam.gserviceaccount.com"
  1. Agrega el rol Administrador de Data Catalog a la cuenta de servicio:
gcloud projects add-iam-policy-binding $PROJECT_ID \ --member "serviceAccount:sqlserver2dc-credentials@$PROJECT_ID.iam.gserviceaccount.com" \ --quiet \ --project $PROJECT_ID \ --role "roles/datacatalog.admin"

Haz clic en Revisar mi progreso para verificar el objetivo. Configurar la cuenta de servicio para SQL Server

Ejecuta SQL Server en el conector de Dataplex

Puedes compilar el conector de SQL Server por tu cuenta; para ello, ve a este repositorio de GitHub.

Para facilitar su uso, usaremos una imagen de Docker.

La configuración de Terraform generó las variables necesarias.

  1. Cambia de directorio a la ubicación de las secuencias de comandos de Terraform:
cd infrastructure/terraform/
  1. Obtén las variables de entorno:
public_ip_address=$(terraform output -raw public_ip_address) username=$(terraform output -raw username) password=$(terraform output -raw password) database=$(terraform output -raw db_name)
  1. Vuelve a cambiar al directorio raíz para el código de ejemplo:
cd ~/cloudsql-sqlserver-tooling
  1. Usa el siguiente comando para ejecutar el conector:
docker run --rm --tty -v \ "$PWD":/data mesmacosta/sqlserver2datacatalog:stable \ --datacatalog-project-id=$PROJECT_ID \ --datacatalog-location-id=$REGION \ --sqlserver-host=$public_ip_address \ --sqlserver-user=$username \ --sqlserver-pass=$password \ --sqlserver-database=$database

Algunos segundos después, deberías obtener el siguiente resultado:

============End sqlserver-to-datacatalog============

Haz clic en Revisar mi progreso para verificar el objetivo. Ejecutar SQL Server en el conector de Data Catalog

Busca las entradas de SQL Server en Dataplex

  1. Después de que finalice la secuencia de comandos, abre el menú de navegación y selecciona Dataplex en la lista de servicios.

  2. En la página Dataplex, haz clic en Plantilla de etiquetas.

Deberías ver la lista de Plantillas de etiquetas de sqlserver.

  1. Luego, selecciona Grupos de entrada.

Deberías ver el grupo de entrada sqlserver en la lista Grupos de entrada:

  1. Ahora, haz clic en el grupo de entrada sqlserver. La consola debería verse de la siguiente manera:

Detalles del grupo de entrada

Este es el valor real de un grupo de entrada. Puedes ver todas las entradas que pertenecen a sqlserver usando la IU.

  1. Haz clic en una de las entradas que contenga la palabra warehouse. Consulta los detalles y las etiquetas de entrada personalizados.

Este es el valor real que agrega el conector. Te permite buscar metadatos en Dataplex.

Realiza una limpieza

  1. Para borrar los recursos que creaste, ejecuta el siguiente comando para eliminar los metadatos de SQL Server:
./cleanup-db.sh
  1. Ahora, ejecuta el contenedor para realizar la limpieza:
docker run --rm --tty -v \ "$PWD":/data mesmacosta/sqlserver-datacatalog-cleaner:stable \ --datacatalog-project-ids=$PROJECT_ID \ --rdbms-type=sqlserver \ --table-container-type=schema
  1. Ahora, ejecuta el siguiente comando para borrar la base de datos de SQL Server:
./delete-db.sh
  1. En el menú de navegación, haz clic en Dataplex.

  2. Busca sqlserver.

Ya no verás las plantillas de etiqueta de SQL Server en los resultados:

Antes de continuar, asegúrate de obtener el siguiente resultado en Cloud Shell:

Cloud SQL Instance deleted COMPLETED

Ahora aprenderás a hacer lo mismo con una instancia de PostgreSQL.

Tarea 3: PostgreSQL en Dataplex

Crea la base de datos de PostgreSQL

  1. En Cloud Shell, ejecuta el siguiente comando para regresar al directorio principal:
cd
  1. Ejecuta el siguiente comando para clonar el repositorio de GitHub:
gsutil cp gs://spls/gsp814/cloudsql-postgresql-tooling.zip . unzip cloudsql-postgresql-tooling.zip
  1. Ahora, cambia el directorio de trabajo actual al directorio del repositorio clonado:
cd cloudsql-postgresql-tooling/infrastructure/terraform
  1. Ejecuta el siguiente comando para cambiar la región us-central1 por la región que tienes asignada de manera predeterminada:
export REGION={{{project_0.default_region|REGION}}} sed -i "s/us-central1/$REGION/g" variables.tf
  1. Ejecuta la secuencia de comandos init-db.sh:
cd ~/cloudsql-postgresql-tooling bash init-db.sh

Se creará tu instancia de PostgreSQL y se propagará con un esquema aleatorio, lo que puede tardar entre 10 y 15 minutos en completarse.

Nota: Si recibes el mensaje Error: Failed to load "tfplan" as a plan file, vuelve a ejecutar la secuencia de comandos init-db.

Algunos segundos después, deberías obtener el siguiente resultado:

CREATE TABLE factory_warehouse69945.home17e97c57 ( house57588 DATE, paragraph64180 SMALLINT, ip_address61569 JSONB, date_time44962 REAL, food19478 JSONB, state8925 VARCHAR(25), cpf75444 REAL, date_time96090 SMALLINT, reason7955 CHAR(5), phone_number96292 INT, size97593 DATE, date_time609 CHAR(5), location70431 DATE ) COMPLETED

Haz clic en Revisar mi progreso para verificar el objetivo. Crear la base de datos de PostgreSQL

Configura la cuenta de servicio

  1. Crea una cuenta de servicio:
gcloud iam service-accounts create postgresql2dc-credentials \ --display-name "Service Account for PostgreSQL to Data Catalog connector" \ --project $PROJECT_ID
  1. A continuación, crea y descarga la clave de la cuenta de servicio:
gcloud iam service-accounts keys create "postgresql2dc-credentials.json" \ --iam-account "postgresql2dc-credentials@$PROJECT_ID.iam.gserviceaccount.com"
  1. Agrega el rol Administrador de Data Catalog a la cuenta de servicio:
gcloud projects add-iam-policy-binding $PROJECT_ID \ --member "serviceAccount:postgresql2dc-credentials@$PROJECT_ID.iam.gserviceaccount.com" \ --quiet \ --project $PROJECT_ID \ --role "roles/datacatalog.admin"

Haz clic en Revisar mi progreso para verificar el objetivo. Crear una cuenta de servicio para PostgreSQL

Ejecuta PostgreSQL en un conector de Dataplex

Puedes compilar el conector de PostgreSQL por tu cuenta desde este repositorio de GitHub.

Para facilitar su uso, usaremos una imagen de Docker.

La configuración de Terraform generó las variables necesarias.

  1. Cambia de directorio a la ubicación de las secuencias de comandos de Terraform:
cd infrastructure/terraform/
  1. Obtén las variables de entorno:
public_ip_address=$(terraform output -raw public_ip_address) username=$(terraform output -raw username) password=$(terraform output -raw password) database=$(terraform output -raw db_name)
  1. Vuelve a cambiar al directorio raíz para el código de ejemplo:
cd ~/cloudsql-postgresql-tooling
  1. Ejecuta el conector:
docker run --rm --tty -v \ "$PWD":/data mesmacosta/postgresql2datacatalog:stable \ --datacatalog-project-id=$PROJECT_ID \ --datacatalog-location-id=$REGION \ --postgresql-host=$public_ip_address \ --postgresql-user=$username \ --postgresql-pass=$password \ --postgresql-database=$database

Algunos segundos después, deberías obtener el siguiente resultado:

============End postgresql-to-datacatalog============

Haz clic en Revisar mi progreso para verificar el objetivo. Ejecutar PostgreSQL en el conector de Data Catalog

Verifica los resultados de la secuencia de comandos

  1. Asegúrate de estar en la página principal de Dataplex.

  2. Haz clic en Plantillas de etiquetas.

Deberías ver las siguientes plantillas de etiquetas de postgresql:

Postgresql Table - Metadata and Postgresql Schema - Metadata

  1. Haz clic en Grupos de entrada.

Deberías ver el siguiente grupo de entrada de postgresql:

postgresql

  1. Ahora, haz clic en el grupo de entrada postgresql. La consola debería verse de la siguiente manera:

postgresql Entry Group entries

Este es el valor real de un grupo de entrada. Puedes ver todas las entradas que pertenecen a postgresql mediante la IU.

  1. Haz clic en una de las entradas que contenga la palabra warehouse. Consulta los detalles y etiquetas de entrada personalizados:

Página con pestañas de detalles de entrada personalizados

Este es el valor real que agrega el conector. Te permite buscar metadatos en Dataplex.

Realiza una limpieza

  1. Para borrar los recursos que creaste, ejecuta el siguiente comando y borra los metadatos de PostgreSQL:
./cleanup-db.sh
  1. Ahora, ejecuta el contenedor para realizar la limpieza:
docker run --rm --tty -v \ "$PWD":/data mesmacosta/postgresql-datacatalog-cleaner:stable \ --datacatalog-project-ids=$PROJECT_ID \ --rdbms-type=postgresql \ --table-container-type=schema
  1. Por último, borra la base de datos de PostgreSQL:
./delete-db.sh
  1. Ahora, en el menú de navegación, haz clic en Dataplex.

  2. Busca PostgreSQL. Ya no verás las plantillas de etiqueta de PostgreSQL en los resultados:

Search results: 0 rows to display

Antes de continuar, asegúrate de obtener el siguiente resultado en Cloud Shell:

Cloud SQL Instance deleted COMPLETED

Ahora, aprenderás a hacer lo mismo con una instancia de MySQL.

Tarea 4: MySQL en Dataplex

Crea la base de datos de MySQL

  1. En Cloud Shell, ejecuta el siguiente comando para regresar al directorio principal:
cd
  1. Ejecuta el siguiente comando para descargar las secuencias de comandos y, luego, crear y propagar la instancia de MySQL:
gsutil cp gs://spls/gsp814/cloudsql-mysql-tooling.zip . unzip cloudsql-mysql-tooling.zip
  1. Ahora, cambia el directorio de trabajo actual al directorio del repositorio clonado:
cd cloudsql-mysql-tooling/infrastructure/terraform
  1. Ejecuta el siguiente comando para cambiar la región us-central1 por la región que tienes asignada de manera predeterminada:
export REGION={{{project_0.default_region|REGION}}} sed -i "s/us-central1/$REGION/g" variables.tf
  1. Ejecuta la secuencia de comandos init-db.sh:
cd ~/cloudsql-mysql-tooling bash init-db.sh

Se creará tu instancia de MySQL y se propagará con un esquema aleatorio. Luego de unos minutos, deberías recibir el siguiente resultado:

CREATE TABLE factory_warehouse14342.persons88a5ebc4 ( address9634 TEXT, cpf12934 FLOAT, food88799 BOOL, food4761 LONGTEXT, credit_card44049 FLOAT, city8417 TINYINT, name76076 DATETIME, address19458 TIME, reason49953 DATETIME ) COMPLETED Nota: Si recibes el mensaje Error: Failed to load "tfplan" as a plan file, vuelve a ejecutar la secuencia de comandos init-db.

Haz clic en Revisar mi progreso para verificar el objetivo. Crear la base de datos de MySQL

Configura la cuenta de servicio

  1. Ejecuta lo siguiente para crear una cuenta de servicio:
gcloud iam service-accounts create mysql2dc-credentials \ --display-name "Service Account for MySQL to Data Catalog connector" \ --project $PROJECT_ID
  1. A continuación, crea y descarga la clave de la cuenta de servicio:
gcloud iam service-accounts keys create "mysql2dc-credentials.json" \ --iam-account "mysql2dc-credentials@$PROJECT_ID.iam.gserviceaccount.com"
  1. Agrega el rol Administrador de Data Catalog a la cuenta de servicio:
gcloud projects add-iam-policy-binding $PROJECT_ID \ --member "serviceAccount:mysql2dc-credentials@$PROJECT_ID.iam.gserviceaccount.com" \ --quiet \ --project $PROJECT_ID \ --role "roles/datacatalog.admin"

Haz clic en Revisar mi progreso para verificar el objetivo. Crear una cuenta de servicio para MySQL

Ejecuta MySQL en un conector de Dataplex

Puedes compilar el conector de MySQL tú mismo si te diriges a este repositorio de GitHub.

Para facilitar su uso, en este lab se utiliza una imagen de Docker.

La configuración de Terraform generó las variables necesarias.

  1. Cambia de directorio a la ubicación de las secuencias de comandos de Terraform:
cd infrastructure/terraform/
  1. Obtén las variables de entorno:
public_ip_address=$(terraform output -raw public_ip_address) username=$(terraform output -raw username) password=$(terraform output -raw password) database=$(terraform output -raw db_name)
  1. Vuelve a cambiar al directorio raíz para el código de ejemplo:
cd ~/cloudsql-mysql-tooling
  1. Ejecuta el conector:
docker run --rm --tty -v \ "$PWD":/data mesmacosta/mysql2datacatalog:stable \ --datacatalog-project-id=$PROJECT_ID \ --datacatalog-location-id=$REGION \ --mysql-host=$public_ip_address \ --mysql-user=$username \ --mysql-pass=$password \ --mysql-database=$database

Algunos segundos después, deberías obtener el siguiente resultado:

============End mysql-to-datacatalog============

Haz clic en Revisar mi progreso para verificar el objetivo. Ejecutar MySQL en el conector de Data Catalog

Verifica los resultados de la secuencia de comandos

  1. Asegúrate de estar en la página principal de Dataplex.

  2. Haz clic en Plantillas de etiquetas.

Deberías ver las siguientes plantillas de etiquetas de mysql:

Mysql Table - Metadata and Mysql Database - Metadata

  1. Haz clic en Grupos de entrada.

Deberías ver el siguiente grupo de entrada de mysql:

mysql

  1. Ahora, haz clic en el grupo de entrada mysql. La consola debería verse de la siguiente manera:

mysql Entry Group entries

Este es el valor real de un grupo de entrada. Puedes ver todas las entradas que pertenecen a MySQL mediante la IU.

  1. Haz clic en una de las entradas que contenga la palabra warehouse. Consulta los detalles y las etiquetas de entrada personalizados.

Este es el valor real que agrega el conector. Te permite buscar metadatos en Dataplex.

Realiza una limpieza

  1. Para borrar los recursos que creaste, ejecuta el siguiente comando y borra los metadatos de MySQL:
./cleanup-db.sh
  1. Ahora, ejecuta el contenedor para realizar la limpieza:
docker run --rm --tty -v \ "$PWD":/data mesmacosta/mysql-datacatalog-cleaner:stable \ --datacatalog-project-ids=$PROJECT_ID \ --rdbms-type=mysql \ --table-container-type=database
  1. Por último, borra la base de datos de PostgreSQL:
./delete-db.sh
  1. En el menú de navegación, haz clic en Dataplex.

  2. Busca MySQL. Ya no verás las plantillas de etiquetas de MySQL en los resultados.

Antes de continuar, asegúrate de obtener el siguiente resultado en Cloud Shell:

Cloud SQL Instance deleted COMPLETED

¡Felicitaciones!

¡Felicitaciones! En este lab, aprendiste a compilar y ejecutar MySQL, PostgreSQL y SQL Server en los conectores de Dataplex. También aprendiste a buscar entradas de SQL Server, PostgreSQL y MySQL en Data Catalog dentro de Dataplex. Ahora puedes usar estos conocimientos para compilar tus propios conectores.

Finaliza el curso

Este lab de autoaprendizaje forma parte de los cursos BigQuery for Data Warehousing, BigQuery for Marketing Analysts y Data Catalog Fundamentals. Consulta el catálogo de Google Cloud Skills Boost para ver todos los cursos disponibles.

Próximos pasos y más información

Capacitación y certificación de Google Cloud

Recibe la formación que necesitas para aprovechar al máximo las tecnologías de Google Cloud. Nuestras clases incluyen habilidades técnicas y recomendaciones para ayudarte a avanzar rápidamente y a seguir aprendiendo. Para que puedas realizar nuestros cursos cuando más te convenga, ofrecemos distintos tipos de capacitación de nivel básico a avanzado: a pedido, presenciales y virtuales. Las certificaciones te ayudan a validar y demostrar tus habilidades y tu conocimiento técnico respecto a las tecnologías de Google Cloud.

Última actualización del manual: 17 de octubre de 2023

Prueba más reciente del lab: 17 de octubre de 2023

Copyright 2024 Google LLC. All rights reserved. Google y el logotipo de Google son marcas de Google LLC. Los demás nombres de productos y empresas pueden ser marcas de las respectivas empresas a las que estén asociados.

Este contenido no está disponible en este momento

Te enviaremos una notificación por correo electrónico cuando esté disponible

¡Genial!

Nos comunicaremos contigo por correo electrónico si está disponible