Pieter Geelen
Miembro desde 2023
Miembro desde 2023
Organizaciones de todos los tamaños están aprovechando la potencia y flexibilidad de la nube para transformar sus operaciones. Sin embargo, administrar y escalar eficazmente los recursos en la nube puede ser una tarea compleja. En Scaling with Google Cloud Operations, se exploran los conceptos fundamentales de las operaciones modernas, la confiabilidad y la resiliencia en la nube, y cómo Google Cloud puede ayudar con esas tareas. Como parte de la ruta de aprendizaje de Cloud Digital Leader, el objetivo de este curso es ayudar a las personas a crecer en su rol y desarrollar el futuro de su empresa.
A medida que las organizaciones trasladan sus datos y aplicaciones a la nube, deben enfrentar nuevos desafíos de seguridad. En el curso Trust and Security with Google Cloud, se exploran los conceptos básicos de la seguridad en la nube, el valor del enfoque multicapas de Google Cloud para la seguridad de la infraestructura y cómo Google se gana y mantiene la confianza de los clientes en la nube. Como parte de la ruta de aprendizaje de Cloud Digital Leader, el objetivo de este curso es ayudar a las personas a crecer en su rol y desarrollar el futuro de su empresa.
Muchas empresas tradicionales usan aplicaciones y sistemas heredados que no pueden adecuarse a las expectativas de los clientes actuales. A menudo los líderes empresariales deben elegir entre mantener sus sistemas de TI anticuados o invertir en nuevos productos y servicios. En “Modernize Infrastructure and Applications with Google Cloud”, se exploran estos desafíos y se ofrecen soluciones para superarlos con la tecnología de la nube. Como parte de la ruta de aprendizaje de Cloud Digital Leader, el objetivo de este curso es ayudar a las personas a crecer en su rol y desarrollar el futuro de su empresa.
La inteligencia artificial (IA) y el aprendizaje automático (AA) representan una evolución importante en las tecnologías de la información que están transformando rápidamente una amplia variedad de sectores. En el curso “Innovating with Google Cloud Artificial Intelligence”, se exploran las maneras en que las organizaciones pueden usar la IA y el AA para transformar sus procesos empresariales. Como parte de la ruta de aprendizaje de Cloud Digital Leader, el objetivo de este curso es ayudar a las personas a crecer en su rol y desarrollar el futuro de su empresa.
La tecnología de Cloud puede aportar un gran valor a una organización y, si la combinamos con datos, podemos generar aún más valor y crear nuevas experiencias para los clientes.En “Exploring Data Transformation with Google Cloud”, se explora el valor que los datos pueden aportar a una organización y las formas en que Google Cloud puede hacer que estos sean útiles y accesibles.Como parte de la ruta de aprendizaje de Cloud Digital Leader, el objetivo de este curso es ayudar a las personas a crecer en su rol y desarrollar el futuro de su empresa.
Existe mucho entusiasmo sobre la tecnología de la nube y la transformación digital, pero también muchas preguntas sin respuesta. Por ejemplo: ¿Qué es la tecnología de la nube? ¿Qué significa transformación digital? ¿De qué manera puede ser útil la tecnología de la nube para la organización? ¿Cómo se puede comenzar? Si te has hecho alguna de esas preguntas, estás en el lugar indicado. En este curso, se proporciona una descripción general de los tipos de oportunidades y desafíos a los que las empresas suelen enfrentarse en su recorrido de transformación digital. Si quieres aprender sobre la tecnología de la nube para sobresalir en tu rol y ayudar a desarrollar el futuro de tu empresa, entonces este curso introductorio sobre transformación digital es para ti. Este curso es parte de la ruta de aprendizaje de Cloud Digital Leader.
In this course, you learn how to do the kind of data exploration and analysis in Looker that would formerly be done primarily by SQL developers or analysts. Upon completion of this course, you will be able to leverage Looker's modern analytics platform to find and explore relevant content in your organization’s Looker instance, ask questions of your data, create new metrics as needed, and build and share visualizations and dashboards to facilitate data-driven decision making.
En este curso, se presentan la arquitectura de transformadores y el modelo de Bidirectional Encoder Representations from Transformers (BERT). Aprenderás sobre los componentes principales de la arquitectura de transformadores, como el mecanismo de autoatención, y cómo se usa para crear el modelo BERT. También aprenderás sobre las diferentes tareas para las que puede usarse BERT, como la clasificación de texto, la respuesta de preguntas y la inferencia de lenguaje natural. Tardarás aproximadamente 45 minutos en completar este curso.
En este curso, se brinda un resumen de la arquitectura de codificador-decodificador, una arquitectura de aprendizaje automático importante y potente para realizar tareas de secuencia por secuencia, como las de traducción automática, resúmenes de texto y respuestas a preguntas. Aprenderás sobre los componentes principales de la arquitectura de codificador-decodificador y cómo entrenar y entregar estos modelos. En la explicación del lab, programarás una implementación sencilla de la arquitectura de codificador-decodificador en TensorFlow para generar poemas desde un comienzo.
Este curso es una introducción al mecanismo de atención, una potente técnica que permite a las redes neuronales enfocarse en partes específicas de una secuencia de entrada. Sabrás cómo funciona la atención y cómo puede utilizarse para mejorar el rendimiento de diversas tareas de aprendizaje automático, como la traducción automática, el resumen de textos y la respuesta a preguntas.
En este curso, se presenta una introducción a los modelos de difusión: una familia de modelos de aprendizaje automático que demostraron ser muy prometedores en el área de la generación de imágenes. Los modelos de difusión se inspiran en la física, específicamente, en la termodinámica. En los últimos años, los modelos de difusión se han vuelto populares tanto en investigaciones como en la industria. Los modelos de difusión respaldan muchos de los modelos de generación de imágenes y herramientas vanguardistas de Google Cloud. En este curso, se presenta la teoría detrás de los modelos de difusión y cómo entrenarlos y, luego, implementarlos en Vertex AI.
En esta última parte de la serie de cursos de Dataflow, presentaremos los componentes del modelo operativo de Dataflow. Examinaremos las herramientas y técnicas que permiten solucionar problemas y optimizar el rendimiento de las canalizaciones. Luego, revisaremos las prácticas recomendadas de las pruebas, la implementación y la confiabilidad en relación con las canalizaciones de Dataflow. Concluiremos con una revisión de las plantillas, que facilitan el ajuste de escala de las canalizaciones de Dataflow para organizaciones con cientos de usuarios. Estas clases asegurarán que su plataforma de datos sea estable y resiliente ante circunstancias inesperadas.
En esta segunda parte de la serie de cursos sobre Dataflow, analizaremos en profundidad el desarrollo de canalizaciones con el SDK de Beam. Comenzaremos con un repaso de los conceptos de Apache Beam. A continuación, analizaremos el procesamiento de datos de transmisión con ventanas, marcas de agua y activadores. Luego, revisaremos las opciones de fuentes y receptores en sus canalizaciones, los esquemas para expresar datos estructurados y cómo realizar transformaciones con estado mediante las API de State y de Timer. Después, revisaremos las prácticas recomendadas que ayudan a maximizar el rendimiento de las canalizaciones. Al final del curso, presentaremos SQL y Dataframes para representar su lógica empresarial en Beam y cómo desarrollar canalizaciones de forma iterativa con notebooks de Beam.
El curso comienza con un debate sobre los datos: cómo mejorar su calidad y cómo realizar análisis exploratorios de ellos. Describimos Vertex AI AutoML y cómo crear, entrenar e implementar un modelo de AA sin escribir una sola línea de código. Conocerás los beneficios de BigQuery ML. Luego, se analiza cómo optimizar un modelo de aprendizaje automático (AA) y cómo la generalización y el muestreo pueden ayudar a evaluar la calidad de los modelos de AA para el entrenamiento personalizado.
¿Cuáles son las prácticas recomendadas para implementar el aprendizaje automático en Google Cloud? ¿Qué es Vertex AI y cómo se puede utilizar la plataforma para crear, entrenar e implementar rápidamente modelos de aprendizaje automático de AutoML sin escribir una sola línea de código? ¿Qué es el aprendizaje automático? ¿Qué tipos de problemas puede solucionar? Google considera que el aprendizaje automático es diferente: se trata de proporcionar una plataforma unificada para conjuntos de datos administrados, un almacén de atributos, una forma de crear, entrenar e implementar modelos de aprendizaje automático sin escribir una sola línea de código, así como proporcionar la capacidad de etiquetar datos y crear notebooks de Workbench utilizando frameworks como TensorFlow, SciKit-learn, Pytorch, R y otros. Vertex AI Platform también ofrece la posibilidad de entrenar modelos personalizados, crear canalizaciones de componentes y realizar predicciones en línea y por lotes. Además, analiza…
La incorporación del aprendizaje automático en las canalizaciones de datos aumenta la capacidad para extraer estadísticas de los datos. En este curso, veremos formas de incluir el aprendizaje automático en las canalizaciones de datos en Google Cloud. Para una personalización escasa o nula, en el curso se aborda AutoML. Para obtener más capacidades de aprendizaje automático a medida, el curso presenta Notebooks y BigQuery Machine Learning (BigQuery ML). Además, en este curso se aborda cómo llevar a producción soluciones de aprendizaje automático con Vertex AI.
Este curso corresponde a la 1ª parte de una serie de 3 cursos llamada Serverless Data Processing with Dataflow. Para comenzar, en el primer curso haremos un repaso de qué es Apache Beam y cómo se relaciona con Dataflow. Luego, hablaremos sobre la visión de Apache Beam y los beneficios que ofrece su framework de portabilidad. Dicho framework hace posible que un desarrollador pueda usar su lenguaje de programación favorito con su backend de ejecución preferido. Después, le mostraremos cómo Dataflow le permite separar el procesamiento y el almacenamiento y, a la vez, ahorrar dinero. También le explicaremos cómo las herramientas de identidad, acceso y administración interactúan con sus canalizaciones de Dataflow. Por último, veremos cómo implementar el modelo de seguridad adecuado en Dataflow según su caso de uso.
El procesamiento de datos de transmisión es cada vez más popular, puesto que permite a las empresas obtener métricas en tiempo real sobre las operaciones comerciales. Este curso aborda cómo crear canalizaciones de datos de transmisión en Google Cloud. Pub/Sub se describe para manejar los datos de transmisión entrantes. El curso también aborda cómo aplicar agregaciones y transformaciones a los datos de transmisión con Dataflow y cómo almacenar los registros procesados en BigQuery o Bigtable para analizarlos. Los estudiantes obtienen experiencia práctica en la compilación de componentes de canalizaciones de datos de transmisión en Google Cloud con QwikLabs.
Las canalizaciones de datos suelen realizarse según uno de los siguientes paradigmas: extracción y carga (EL); extracción, carga y transformación (ELT), o extracción, transformación y carga (ETL). En este curso, abordaremos qué paradigma se debe utilizar para los datos por lotes y cuándo corresponde usarlo. Además, veremos varias tecnologías de Google Cloud para la transformación de datos, incluidos BigQuery, la ejecución de Spark en Dataproc, gráficos de canalización en Cloud Data Fusion y procesamiento de datos sin servidores en Dataflow. Los alumnos obtendrán experiencia práctica en la compilación de componentes de canalizaciones de datos en Google Cloud con Qwiklabs.
Este curso ayuda a los participantes a crear un plan de estudio para el examen de certificación de PDE (Professional Data Engineer). Los alumnos conocerán la amplitud y el alcance de los dominios que se incluyen en el examen. Además, evaluarán su nivel de preparación para el examen y crearán un plan de estudio personal.
Los dos componentes clave de cualquier canalización de datos son los data lakes y los almacenes de datos. En este curso, se destacan los casos de uso de cada tipo de almacenamiento y se analizan en profundidad las soluciones de data lakes y almacenes disponibles en Google Cloud con detalles técnicos. Además, en este curso, se describen el rol del ingeniero en datos, los beneficios de las canalizaciones de datos exitosas para las operaciones comerciales y por qué la ingeniería de datos debe realizarse en un entorno de nube. Este el primer curso de la serie Data Engineering on Google Cloud. Después de completar este curso, inscríbete en el curso Building Batch Data Pipelines on Google Cloud.
En este curso, aprenderás sobre los productos y servicios de macrodatos y aprendizaje automático de Google Cloud involucrados en el ciclo de vida de datos a IA. También explorarás los procesos, los desafíos y los beneficios de crear una canalización de macrodatos y modelos de aprendizaje automático con Vertex AI en Google Cloud.