Unirse Acceder

Francisco Colomer

Miembro desde 2023

Liga de Plata

30035 puntos
Insignia de Machine Learning in the Enterprise - Español Machine Learning in the Enterprise - Español Earned sep 29, 2024 EDT
Insignia de How Google Does Machine Learning - Español How Google Does Machine Learning - Español Earned may 29, 2024 EDT
Insignia de Engineer Data for Predictive Modeling with BigQuery ML Engineer Data for Predictive Modeling with BigQuery ML Earned nov 15, 2023 EST
Insignia de Build a Data Warehouse with BigQuery Build a Data Warehouse with BigQuery Earned nov 14, 2023 EST
Insignia de Prepare Data for ML APIs on Google Cloud Prepare Data for ML APIs on Google Cloud Earned nov 13, 2023 EST
Insignia de Serverless Data Processing with Dataflow: Operations - Español Serverless Data Processing with Dataflow: Operations - Español Earned nov 9, 2023 EST
Insignia de Serverless Data Processing with Dataflow: Developing Pipelines - Español Serverless Data Processing with Dataflow: Developing Pipelines - Español Earned nov 4, 2023 EDT
Insignia de Serverless Data Processing with Dataflow: Foundations - Español Serverless Data Processing with Dataflow: Foundations - Español Earned oct 26, 2023 EDT
Insignia de Smart Analytics, Machine Learning, and AI on Google Cloud - Español Smart Analytics, Machine Learning, and AI on Google Cloud - Español Earned oct 23, 2023 EDT
Insignia de Building Batch Data Pipelines on Google Cloud - Español Building Batch Data Pipelines on Google Cloud - Español Earned oct 22, 2023 EDT
Insignia de Building Resilient Streaming Analytics Systems on Google Cloud - Español Building Resilient Streaming Analytics Systems on Google Cloud - Español Earned oct 20, 2023 EDT
Insignia de Modernizing Data Lakes and Data Warehouses with Google Cloud - Español Modernizing Data Lakes and Data Warehouses with Google Cloud - Español Earned oct 14, 2023 EDT
Insignia de Google Cloud Big Data and Machine Learning Fundamentals - Español Google Cloud Big Data and Machine Learning Fundamentals - Español Earned oct 12, 2023 EDT
Insignia de Preparing for Your Professional Data Engineer Journey - Español Preparing for Your Professional Data Engineer Journey - Español Earned oct 4, 2023 EDT

En este curso, se aplica un enfoque real en el flujo de trabajo del AA a través de un caso de éxito. Un equipo de AA trabaja con varios requisitos empresariales y casos de uso de AA. El equipo debe comprender las herramientas necesarias para la administración de los datos y considerar el mejor enfoque para su procesamiento previo. Al equipo se le presentan tres opciones con las que puede crear modelos de AA para dos casos de uso. En el curso, se explica por qué el equipo usará AutoML, BigQuery ML o entrenamiento personalizado para lograr sus objetivos.

Más información

¿Cuáles son las prácticas recomendadas para implementar el aprendizaje automático en Google Cloud? ¿Qué es Vertex AI y cómo se puede utilizar la plataforma para crear, entrenar e implementar rápidamente modelos de aprendizaje automático de AutoML sin escribir una sola línea de código? ¿Qué es el aprendizaje automático? ¿Qué tipos de problemas puede solucionar? Google considera que el aprendizaje automático es diferente: se trata de proporcionar una plataforma unificada para conjuntos de datos administrados, un almacén de atributos, una forma de crear, entrenar e implementar modelos de aprendizaje automático sin escribir una sola línea de código, así como proporcionar la capacidad de etiquetar datos y crear notebooks de Workbench utilizando frameworks como TensorFlow, SciKit-learn, Pytorch, R y otros. Vertex AI Platform también ofrece la posibilidad de entrenar modelos personalizados, crear canalizaciones de componentes y realizar predicciones en línea y por lotes. Además, analiza…

Más información

Completa la insignia de habilidad intermedia del curso Engineer Data for Predictive Modeling with BigQuery ML y demuestra tus capacidades para hacer lo siguiente: compilar canalizaciones para transformar datos en BigQuery con Dataprep de Trifacta; usar Cloud Storage, Dataflow y BigQuery para crear flujos de trabajo de extracción, transformación y carga (ETL); compilar modelos de aprendizaje automático con BigQuery ML, y usar Cloud Composer para copiar datos en múltiples ubicaciones. Una insignia de habilidad es una insignia digital exclusiva otorgada por Google Cloud en reconocimiento de tu dominio de los productos y servicios de la plataforma, y que prueba tu capacidad para aplicar tus conocimientos en un entorno interactivo y práctico. Completa la insignia de habilidad del curso y el Lab de desafío de la evaluación final para recibir una insignia digital que podrás compartir en tus redes.

Más información

Completa la insignia de habilidad intermedia Build a Data Warehouse with BigQuery para demostrar tus habilidades para realizar las siguientes actividades: unir datos para crear tablas nuevas, solucionar problemas de uniones, agregar datos a uniones, crear tablas particionadas por fecha, y trabajar con JSON, arrays y structs en BigQuery. Una insignia de habilidad es una insignia digital exclusiva que emite Google Cloud en reconocimiento de tu dominio de los productos y servicios de la plataforma, y que prueba tu capacidad de aplicar esos conocimientos en un entorno interactivo y práctico. Completa el curso con insignia de habilidad y el lab de desafío de la evaluación final para recibir una insignia digital que puedes compartir con tus contactos.

Más información

Completa la insignia de habilidad introductoria Prepare Data for ML APIs on Google Cloud y demuestra tus habilidades para realizar las siguientes actividades: limpiar datos con Dataprep de Trifacta, ejecutar canalizaciones de datos en Dataflow, crear clústeres y ejecutar trabajos de Apache Spark en Dataproc y llamar a APIs de AA, como la API de Cloud Natural Language, la API de Google Cloud Speech-to-Text y la API de Video Intelligence. Una insignia de habilidad es una insignia digital exclusiva que emite Google Cloud en reconocimiento de tu dominio de los productos y servicios de la plataforma, y que prueba tu capacidad de aplicar esos conocimientos en un entorno interactivo y práctico. Completa el curso y el lab de desafío de la evaluación final para recibir una insignia de habilidad que puedes compartir con tus contactos.

Más información

En esta última parte de la serie de cursos de Dataflow, presentaremos los componentes del modelo operativo de Dataflow. Examinaremos las herramientas y técnicas que permiten solucionar problemas y optimizar el rendimiento de las canalizaciones. Luego, revisaremos las prácticas recomendadas de las pruebas, la implementación y la confiabilidad en relación con las canalizaciones de Dataflow. Concluiremos con una revisión de las plantillas, que facilitan el ajuste de escala de las canalizaciones de Dataflow para organizaciones con cientos de usuarios. Estas clases asegurarán que su plataforma de datos sea estable y resiliente ante circunstancias inesperadas.

Más información

En esta segunda parte de la serie de cursos sobre Dataflow, analizaremos en profundidad el desarrollo de canalizaciones con el SDK de Beam. Comenzaremos con un repaso de los conceptos de Apache Beam. A continuación, analizaremos el procesamiento de datos de transmisión con ventanas, marcas de agua y activadores. Luego, revisaremos las opciones de fuentes y receptores en sus canalizaciones, los esquemas para expresar datos estructurados y cómo realizar transformaciones con estado mediante las API de State y de Timer. Después, revisaremos las prácticas recomendadas que ayudan a maximizar el rendimiento de las canalizaciones. Al final del curso, presentaremos SQL y Dataframes para representar su lógica empresarial en Beam y cómo desarrollar canalizaciones de forma iterativa con notebooks de Beam.

Más información

Este curso corresponde a la 1ª parte de una serie de 3 cursos llamada Serverless Data Processing with Dataflow. Para comenzar, en el primer curso haremos un repaso de qué es Apache Beam y cómo se relaciona con Dataflow. Luego, hablaremos sobre la visión de Apache Beam y los beneficios que ofrece su framework de portabilidad. Dicho framework hace posible que un desarrollador pueda usar su lenguaje de programación favorito con su backend de ejecución preferido. Después, le mostraremos cómo Dataflow le permite separar el procesamiento y el almacenamiento y, a la vez, ahorrar dinero. También le explicaremos cómo las herramientas de identidad, acceso y administración interactúan con sus canalizaciones de Dataflow. Por último, veremos cómo implementar el modelo de seguridad adecuado en Dataflow según su caso de uso.

Más información

La incorporación del aprendizaje automático en las canalizaciones de datos aumenta la capacidad para extraer estadísticas de los datos. En este curso, veremos formas de incluir el aprendizaje automático en las canalizaciones de datos en Google Cloud. Para una personalización escasa o nula, en el curso se aborda AutoML. Para obtener más capacidades de aprendizaje automático a medida, el curso presenta Notebooks y BigQuery Machine Learning (BigQuery ML). Además, en este curso se aborda cómo llevar a producción soluciones de aprendizaje automático con Vertex AI.

Más información

Las canalizaciones de datos suelen realizarse según uno de los siguientes paradigmas: extracción y carga (EL); extracción, carga y transformación (ELT), o extracción, transformación y carga (ETL). En este curso, abordaremos qué paradigma se debe utilizar para los datos por lotes y cuándo corresponde usarlo. Además, veremos varias tecnologías de Google Cloud para la transformación de datos, incluidos BigQuery, la ejecución de Spark en Dataproc, gráficos de canalización en Cloud Data Fusion y procesamiento de datos sin servidores en Dataflow. Los alumnos obtendrán experiencia práctica en la compilación de componentes de canalizaciones de datos en Google Cloud con Qwiklabs.

Más información

El procesamiento de datos de transmisión es cada vez más popular, puesto que permite a las empresas obtener métricas en tiempo real sobre las operaciones comerciales. Este curso aborda cómo crear canalizaciones de datos de transmisión en Google Cloud. Pub/Sub se describe para manejar los datos de transmisión entrantes. El curso también aborda cómo aplicar agregaciones y transformaciones a los datos de transmisión con Dataflow y cómo almacenar los registros procesados en BigQuery o Bigtable para analizarlos. Los estudiantes obtienen experiencia práctica en la compilación de componentes de canalizaciones de datos de transmisión en Google Cloud con QwikLabs.

Más información

Los dos componentes clave de cualquier canalización de datos son los data lakes y los almacenes de datos. En este curso, se destacan los casos de uso de cada tipo de almacenamiento y se analizan en profundidad las soluciones de data lakes y almacenes disponibles en Google Cloud con detalles técnicos. Además, en este curso, se describen el rol del ingeniero en datos, los beneficios de las canalizaciones de datos exitosas para las operaciones comerciales y por qué la ingeniería de datos debe realizarse en un entorno de nube. Este el primer curso de la serie Data Engineering on Google Cloud. Después de completar este curso, inscríbete en el curso Building Batch Data Pipelines on Google Cloud.

Más información

En este curso, aprenderás sobre los productos y servicios de macrodatos y aprendizaje automático de Google Cloud involucrados en el ciclo de vida de datos a IA. También explorarás los procesos, los desafíos y los beneficios de crear una canalización de macrodatos y modelos de aprendizaje automático con Vertex AI en Google Cloud.

Más información

Este curso ayuda a los participantes a crear un plan de estudio para el examen de certificación de PDE (Professional Data Engineer). Los alumnos conocerán la amplitud y el alcance de los dominios que se incluyen en el examen. Además, evaluarán su nivel de preparación para el examen y crearán un plan de estudio personal.

Más información