加入 登录

Namita Soti

成为会员时间:2024

白银联赛

4340 积分
Transformer Models and BERT Model - 简体中文徽章 Transformer Models and BERT Model - 简体中文 Earned Nov 10, 2024 EST
Attention Mechanism - 简体中文徽章 Attention Mechanism - 简体中文 Earned Oct 6, 2024 EDT
Introduction to Responsible AI - 简体中文徽章 Introduction to Responsible AI - 简体中文 Earned Sep 26, 2024 EDT
Introduction to Large Language Models - 简体中文徽章 Introduction to Large Language Models - 简体中文 Earned Sep 25, 2024 EDT
Introduction to Generative AI - 简体中文徽章 Introduction to Generative AI - 简体中文 Earned Sep 24, 2024 EDT
Encoder-Decoder Architecture - 简体中文徽章 Encoder-Decoder Architecture - 简体中文 Earned Sep 23, 2024 EDT
Introduction to Image Generation - 简体中文徽章 Introduction to Image Generation - 简体中文 Earned Sep 23, 2024 EDT

本课程向您介绍 Transformer 架构和 Bidirectional Encoder Representations from Transformers (BERT) 模型。您将了解 Transformer 架构的主要组成部分,例如自注意力机制,以及该架构如何用于构建 BERT 模型。您还将了解可以使用 BERT 的不同任务,例如文本分类、问答和自然语言推理。完成本课程估计需要大约 45 分钟。

了解详情

本课程将向您介绍注意力机制,这是一种强大的技术,可令神经网络专注于输入序列的特定部分。您将了解注意力的工作原理,以及如何使用它来提高各种机器学习任务的性能,包括机器翻译、文本摘要和问题解答。

了解详情

这是一节入门级微课程,旨在解释什么是负责任的 AI、它的重要性,以及 Google 如何在自己的产品中实现负责任的 AI。此外,本课程还介绍了 Google 的 7 个 AI 开发原则。

了解详情

这是一节入门级微学习课程,探讨什么是大型语言模型 (LLM)、适合的应用场景以及如何使用提示调整来提升 LLM 性能,还介绍了可以帮助您开发自己的 Gen AI 应用的各种 Google 工具。

了解详情

这是一节入门级微课程,旨在解释什么是生成式 AI、它的用途以及与传统机器学习方法的区别。该课程还介绍了可以帮助您开发自己的生成式 AI 应用的各种 Google 工具。

了解详情

本课程简要介绍了编码器-解码器架构,这是一种功能强大且常见的机器学习架构,适用于机器翻译、文本摘要和问答等 sequence-to-sequence 任务。您将了解编码器-解码器架构的主要组成部分,以及如何训练和部署这些模型。在相应的实验演示中,您将在 TensorFlow 中从头编写简单的编码器-解码器架构实现代码,以用于诗歌生成。

了解详情

本课程向您介绍扩散模型。这类机器学习模型最近在图像生成领域展现出了巨大潜力。扩散模型的灵感来源于物理学,特别是热力学。过去几年内,扩散模型成为热门研究主题并在整个行业开始流行。Google Cloud 上许多先进的图像生成模型和工具都是以扩散模型为基础构建的。本课程向您介绍扩散模型背后的理论,以及如何在 Vertex AI 上训练和部署此类模型。

了解详情