Transformer Models and BERT Model - 简体中文
Transformer Models and BERT Model - 简体中文
These skills were generated by AI. Do you agree this course teaches these skills?
本课程向您介绍 Transformer 架构和 Bidirectional Encoder Representations from Transformers (BERT) 模型。您将了解 Transformer 架构的主要组成部分,例如自注意力机制,以及该架构如何用于构建 BERT 模型。您还将了解可以使用 BERT 的不同任务,例如文本分类、问答和自然语言推理。完成本课程估计需要大约 45 分钟。
课程信息
目标
- 了解 Transformer 架构的主要组成部分
- 了解如何使用 Transformers 构建 BERT 模型
- 使用 BERT 解决不同的自然语言处理 (NLP) 任务
前提条件
- 具备中等程度的机器学习经验
- 了解字词嵌入和注意力机制
- 有使用 Python 和 TensorFlow 的经验
受众
本课程适合有兴趣学习文本分类、问答和自然语言推理的用户,例如:
- 数据科学家
- 机器学习工程师
- 软件工程师
支持的语言
English, español (Latinoamérica), français, עברית, bahasa Indonesia, italiano, 日本語, 한국어, português (Brasil), 简体中文, 繁體中文, Deutsch, and Türkçe
学完本课程后,我可以做些什么?
学完本课程后,您可以探索学习路线 中的其他内容或浏览学习目录
我能获得什么徽章?
学完一门课程后,您将获得结业徽章。徽章可在个人资料中供查看,还可在社交网络上分享。
有兴趣通过我们的点播课程合作伙伴之一来学习本课程吗
在 Coursera 和 Pluralsight 上探索 Google Cloud 内容
更喜欢跟随讲师学习?