04
Transformer Models and BERT Model - Deutsch
04
Transformer Models and BERT Model - Deutsch
Dieser Kurs bietet eine Einführung in die Transformer-Architektur und das BERT-Modell (Bidirectional Encoder Representations from Transformers). Sie lernen die Hauptkomponenten der Transformer-Architektur wie den Self-Attention-Mechanismus kennen und erfahren, wie Sie diesen zum Erstellen des BERT-Modells verwenden. Darüber hinaus werden verschiedene Aufgaben behandelt, für die BERT genutzt werden kann, wie etwa Textklassifizierung, Question Answering und Natural-Language-Inferenz. Der gesamte Kurs dauert ungefähr 45 Minuten.
- Hauptkomponenten der Transformer-Architektur kennenlernen
- Lernen, wie ein BERT-Modell mithilfe von Transformern erstellt wird
- BERT für unterschiedliche Aufgaben im Zusammenhang mit Natural Language Processing (NLP) verwenden
– Fortgeschrittene Kenntnisse in Machine Learning
– Fähigkeit, Worteinbettungen und Aufmerksamkeitsmechanismen zu verstehen
– Kenntnisse in Python und TensorFlow