04
Transformer Models and BERT Model - Bahasa Indonesia
04
Transformer Models and BERT Model - Bahasa Indonesia
Kursus ini memperkenalkan Anda pada arsitektur Transformer dan model Representasi Encoder Dua Arah dari Transformer (Bidirectional Encoder Representations from Transformers atau BERT). Anda akan belajar tentang komponen utama arsitektur Transformer, seperti mekanisme self-attention, dan cara penggunaannya untuk membangun model BERT. Anda juga akan belajar tentang berbagai tugas yang dapat memanfaatkan BERT, seperti klasifikasi teks, menjawab pertanyaan, dan inferensi natural language. Kursus ini diperkirakan memakan waktu sekitar 45 menit untuk menyelesaikannya.
- Memahami komponen utama arsitektur Transformer
- Mempelajari cara model BERT dibuat menggunakan Transformer
- Menggunakan BERT untuk menyelesaikan berbagai tugas natural language processing (NLP)
- Pengalaman machine learning menengah
- Pemahaman tentang embedding kata dan mekanisme atensi
- Pengalaman dengan Python dan TensorFlow