04
Transformer Models and BERT Model - Español
04
Transformer Models and BERT Model - Español
En este curso, se presentan la arquitectura de transformadores y el modelo de Bidirectional Encoder Representations from Transformers (BERT). Aprenderás sobre los componentes principales de la arquitectura de transformadores, como el mecanismo de autoatención, y cómo se usa para crear el modelo BERT. También aprenderás sobre las diferentes tareas para las que puede usarse BERT, como la clasificación de texto, la respuesta de preguntas y la inferencia de lenguaje natural. Tardarás aproximadamente 45 minutos en completar este curso.
- Comprende los componentes principales de la arquitectura de transformadores
- Aprende cómo se crea un modelo BERT con transformadores
- Usa BERT para resolver diferentes tareas de procesamiento de lenguaje natural (PLN)
- Nivel de experiencia intermedio en aprendizaje automático
- Comprender las incorporaciones de palabras y el mecanismo de atención
- Experiencia en Python y TensorFlow