Namita Soti
Participante desde 2024
Participante desde 2024
Este curso é uma introdução à arquitetura de transformador e ao modelo de Bidirectional Encoder Representations from Transformers (BERT, na sigla em inglês). Você vai aprender sobre os principais componentes da arquitetura de transformador, como o mecanismo de autoatenção, e como eles são usados para construir o modelo de BERT. Também vai conhecer as diferentes tarefas onde é possível usar o BERT, como classificação de texto, respostas a perguntas e inferência de linguagem natural. O curso leva aproximadamente 45 minutos.
Este curso é uma introdução ao mecanismo de atenção, uma técnica avançada que permite que as redes neurais se concentrem em partes específicas de uma sequência de entrada. Você vai entender como a atenção funciona e como ela pode ser usada para melhorar o desempenho de várias tarefas de machine learning (como tradução automática, resumo de texto e resposta a perguntas).
Este é um curso de microaprendizagem introdutório que busca explicar a IA responsável: o que é, qual é a importância dela e como ela é aplicada nos produtos do Google. Ele também contém os 7 princípios de IA do Google.
Este é um curso de microlearning de nível introdutório que explica o que são modelos de linguagem grandes (LLM), os casos de uso em que podem ser aplicados e como é possível fazer o ajuste de comandos para aprimorar o desempenho dos LLMs. O curso também aborda as ferramentas do Google que ajudam a desenvolver seus próprios apps de IA generativa.
Este é um curso de microaprendizagem introdutório que busca explicar a IA generativa: o que é, como é usada e por que ela é diferente de métodos tradicionais de machine learning. O curso também aborda as ferramentas do Google que ajudam você a desenvolver apps de IA generativa.
Este curso apresenta um resumo da arquitetura de codificador-decodificador, que é uma arquitetura de machine learning avançada e frequentemente usada para tarefas sequência para sequência (como tradução automática, resumo de textos e respostas a perguntas). Você vai conhecer os principais componentes da arquitetura de codificador-decodificador e aprender a treinar e disponibilizar esses modelos. No tutorial do laboratório relacionado, você vai codificar uma implementação simples da arquitetura de codificador-decodificador para geração de poesia desde a etapa inicial no TensorFlow.
Neste curso, apresentamos os modelos de difusão, uma família de modelos de machine learning promissora no campo da geração de imagens. Os modelos de difusão são baseados na física, mais especificamente na termodinâmica. Nos últimos anos, eles se popularizaram no setor e nas pesquisas. Esses modelos servem de base para ferramentas e modelos avançados de geração de imagem no Google Cloud. Este curso é uma introdução à teoria dos modelos de difusão e como eles devem ser treinados e implantados na Vertex AI.