Dołącz Zaloguj się

Namita Soti

Jest członkiem od 2024

Liga srebrna

4340 pkt.
Odznaka dla Transformer Models and BERT Model Transformer Models and BERT Model Earned lis 10, 2024 EST
Odznaka dla Attention Mechanism Attention Mechanism Earned paź 6, 2024 EDT
Odznaka dla Introduction to Responsible AI - Polski Introduction to Responsible AI - Polski Earned wrz 26, 2024 EDT
Odznaka dla Introduction to Large Language Models - Polski Introduction to Large Language Models - Polski Earned wrz 25, 2024 EDT
Odznaka dla Introduction to Generative AI - Polski Introduction to Generative AI - Polski Earned wrz 24, 2024 EDT
Odznaka dla Encoder-Decoder Architecture Encoder-Decoder Architecture Earned wrz 23, 2024 EDT
Odznaka dla Introduction to Image Generation Introduction to Image Generation Earned wrz 23, 2024 EDT

This course introduces you to the Transformer architecture and the Bidirectional Encoder Representations from Transformers (BERT) model. You learn about the main components of the Transformer architecture, such as the self-attention mechanism, and how it is used to build the BERT model. You also learn about the different tasks that BERT can be used for, such as text classification, question answering, and natural language inference.This course is estimated to take approximately 45 minutes to complete.

Więcej informacji

This course will introduce you to the attention mechanism, a powerful technique that allows neural networks to focus on specific parts of an input sequence. You will learn how attention works, and how it can be used to improve the performance of a variety of machine learning tasks, including machine translation, text summarization, and question answering. This course is estimated to take approximately 45 minutes to complete.

Więcej informacji

Celem tego szybkiego szkolenia dla początkujących jest wyjaśnienie, czym jest odpowiedzialna AI i dlaczego jest ważna, oraz przedstawienie, jak Google wprowadza ją w swoich usługach. Szkolenie zawiera także wprowadzenie do siedmiu zasad Google dotyczących sztucznej inteligencji.

Więcej informacji

To szybkie szkolenie dla początkujących wyjaśnia, czym są duże modele językowe (LLM) oraz jakie są ich zastosowania. Przedstawia również możliwości zwiększenia ich wydajności przez dostrajanie przy użyciu promptów oraz narzędzia Google, które pomogą Ci tworzyć własne aplikacje korzystające z generatywnej AI.

Więcej informacji

Celem tego szybkiego szkolenia dla początkujących jest wyjaśnienie, czym jest generatywna AI oraz jakie są jej zastosowania. Szkolenie przedstawia również różnice pomiędzy tą technologią a tradycyjnymi systemami uczącymi się, a także narzędzia Google, które pomogą Ci tworzyć własne aplikacje korzystające z generatywnej AI.

Więcej informacji

This course gives you a synopsis of the encoder-decoder architecture, which is a powerful and prevalent machine learning architecture for sequence-to-sequence tasks such as machine translation, text summarization, and question answering. You learn about the main components of the encoder-decoder architecture and how to train and serve these models. In the corresponding lab walkthrough, you’ll code in TensorFlow a simple implementation of the encoder-decoder architecture for poetry generation from the beginning.

Więcej informacji

This course introduces diffusion models, a family of machine learning models that recently showed promise in the image generation space. Diffusion models draw inspiration from physics, specifically thermodynamics. Within the last few years, diffusion models became popular in both research and industry. Diffusion models underpin many state-of-the-art image generation models and tools on Google Cloud. This course introduces you to the theory behind diffusion models and how to train and deploy them on Vertex AI.

Więcej informacji