Teilnehmen Anmelden

Henry Rausch

Mitglied seit 2024

Gold League

3405 Punkte
Transformer Models and BERT Model - Deutsch Earned Jan 1, 2025 EST
Deploy Kubernetes Applications on Google Cloud Earned Jan 1, 2025 EST
Encoder-Decoder Architecture - Deutsch Earned Nov 27, 2024 EST
Attention Mechanism - Deutsch Earned Nov 26, 2024 EST
Introduction to Image Generation - Deutsch Earned Nov 26, 2024 EST

Dieser Kurs bietet eine Einführung in die Transformer-Architektur und das BERT-Modell (Bidirectional Encoder Representations from Transformers). Sie lernen die Hauptkomponenten der Transformer-Architektur wie den Self-Attention-Mechanismus kennen und erfahren, wie Sie diesen zum Erstellen des BERT-Modells verwenden. Darüber hinaus werden verschiedene Aufgaben behandelt, für die BERT genutzt werden kann, wie etwa Textklassifizierung, Question Answering und Natural-Language-Inferenz. Der gesamte Kurs dauert ungefähr 45 Minuten.

Weitere Informationen

Mit dem Skill-Logo Deploy Kubernetes Applications on Google Cloud weisen Sie Kenntnisse in folgenden Bereichen nach: Konfigurieren und Erstellen von Docker-Container-Images, Erstellen und Verwalten von Google Kubernetes Engine-Clustern, Verwenden von kubectl für eine effiziente Clusterverwaltung und Bereitstellen von Kubernetes-Anwendungen mit leistungsfähigen Continuous Delivery-Abläufen. Ein Skill-Logo ist ein exklusives digitales Abzeichen, das von Google Cloud ausgestellt wird und Ihre Kenntnisse im Hinblick auf Lösungen und Produkte von Google Cloud belegt. In diesem Zusammenhang wird auch die Fähigkeit bewertet, wie Sie Ihr Wissen in einer interaktiven praxisnahen Geschäftssituation anwenden. Absolvieren Sie eine kursspezifische Aufgabenreihe und die Challenge-Lab-Prüfung, um ein Skill-Logo zu erhalten, das Sie in Ihrem Netzwerk posten können.

Weitere Informationen

Dieser Kurs vermittelt Ihnen eine Zusammenfassung der Encoder-Decoder-Architektur, einer leistungsstarken und gängigen Architektur, die bei Sequenz-zu-Sequenz-Tasks wie maschinellen Übersetzungen, Textzusammenfassungen und dem Question Answering eingesetzt wird. Sie lernen die Hauptkomponenten der Encoder-Decoder-Architektur kennen und erfahren, wie Sie diese Modelle trainieren und bereitstellen können. Im dazugehörigen Lab mit Schritt-für-Schritt-Anleitung können Sie in TensorFlow von Grund auf einen Code für eine einfache Implementierung einer Encoder-Decoder-Architektur erstellen, die zum Schreiben von Gedichten dient.

Weitere Informationen

In diesem Kurs wird der Aufmerksamkeitsmechanismus vorgestellt. Dies ist ein leistungsstarkes Verfahren, das die Fokussierung neuronaler Netzwerke auf bestimmte Abschnitte einer Eingabesequenz ermöglicht. Sie erfahren, wie der Aufmerksamkeitsmechanismus funktioniert und wie Sie damit die Leistung verschiedener Machine Learning-Tasks wie maschinelle Übersetzungen, Zusammenfassungen von Texten und Question Answering verbessern können.

Weitere Informationen

In diesem Kurs werden Diffusion-Modelle vorgestellt, eine Gruppe verschiedener Machine Learning-Modelle, die kürzlich einige vielversprechende Fortschritte im Bereich Bildgenerierung gemacht haben. Diffusion-Modelle basieren auf physikalischen Konzepten der Thermodynamik und sind in den letzten Jahren in der Forschung und Industrie sehr beliebt geworden. Dabei stützen sich Diffusion-Modelle auf viele innovative Modelle und Tools zur Bildgenerierung in Google Cloud. In diesem Kurs werden Ihnen die theoretischen Grundlagen der Diffusion-Modelle erläutert und wie Sie diese Modelle über Vertex AI trainieren und bereitstellen können.

Weitere Informationen