22
Responsible AI for Developers: Privacy & Safety - Polski
22
Responsible AI for Developers: Privacy & Safety - Polski
To szkolenie wprowadza w ważne kwestie dotyczące prywatności i bezpieczeństwa w dziedzinie AI. W jego trakcie przedstawiamy praktyczne techniki i narzędzia, które umożliwiają wdrożenie sprawdzonych metod w zakresie prywatności i bezpieczeństwa AI przy użyciu usług Google Cloud oraz narzędzi open source.
Informacje o szkoleniu
Cele
- Czym są prywatność i bezpieczeństwo AI
- Jakie są metody zapewniania prywatności AI – zarówno w danych, jak i modelach
- Na jakie kluczowe kwestie związane z wdrażaniem zabezpieczeń AI trzeba zwrócić uwagę
- Jakie techniki są stosowane do wdrażania zabezpieczeń AI
Wymagania wstępne
Praktyczna znajomość koncepcji i metod uczenia maszynowego. Praktyczna znajomość potoków i narzędzi do uczenia maszynowego. Doświadczenie w pracy z językami programowania takimi jak SQL i Python.
Odbiorcy
Programiści zajmujący się AI/ML, praktycy AI, inżynierowie ML, badacze danych
Dostępne języki
English, Deutsch, español (Latinoamérica), français, bahasa Indonesia, italiano, 日本語, 한국어, polski, português (Brasil), українська, 繁體中文, 简体中文 oraz Türkçe
Co mogę zrobić po ukończeniu tego szkolenia?
Po ukończeniu szkolenia możesz zapoznać się z dodatkowymi materiałami ze swojej ścieżki szkoleniowej lub przejrzeć katalog.
Jakie odznaki mogę zdobyć?
Po szkoleniu otrzymasz odznakę potwierdzającą jego ukończenie. Odznaki możesz wyświetlać w swoim profilu i udostępniać w sieciach społecznościowych.
Chcesz wziąć udział w tym kursie u jednego z naszych partnerów udostępniających treści na żądanie?
Przejrzyj treści związane z Google Cloud w serwisie Coursera i Pluralsight.
Wolisz uczyć się z instruktorem?