20
Responsible AI for Developers: Fairness & Bias - Polski
20
Responsible AI for Developers: Fairness & Bias - Polski
Na tym szkoleniu przedstawiamy koncepcje odpowiedzialnej AI i zasad dotyczących AI. Omawiamy praktyczne metody identyfikowania obiektywności i uprzedzeń, a także ograniczania występowania uprzedzeń podczas używania AI/ML. W trakcie szkolenia przedstawiamy też praktyczne techniki i narzędzia, które umożliwiają wdrożenie sprawdzonych metod w zakresie odpowiedzialnej AI przy użyciu usług Google Cloud oraz narzędzi open source.
Informacje o szkoleniu
Cele
- Zdefiniowanie odpowiedzialnej AI
- Wskazanie zasad Google dotyczących AI
- Opisanie, co oznaczają obiektywność i uprzedzenia AI
- Wyjaśnienie, jak identyfikować uprzedzenia i minimalizować ich występowanie przy użyciu danych i modelowania
Wymagania wstępne
Praktyczna znajomość koncepcji i metod uczenia maszynowego. Praktyczna znajomość potoków i narzędzi do uczenia maszynowego. Doświadczenie w pracy z językami programowania takimi jak SQL i Python.
Odbiorcy
Programiści zajmujący się AI/ML, praktycy AI, inżynierowie ML, badacze danych
Dostępne języki
English, español (Latinoamérica), français, bahasa Indonesia, italiano, 日本語, 한국어, polski, português (Brasil), українська, 简体中文, 繁體中文, Deutsch oraz Türkçe
Co mogę zrobić po ukończeniu tego szkolenia?
Po ukończeniu szkolenia możesz zapoznać się z dodatkowymi materiałami ze swojej ścieżki szkoleniowej lub przejrzeć katalog.
Jakie odznaki mogę zdobyć?
Po szkoleniu otrzymasz odznakę potwierdzającą jego ukończenie. Odznaki możesz wyświetlać w swoim profilu i udostępniać w sieciach społecznościowych.
Chcesz wziąć udział w tym kursie u jednego z naszych partnerów udostępniających treści na żądanie?
Przejrzyj treści związane z Google Cloud w serwisie Coursera i Pluralsight.
Wolisz uczyć się z instruktorem?