Sprawdź swoją wiedzę i podziel się nią ze społecznością.
GSP662
Opis
Jest wiele sposobów wdrażania witryn internetowych w Google Cloud. Każde z tych rozwiązań oferuje inne funkcje, możliwości i poziomy kontroli. Compute Engine zapewnia szczegółową kontrolę nad infrastrukturą, w której działa witryna, ale jednocześnie ma trochę większe wymagania w zakresie zarządzania operacyjnego w porównaniu z takimi rozwiązaniami, jak Google Kubernetes Engine (GKE), App Engine i inne. Compute Engine daje Ci pełną kontrolę nad wieloma aspektami infrastruktury, w tym maszynami wirtualnymi, systemami równoważenia obciążenia i nie tylko.
W tym module wdrożysz przykładową aplikację sklepu internetowego „Fancy Store”. Przekonasz się, jak łatwo jest wdrażać i skalować strony internetowe za pomocą Compute Engine.
Na końcu modułu będziesz mieć instancje w zarządzanych grupach instancji, które zapewniają automatyczną naprawę, równoważenie obciążenia, autoskalowanie i aktualizacje kroczące Twojej witryny.
Konfiguracja i wymagania
Zanim klikniesz przycisk Rozpocznij moduł
Zapoznaj się z tymi instrukcjami. Moduły mają limit czasowy i nie można ich zatrzymać. Gdy klikniesz Rozpocznij moduł, na liczniku wyświetli się informacja o tym, na jak długo udostępniamy Ci zasoby Google Cloud.
W tym praktycznym module możesz spróbować swoich sił w wykonywaniu opisywanych działań w prawdziwym środowisku chmury, a nie w jego symulacji lub wersji demonstracyjnej. Otrzymasz nowe, tymczasowe dane logowania, dzięki którym zalogujesz się i uzyskasz dostęp do Google Cloud na czas trwania modułu.
Do ukończenia modułu potrzebne będą:
Dostęp do standardowej przeglądarki internetowej (zalecamy korzystanie z przeglądarki Chrome).
Uwaga: uruchom ten moduł w oknie incognito (zalecane) lub przeglądania prywatnego. Dzięki temu unikniesz konfliktu między swoim kontem osobistym a kontem do nauki, co mogłoby spowodować naliczanie dodatkowych opłat na koncie osobistym.
Odpowiednia ilość czasu na ukończenie modułu – pamiętaj, że gdy rozpoczniesz, nie możesz go wstrzymać.
Uwaga: w tym module używaj tylko konta do nauki. Jeśli użyjesz innego konta Google Cloud, mogą na nim zostać naliczone opłaty.
Rozpoczynanie modułu i logowanie się w konsoli Google Cloud
Kliknij przycisk Rozpocznij moduł. Jeśli moduł jest odpłatny, otworzy się okno, w którym możesz wybrać formę płatności.
Po lewej stronie znajduje się panel Szczegóły modułu z następującymi elementami:
przyciskiem Otwórz konsolę Google Cloud;
czasem, który Ci pozostał;
tymczasowymi danymi logowania, których musisz użyć w tym module;
innymi informacjami potrzebnymi do ukończenia modułu.
Kliknij Otwórz konsolę Google Cloud (lub kliknij prawym przyciskiem myszy i wybierz Otwórz link w oknie incognito, jeśli korzystasz z przeglądarki Chrome).
Moduł uruchomi zasoby, po czym otworzy nową kartę ze stroną logowania.
Wskazówka: otwórz karty obok siebie w osobnych oknach.
Uwaga: jeśli pojawi się okno Wybierz konto, kliknij Użyj innego konta.
W razie potrzeby skopiuj nazwę użytkownika znajdującą się poniżej i wklej ją w oknie logowania.
{{{user_0.username | "Username"}}}
Nazwę użytkownika znajdziesz też w panelu Szczegóły modułu.
Kliknij Dalej.
Skopiuj podane niżej hasło i wklej je w oknie powitania.
{{{user_0.password | "Password"}}}
Hasło znajdziesz też w panelu Szczegóły modułu.
Kliknij Dalej.
Ważne: musisz użyć danych logowania podanych w module. Nie używaj danych logowania na swoje konto Google Cloud.
Uwaga: korzystanie z własnego konta Google Cloud w tym module może wiązać się z dodatkowymi opłatami.
Na kolejnych stronach wykonaj następujące czynności:
Zaakceptuj Warunki korzystania z usługi.
Nie dodawaj opcji odzyskiwania ani uwierzytelniania dwuskładnikowego (ponieważ konto ma charakter tymczasowy).
Nie rejestruj się w bezpłatnych wersjach próbnych.
Poczekaj, aż na karcie otworzy się konsola Google Cloud.
Uwaga: aby uzyskać dostęp do produktów i usług Google Cloud, kliknij Menu nawigacyjne lub wpisz nazwę usługi albo produktu w polu Szukaj.
Aktywowanie Cloud Shell
Cloud Shell to maszyna wirtualna oferująca wiele narzędzi dla programistów. Zawiera stały katalog domowy o pojemności 5 GB i działa w Google Cloud. Dzięki wierszowi poleceń Cloud Shell zyskujesz dostęp do swoich zasobów Google Cloud.
Kliknij Aktywuj Cloud Shell na górze konsoli Google Cloud.
Kliknij te okna:
Przejdź przez okno z informacjami o Cloud Shell.
Zezwól Cloud Shell na używanie Twoich danych logowania w celu wywoływania interfejsu Google Cloud API.
Po połączeniu użytkownik od razu jest uwierzytelniony. Uruchomi się Twój projekt o identyfikatorze Project_ID. Dane wyjściowe zawierają wiersz z zadeklarowanym identyfikatorem Project_ID dla tej sesji:
Your Cloud Platform project in this session is set to {{{project_0.project_id | "PROJECT_ID"}}}
gcloud to narzędzie wiersza poleceń Google Cloud. Jest ono już zainstalowane w Cloud Shell i obsługuje funkcję autouzupełniania po naciśnięciu tabulatora.
(Opcjonalnie) Aby wyświetlić listę aktywnych kont, użyj tego polecenia:
gcloud auth list
Kliknij Autoryzuj.
Dane wyjściowe:
ACTIVE: *
ACCOUNT: {{{user_0.username | "ACCOUNT"}}}
To set the active account, run:
$ gcloud config set account `ACCOUNT`
(Opcjonalnie) Aby wyświetlić identyfikator projektu, użyj tego polecenia:
gcloud config list project
Dane wyjściowe:
[core]
project = {{{project_0.project_id | "PROJECT_ID"}}}
Uwaga: pełną dokumentację gcloud w Google Cloud znajdziesz w opisie gcloud CLI.
Ustawianie regionu i strefy
Niektóre zasoby Compute Engine znajdują się w regionach i strefach. Region to określona lokalizacja geograficzna, w której możesz uruchomić swoje zasoby. Każdy region zawiera co najmniej 1 strefę.
Aby ustawić domyślny region i strefę dla Twojego modułu, uruchom te polecenia gcloud w konsoli Cloud:
gcloud config set compute/zone "{{{project_0.default_zone|ZONE}}}"
export ZONE=$(gcloud config get compute/zone)
gcloud config set compute/region "{{{project_0.default_region|REGION}}}"
export REGION=$(gcloud config get compute/region)
Zadanie 1. Włączanie interfejsu Compute Engine API
W zasobniku Cloud Storage będziesz przechowywać utworzony kod oraz skrypty startowe.
Wykonaj w Cloud Shell to polecenie, aby utworzyć nowy zasobnik Cloud Storage:
gsutil mb gs://fancy-store-$DEVSHELL_PROJECT_ID
Uwaga: użycie zmiennej środowiskowej $DEVSHELL_PROJECT_ID w Cloud Shell zapewnia unikalność nazw obiektów. Ponieważ identyfikatory wszystkich projektów w Google Cloud muszą być unikalne, dołączenie identyfikatora projektu powinno sprawić, że inne nazwy również będą unikalne.
Kliknij Sprawdź postępy, aby zobaczyć, jak Ci poszło.
Utworzenie zasobnika Cloud Storage
Zadanie 3. Klonowanie repozytorium źródłowego
Podstawą Twojej witryny będzie istniejąca witryna handlu elektronicznego Fancy Store oparta na repozytorium monolith-to-microservices.
Skopiuj kod źródłowy, by skoncentrować się na aspektach wdrażania w Compute Engine. Później w trakcie tego modułu przeprowadzisz niewielką aktualizację kodu, która pokaże, jak proste jest aktualizowanie w Compute Engine.
Skopiuj kod źródłowy i przejdź do katalogu monolith-to-microservices:
git clone https://github.com/googlecodelabs/monolith-to-microservices.git
cd ~/monolith-to-microservices
Wykonaj początkową kompilację kodu, by umożliwić lokalne uruchamianie aplikacji:
./setup.sh
Wykonanie tego skryptu zajmie kilka minut.
Po jego zakończeniu sprawdź, czy w Cloud Shell uruchomiona jest zgodna wersja nodeJS. Użyj tego polecenia:
nvm install --lts
Następnie uruchom poniższe polecenia, by przetestować aplikację, przejść do katalogu microservices i uruchomić serwer WWW:
cd microservices
npm start
Powinny się wyświetlić te dane wyjściowe:
Products microservice listening on port 8082!
Frontend microservice listening on port 8080!
Orders microservice listening on port 8081!
Kliknij ikonę podglądu w przeglądarce, aby wyświetlić podgląd aplikacji, a następnie wybierz Podejrzyj na porcie 8080.
Otworzy się nowe okno, w którym zobaczysz frontend sklepu Fancy Store.
Uwaga: po wybraniu opcji podglądu powinien być widoczny frontend. Strony Products i Orders nie będą jednak działać, ponieważ te usługi nie zostały jeszcze udostępnione.
Po przejrzeniu strony internetowej zamknij to okno i naciśnij CTRL+C w oknie terminala, by zatrzymać proces serwera WWW.
Zadanie 4. Tworzenie instancji Compute Engine
Teraz kolej na rozpoczęcie wdrażania instancji Compute Engine.
Wykonasz te czynności:
Utworzysz skrypt startowy służący do konfigurowania instancji.
Skopiujesz kod źródłowy i prześlesz go do Cloud Storage.
Wdrożysz instancję Compute Engine, która będzie hostować mikroserwisy backendu.
Ponownie skonfigurujesz kod frontendu w sposób umożliwiający korzystanie z instancji mikroserwisów backendu.
Wdrożysz instancję Compute Engine, która będzie hostować mikroserwis frontendu.
Skonfigurujesz sieć w sposób umożliwiający komunikację.
Tworzenie skryptu startowego
Skrypt startowy będzie służyć do tego, by instruować instancję, co ma robić, za każdym razem, gdy będzie uruchamiana. W ten sposób instancje zostaną automatycznie skonfigurowane.
Uruchom w Cloud Shell to polecenie, by utworzyć plik o nazwie startup-script.sh:
Będzie teraz dostępny w: https://storage.googleapis.com/[BUCKET_NAME]/startup-script.sh.
[BUCKET_NAME] reprezentuje nazwę zasobnika Cloud Storage. Domyślnie będzie widoczny tylko dla autoryzowanych użytkowników i kont usługi, a więc nie będzie dostępny za pomocą przeglądarki. Instancje Compute Engine będą automatycznie mieć do niego dostęp za pośrednictwem swoich kont usługi.
Skrypt startowy wykonuje te zadania:
Instaluje agenta logowania. Agent automatycznie zbiera logi z syslog.
Instaluje środowisko Node.js i system Supervisor. System Supervisor uruchamia aplikację jako demon.
Kopiuje kod źródłowy aplikacji z zasobnika Cloud Storage i instaluje zależności.
Konfiguruje w systemie Supervisor uruchamianie aplikacji. System Supervisor dba o to, by aplikacja była uruchamiana ponownie po nieoczekiwanym zakończeniu działania lub po zatrzymaniu przez administratora bądź inny proces. Wysyła także strumienie stdin i stderr do syslog, by umożliwić ich zbieranie przez agenta logowania.
Kopiowanie kodu do zasobnika Cloud Storage
Gdy instancje uruchamiają się, pobierają kod z zasobnika Cloud Storage, dlatego niektóre zmienne konfiguracyjne możesz przechowywać w kodzie w pliku .env.
Uwaga: możesz również zaprogramować pobieranie zmiennych środowiskowych z innego miejsca, ale do celów demonstracyjnych dobrze jest użyć tej prostej metody obsługi konfiguracji. W środowisku produkcyjnym zmienne środowiskowe byłyby prawdopodobnie przechowywane poza kodem.
Zapisz kopię kodu w zasobniku:
cd ~
rm -rf monolith-to-microservices/*/node_modules
gsutil -m cp -r monolith-to-microservices gs://fancy- store-$DEVSHELL_PROJECT_ID/
Uwaga: katalogi zależności node_modules są usuwane, by zapewnić jak najszybsze i najwydajniejsze działanie kopii. Są one odtwarzane w instancjach podczas ich uruchamiania.
Kliknij Sprawdź postępy, aby zobaczyć, jak Ci poszło.
Skopiowanie skryptu startowego i kodu do zasobnika Cloud Storage
Wdrażanie instancji backendowej
Pierwszą wdrożoną instancją będzie instancja backendowa udostępniająca mikroserwisy zamówień i produktów.
Uwaga: w środowisku produkcyjnym warto oddzielić poszczególne mikroserwisy i umieścić je we własnych instancjach oraz grupach instancji, co pozwala na ich niezależne skalowanie. Dla celów demonstracyjnych obydwa mikroserwisy backendu (do obsługi zamówień i produktów) będą się znajdować w tej samej instancji i grupie instancji.
Wykonaj poniższe polecenie, by utworzyć instancję e2-standard-2 skonfigurowaną do korzystania ze skryptu startowego. Jest ona oznaczona tagiem jako instancja backend, dlatego możesz do niej później zastosować konkretne reguły zapory sieciowej:
W eksploratorze Cloud Shell przejdź do folderu monolith-to-microservices > react-app.
W edytorze kodu wybierz View > Toggle Hidden Files, aby wyświetlić plik .env.
W następnym kroku zmodyfikujesz plik .env, by wskazywał zewnętrzny adres IP backendu. [BACKEND_ADDRESS] reprezentuje zewnętrzny adres IP instancji backendowej ustalony za pomocą powyższego polecenia gcloud.
W pliku .env zastąp ciąg znaków localhost adresem [BACKEND_ADDRESS]:
Po skonfigurowaniu kodu możesz wdrożyć instancję frontendową.
Aby wdrożyć instancję frontend, uruchom polecenie podobne do wcześniejszego. Na potrzeby zapory sieciowej ta instancja jest oznaczona tagiem frontend:
gcloud compute instances create frontend \
--zone=$ZONE \
--machine-type=e2-standard-2 \
--tags=frontend \
--metadata=startup-script-url=https://storage.googleapis.com/fancy-store-$DEVSHELL_PROJECT_ID/startup-script.sh
Uwaga: polecenie wdrażania i skrypt startowy są używane w przypadku instancji frontendowej oraz backendowej dla uproszczenia, a także ze względu na to, że w kodzie skonfigurowano domyślnie uruchamianie wszystkich mikroserwisów. W rezultacie w tym przykładzie wszystkie mikroserwisy są uruchamiane zarówno we frontendzie, jak i w backendzie. W środowisku produkcyjnym byłyby uruchamiane tylko te mikroserwisy, które są potrzebne w poszczególnych komponentach.
Konfigurowanie sieci
Utwórz reguły zapory sieciowej zezwalające na dostęp do portu 8080 w przypadku frontendu oraz do portów 8081 i 8082 w przypadku backendu. W tych poleceniach związanych z zaporami sieciowymi używane są tagi przypisane podczas tworzenia instancji dla aplikacji:
Aby przejść do zewnętrznego adresu IP frontendu, musisz znać ten adres. Uruchom to polecenie i znajdź adres znajdujący się w kolumnie EXTERNAL_IP wiersza odpowiadającego instancji frontend:
Uruchomienie i skonfigurowanie instancji może zająć kilka minut.
Odczekaj 3 minuty, a następnie otwórz nową kartę przeglądarki i otwórz stronę http://[FRONTEND_ADDRESS]:8080, aby uzyskać dostęp do witryny. Ciąg znaków [FRONTEND_ADDRESS] reprezentuje zewnętrzny adres IP frontendu określony powyżej.
Spróbuj otworzyć strony Products i Orders – powinny teraz działać.
Kliknij Sprawdź postępy, aby zobaczyć, jak Ci poszło.
Wdrożenie instancji i skonfigurowanie sieci
Zadanie 5. Tworzenie zarządzanych grup instancji
Aby umożliwić skalowanie aplikacji, zostaną utworzone zarządzane grupy instancji, które będą używać instancji frontend i backend jako szablonów instancji.
Zarządzana grupa instancji zawiera identyczne instancje, którymi możesz zarządzać jak pojedynczą encją w pojedynczej strefie. Zarządzane grupy instancji zapewniają wysoką dostępność aplikacji przez aktywne utrzymywanie instancji w stanie uruchomienia. Będziesz korzystać z zarządzanych grup instancji na potrzeby instancji frontendowych oraz backendowych do obsługi funkcji automatycznej naprawy, równoważenia obciążenia, autoskalowania i aktualizacji kroczących.
Tworzenie szablonu instancji z instancji źródłowej
Zanim utworzysz zarządzaną grupę instancji, musisz utworzyć szablon instancji, który będzie stanowić podstawę grupy. Szablony instancji pozwalają na zdefiniowanie typu maszyny, obrazu dysku rozruchowego lub obrazu kontenera, sieci oraz innych właściwości instancji używanych przy tworzeniu nowych instancji maszyn wirtualnych. Za pomocą szablonów instancji możesz tworzyć instancje w zarządzanej grupie instancji, a nawet poszczególne instancje.
Utwórz szablon instancji na podstawie wcześniej utworzonych przez Ciebie instancji.
Te zarządzane grupy instancji będą używać szablonów instancji. Są one skonfigurowane dla 2 instancji – każda będzie uruchamiana we własnej grupie. Nazwy instancji są tworzone automatycznie. Mają format ciągu znaków base-instance-name z dołączonymi losowymi znakami.
W Twojej aplikacji mikroserwis frontend działa na porcie 8080, a mikroserwis backend – na porcie 8081 (orders) i na porcie 8082 (products):
Ponieważ są to porty niestandardowe, określa się je za pomocą nazwanych portów. Nazwane porty to metadane w postaci par klucz-wartość reprezentujących nazwę usługi i port, w którym ona działa. Nazwane porty można przypisać do grupy instancji, co oznacza, że usługa jest dostępna we wszystkich instancjach w grupie. Te informacje są używane przez usługę równoważenia obciążenia HTTP, która zostanie skonfigurowana później.
Konfigurowanie automatycznej naprawy
Aby zwiększyć dostępność samej aplikacji i sprawdzić, czy odpowiada, skonfiguruj zasadę automatycznej naprawy dla zarządzanych grup instancji.
Zasada automatycznej naprawy opiera się na kontroli stanu aplikacji, która polega na sprawdzaniu, czy aplikacja odpowiada w oczekiwany sposób. Sprawdzenie, czy aplikacja odpowiada, jest bardziej szczegółowe niż zwykła weryfikacja stanu uruchomienia, co jest zachowaniem domyślnym.
Uwaga: w przypadku systemów równoważenia obciążenia oraz automatycznej naprawy stosowane są osobne kontrole stanu. Kontrole stanu związane z równoważeniem obciążenia mogą i powinny być bardziej agresywne, ponieważ umożliwiają określenie, czy do instancji dociera ruch generowany przez użytkowników. Pożądane jest szybkie identyfikowanie instancji, które nie odpowiadają, aby w razie potrzeby można było przekierować ruch.
W przeciwieństwie do tego kontrola stanu związana z automatyczną naprawą powoduje, że Compute Engine aktywnie zastępuje uszkodzone instancje. Z tego względu powinna być bardziej restrykcyjna niż w przypadku równoważenia obciążenia.
Dla usług frontend i backend utwórz kontrolę stanu powodującą naprawienie instancji, która 3 razy z rzędu sygnalizuje niepoprawny stan:
Kontynuuj moduł, by dać funkcji automatycznej naprawy dość czasu na rozpoczęcie monitorowania instancji w grupie. Aby przetestować automatyczną naprawę, na końcu modułu przeprowadzisz symulację uszkodzenia.
Kliknij Sprawdź postępy, aby zobaczyć, jak Ci poszło.
Utworzenie zarządzanych grup instancji
Zadanie 6. Tworzenie systemów równoważenia obciążenia
Zarządzane grupy instancji uzupełnisz systemami równoważenia obciążenia HTTP(S) służącymi do obsługi ruchu skierowanego do mikroserwisów frontendu i backendu, a także mapowaniami umożliwiającymi kierowanie ruchu do odpowiednich usług backendu na podstawie reguł określania ścieżek. Udostępnia to pojedynczy adres IP systemu równoważenia obciążenia dla wszystkich usług.
Google Cloud oferuje wiele różnych typów systemów równoważenia obciążenia. W tym module do obsługi ruchu używasz systemu równoważenia obciążenia HTTP(S). Struktura systemu równoważenia obciążenia HTTP jest taka:
Reguła przekierowania kieruje żądania przychodzące do docelowego serwera proxy HTTP.
Docelowy serwer proxy HTTP porównuje każde żądanie z mapą URL, aby określić dla niego odpowiednią usługę backendu.
Usługa backendu kieruje każde żądanie do odpowiedniego backendu na podstawie możliwości obsługi, strefy i stanu przyłączonych instancji backendowych. Stan każdej instancji backendowej jest weryfikowany przy użyciu kontroli stanu HTTP. Jeśli w usłudze backendu skonfigurowano użycie kontroli stanu HTTPS lub HTTP/2, w drodze do instancji backendowej żądanie zostaje zaszyfrowane.
W sesjach połączenia między systemem równoważenia obciążenia a instancją możesz używać protokołu HTTP, HTTPS lub HTTP/2. Jeśli chcesz używać protokołu HTTPS lub HTTP/2, każda instancja usług backendu musi mieć certyfikat SSL.
Uwaga: aby uniknąć komplikacji związanych z użyciem certyfikatów SSL, dla celów demonstracyjnych możesz użyć protokołu HTTP zamiast HTTPS. W środowiskach produkcyjnych zaleca się, by zawsze, gdy to możliwe, używać protokołu HTTPS, który umożliwia szyfrowanie.
Utwórz kontrole stanu, które będą używane do określenia instancji mogących obsłużyć ruch związany z poszczególnymi usługami
gcloud compute http-health-checks create fancy-fe-frontend-hc \
--request-path / \
--port 8080
gcloud compute http-health-checks create fancy-be-orders-hc \
--request-path /api/orders \
--port 8081
gcloud compute http-health-checks create fancy-be-products-hc \
--request-path /api/products \
--port 8082
Uwaga: te kontrole stanu są przeznaczone dla systemu równoważenia obciążenia i obsługują wyłącznie kierowanie ruchu z systemu równoważenia obciążenia. Nie zapewniają odtwarzania instancji w zarządzanych grupach instancji.
Utwórz docelowe usługi backendu dla ruchu z systemu równoważenia obciążenia. Usługi backendu będą korzystać z utworzonych kontroli stanu i nazwanych portów:
Kliknij Sprawdź postępy, aby zobaczyć, jak Ci poszło.
Utworzenie systemów równoważenia obciążenia HTTP(S)
Aktualizowanie konfiguracji
Teraz gdy masz już nowy statyczny adres IP, zaktualizuj kod instancji frontend w taki sposób, by wskazywał ten nowy adres zamiast używanego wcześniej adresu efemerycznego, który wskazywał instancję backend.
W Cloud Shell przejdź do folderu react-app, w którym znajduje się plik .env zawierający konfigurację:
Wróć do edytora Cloud Shell i ponownie zmodyfikuj plik .env tak, by wskazywał publiczny adres IP systemu równoważenia obciążenia. Ciąg znaków [LB_IP] reprezentuje zewnętrzny adres IP instancji backendowej określony powyżej.
REACT_APP_ORDERS_URL=http://[LB_IP]/api/orders
REACT_APP_PRODUCTS_URL=http://[LB_IP]/api/products
Uwaga: w nowym adresie porty są usunięte, ponieważ system równoważenia obciążenia jest skonfigurowany pod kątem obsługi tego przekierowania.
Zapisz plik.
Utwórz ponownie react-app. Zaktualizuje to kod frontendu:
cd ~/monolith-to-microservices/react-app
npm install && npm run-script build
Po opracowaniu nowego kodu i konfiguracji instancje frontendowe w zarządzanej grupie instancji powinny pobrać ten nowy kod.
Ponieważ instancje pobierają kod podczas ich uruchamiania, możesz uruchomić polecenie kroczącego restartu:
gcloud compute instance-groups managed rolling-action replace fancy-fe-mig \
--zone=$ZONE \
--max-unavailable 100%
Uwaga: w tym przykładzie zastąpień kroczących za pomocą parametru --max-unavailable wprost stwierdza się, że wszystkie maszyny można zastąpić natychmiast. Gdyby nie było tego parametru, polecenie zachowałoby aktywną instancję, restartując inne, aby zapewnić dostępność. Dla celów testowych określa się natychmiastowe zastąpienie wszystkich, gdyż jest to szybsze.
Kliknij Sprawdź postępy, aby zobaczyć, jak Ci poszło.
Zaktualizowanie instancji frontendowych
Testowanie witryny
Po uruchomieniu polecenia rolling-action replace zaczekaj 3 minuty na zakończenie przetwarzania instancji, a potem sprawdzaj stan instancji w zarządzanej grupie instancji. Uruchom to polecenie, by potwierdzić, że usługa jest sprawna (wyświetlony zostanie ciąg znaków HEALTHY):
Zaczekaj, aż ciąg znaków HEALTHY będzie wyświetlany w przypadku 2 usług.
Przykładowe dane wyjściowe:
backend: https://www.googleapis.com/compute/v1/projects/my-gce-codelab/zones/us-central1-a/instanceGroups/fancy-fe-mig
status:
healthStatus:
- healthState: HEALTHY
instance: https://www.googleapis.com/compute/v1/projects/my-gce-codelab/zones/us-central1-a/instances/fancy-fe-x151
ipAddress: 10.128.0.7
port: 8080
- healthState: HEALTHY
instance: https://www.googleapis.com/compute/v1/projects/my-gce-codelab/zones/us-central1-a/instances/fancy-fe-cgrt
ipAddress: 10.128.0.11
port: 8080
kind: compute#backendServiceGroupHealth
Uwaga: jeśli jedna instancja napotkała problem i jest niesprawna (ciąg znaków UNHEALTHY), powinna zostać automatycznie naprawiona. Zaczekaj, aż tak się stanie.
Jeśli po odczekaniu krótkiego czasu żadna instancja nie będzie sprawna (HEALTHY), oznacza to problem z konfiguracją instancji frontendowej, który uniemożliwia dostęp do niej przez port 8080. Przetestuj to, przechodząc do instancji bezpośrednio przez port 8080.
Gdy obie instancje będą wyświetlane na liście jako sprawne (HEALTHY), zakończ polecenie watch, naciskając CTRL+C.
Uwaga: aplikacja będzie dostępna pod adresem http://[LB_IP], gdzie [LB_IP] reprezentuje adres IP systemu równoważenia obciążenia, który możesz znaleźć za pomocą tego polecenia:
gcloud compute forwarding-rules list --global
Aplikację sprawdzisz w dalszej części tego modułu.
Zadanie 7. Skalowanie Compute Engine
Jak dotąd utworzyliśmy 2 zarządzane grupy instancji zawierające po 2 instancje każda. Ta konfiguracja jest w pełni funkcjonalna, jednak bez względu na obciążenie jest konfiguracją statyczną. Utworzymy zasadę autoskalowania opartą na wykorzystaniu, która umożliwi automatyczne skalowanie każdej zarządzanej grupy instancji.
Automatyczne zmienianie rozmiaru w zależności od wykorzystania
Aby utworzyć zasadę autoskalowania, uruchom te polecenia:
Polecenia te tworzą autoskalowanie w zarządzanych grupach instancji, które automatycznie dodaje instancje, gdy wykorzystanie wzrasta powyżej 60%, i usuwa je, gdy wykorzystanie systemu równoważenia obciążenia spada poniżej 60%.
Włączanie sieci dostarczania dtreści
Inną funkcją ułatwiającą skalowanie jest usługa sieci dostarczania treści, która zapewnia buforowanie frontendu.
Gdy użytkownik wysyła żądanie treści z systemu równoważenia obciążenia HTTP(S), żądanie to dociera do usługi Google Front End (GFE), która najpierw szuka odpowiedzi na żądanie użytkownika w pamięci podręcznej usługi Cloud CDN. Jeśli GFE znajdzie odpowiedź w pamięci podręcznej, wysyła ją do użytkownika. Nazywa się to trafieniem w pamięci podręcznej.
Jeśli GFE nie może znaleźć odpowiedzi na żądanie w pamięci podręcznej, wysyła żądanie bezpośrednio do backendu. Jeśli odpowiedź na to żądanie można umieścić w pamięci podręcznej, GFE zapisuje odpowiedź w pamięci podręcznej usługi Cloud CDN, by umożliwić jej użycie w kolejnych żądaniach.
Kliknij Sprawdź postępy, aby zobaczyć, jak Ci poszło.
Skalowanie Compute Engine
Zadanie 8. Aktualizowanie witryny
Aktualizowanie szablonu instancji
Istniejących szablonów instancji nie można modyfikować. Ponieważ jednak instancje są bezstanowe i cała konfiguracja jest zdefiniowana w skrypcie startowym, aby zmienić ustawienia szablonu, wystarczy zmienić szablon instancji. Wprowadzisz teraz prostą zmianę typu maszyny na większą i ją zastosujesz.
Wykonaj kroki poniżej:
Zaktualizuj instancję frontend, która jest podstawą szablonu instancji. Podczas aktualizacji zapisz plik w zaktualizowanej wersji obrazu szablonu instancji, a potem zaktualizuj szablon instancji, wdróż nowy szablon i sprawdź istnienie pliku w instancjach zarządzanej grupy instancji.
Zmodyfikuj typ maszyny szablonu instancji, zmieniając go z e2-standard-2 na e2-small.
Uruchom to polecenie, aby zmodyfikować typ maszyny instancji frontendowej:
Scenariusz: dział marketingu poprosił o zmianę strony głównej witryny. Ich zdaniem powinna zawierać więcej informacji o firmie i produktach, które sprzedaje.
Zadanie: dodaj więcej tekstu do strony głównej, by spełnić prośbę działu marketingu. Wygląda na to, że jeden z programistów przygotował już odpowiednie zmiany i umieścił je w pliku o nazwie index.js.new. Wystarczy skopiować ten plik do index.js i zmiany zostaną automatycznie zastosowane. Wykonaj poniższe instrukcje, by wprowadzić odpowiednie zmiany.
Uruchom te polecenia, aby skopiować zaktualizowany plik z poprawną nazwą:
cd ~/monolith-to-microservices/react-app/src/pages/Home
mv index.js.new index.js
Wyświetl treść pliku, by sprawdzić wprowadzone zmiany:
/*
Copyright 2019 Google LLC
Licensed under the Apache License, Version 2.0 (the "License");
you may not use this file except in compliance with the License.
You may obtain a copy of the License at
https://www.apache.org/licenses/LICENSE-2.0
Unless required by applicable law or agreed to in writing, software
distributed under the License is distributed on an "AS IS" BASIS,
WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
See the License for the specific language governing permissions and
limitations under the License.
*/
import React from "react";
import { Box, Paper, Typography } from "@mui/material";
export default function Home() {
return (
<Box sx={{ flexGrow: 1 }}>
<Paper
elevation={3}
sx={{
width: "800px",
margin: "0 auto",
padding: (theme) => theme.spacing(3, 2),
}}
>
<Typography variant="h5">Witamy w sklepie Fancy Store!</Typography>
<br />
<Typography variant="body1">
Zapoznaj się z naszą szeroką gamą produktów.
</Typography>
</Paper>
</Box>
);
}
Zaktualizowane zostały komponenty React, ale musisz jeszcze utworzyć aplikację React, by wygenerować pliki statyczne.
Uruchom to polecenie, by utworzyć aplikację React i skopiować ją do katalogu publicznego usługi monolith:
cd ~/monolith-to-microservices/react-app
npm install && npm run-script build
Uwaga: w tym przykładzie kroczącego restartu za pomocą parametru --max-unavailable wprost stwierdza się, że wszystkie maszyny można zastąpić natychmiast. Gdyby nie było tego parametru, polecenie zachowałoby aktywną instancję podczas zastępowania innych. Dla celów testowych określa się natychmiastowe zastąpienie wszystkich, gdyż jest to szybsze. W środowisku produkcyjnym pozostawienie bufora umożliwiłoby ciągłe działanie witryny podczas jej aktualizacji.
Kliknij Sprawdź postępy, aby zobaczyć, jak Ci poszło.
Zaktualizowanie witryny
Po uruchomieniu polecenia rolling-action replace zaczekaj 3 minuty na zakończenie przetwarzania instancji, a potem sprawdzaj stan instancji w zarządzanej grupie instancji. Uruchom to polecenie, by potwierdzić, że usługa jest sprawna (wyświetlony zostanie ciąg znaków HEALTHY):
Gdy instancje pojawią się na liście ze stanem HEALTHY, zakończ polecenie watch, naciskając CTRL+C.
Otwórz witrynę dostępną pod adresem http://[LB_IP], gdzie [LB_IP] reprezentuje adres IP systemu równoważenia obciążenia, który możesz znaleźć za pomocą tego polecenia:
gcloud compute forwarding-rules list --global
Nowe zmiany w witrynie powinny być teraz widoczne.
Symulacja uszkodzenia
Aby potwierdzić działanie kontroli stanu, zaloguj się w instancji i zatrzymaj usługi.
Skopiuj nazwę instancji, a potem uruchom bezpieczną powłokę w instancji za pomocą poniższego polecenia, w którym [INSTANCE_NAME] jest nazwą jednej z instancji z listy:
gcloud compute ssh [INSTANCE_NAME] --zone=$ZONE
Wpisz „y”, aby potwierdzić, i dwukrotnie naciśnij klawisz Enter, by nie używać hasła.
Będąc w instancji, zatrzymaj aplikację za pomocą polecenia supervisorctl:
watch -n 2 gcloud compute operations list \
--filter='operationType~compute.instances.repair.*'
Ich wykonanie może potrwać kilka minut.
Szukaj danych wyjściowych podobnych do poniższych przykładowych:
NAME TYPE TARGET HTTP_STATUS STATUS TIMESTAMP
repair-1568314034627-5925f90ee238d-fe645bf0-7becce15 compute.instances.repair.recreateInstance us-central1-a/instances/fancy-fe-1vqq 200 DONE 2019-09-12T11:47:14.627-07:00
Zarządzana grupa instancji odtworzyła instancję, aby ją naprawić.
Możesz też otworzyć Menu nawigacyjne > Compute Engine > Instancje maszyn wirtualnych, aby monitorować dane w konsoli.
Gratulacje!
Udało Ci się wdrożyć, przeskalować i zaktualizować witrynę w Compute Engine. Wiesz już, co to jest Compute Engine i na czym polega działanie zarządzanych grup instancji, systemów równoważenia obciążenia oraz kontroli stanu.
…pomogą Ci wykorzystać wszystkie możliwości technologii Google Cloud. Nasze zajęcia obejmują umiejętności techniczne oraz sprawdzone metody, które ułatwią Ci szybką naukę i umożliwią jej kontynuację. Oferujemy szkolenia na poziomach od podstawowego po zaawansowany prowadzone w trybach wirtualnym, na żądanie i na żywo, dzięki czemu możesz dopasować program szkoleń do swojego napiętego harmonogramu. Certyfikaty umożliwią udokumentowanie i potwierdzenie Twoich umiejętności oraz doświadczenia w zakresie technologii Google Cloud.
Ostatnia aktualizacja instrukcji: 26 kwietnia 2024 r.
Ostatni test modułu: 15 grudnia 2023 r.
Copyright 2025 Google LLC. Wszelkie prawa zastrzeżone. Google i logo Google są znakami towarowymi Google LLC. Wszelkie inne nazwy firm i produktów mogą być znakami towarowymi odpowiednich podmiotów, z którymi są powiązane.
Labs create a Google Cloud project and resources for a fixed time
Labs have a time limit and no pause feature. If you end the lab, you'll have to restart from the beginning.
On the top left of your screen, click Start lab to begin
Use private browsing
Copy the provided Username and Password for the lab
Click Open console in private mode
Sign in to the Console
Sign in using your lab credentials. Using other credentials might cause errors or incur charges.
Accept the terms, and skip the recovery resource page
Don't click End lab unless you've finished the lab or want to restart it, as it will clear your work and remove the project
Ta treść jest obecnie niedostępna
Kiedy dostępność się zmieni, wyślemy Ci e-maila z powiadomieniem
Świetnie
Kiedy dostępność się zmieni, skontaktujemy się z Tobą e-mailem
One lab at a time
Confirm to end all existing labs and start this one
Use private browsing to run the lab
Use an Incognito or private browser window to run this lab. This
prevents any conflicts between your personal account and the Student
account, which may cause extra charges incurred to your personal account.
Wdróż i przeskaluj aplikację internetową w Google Compute Engine.
Czas trwania:
Konfiguracja: 0 min
·
Dostęp na 90 min
·
Ukończono w 45 min