Den här handledningen visar hur du paketerar en webbapplikation i en Docker-containerbild och kör den containerbilden på ett Google Kubernetes Engine (GKE)-kluster. Sedan distribuerar du webbapplikationen som en belastningsbalanserad uppsättning repliker som kan skalas efter dina användares behov ## Mål - Paketera en exempelwebbapplikation till en Docker-bild - Ladda upp Docker-bilden till Artifact Registry - Skapa ett GKE-kluster - Distribuera exempelappen i klustret - Hantera automatisk skalning för distributionen - Exponera exempelappen för internet - Implementera en ny version av exempelappen ## Kostar Denna handledning använder följande fakturerbara komponenter i Google Cloud: För att generera en kostnadsuppskattning baserad på din beräknade användning, använd priskalkylatorn När du är klar med den här självstudien kan du undvika fortsatt fakturering genom att ta bort resurserna du skapade. Mer information finns i Rensa ## Innan du börjar Utför följande steg för att aktivera Kubernetes Engine API: - Logga in på ditt Google Cloud-konto. Om du är ny på Google Cloud, skapa ett konto för att utvärdera hur våra produkter presterar i verkliga scenarier. Nya kunder får också $300 i gratis krediter för att köra, testa och distribuera arbetsbelastningar - I Google Cloud-konsolen, på projektväljarsidan, välj eller skapa ett Google Cloud-projekt - Se till att fakturering är aktiverat för ditt molnprojekt. Lär dig hur du kontrollerar om fakturering är aktiverat för ett projekt - Aktivera Artifact Registry och Google Kubernetes Engine API:er - I Google Cloud-konsolen, på projektväljarsidan, välj eller skapa ett Google Cloud-projekt - Se till att fakturering är aktiverat för ditt molnprojekt. Lär dig hur du kontrollerar om fakturering är aktiverat för ett projekt - Aktivera Artifact Registry och Google Kubernetes Engine API:er Alternativ A: Använd Cloud Shell Du kan följa denna handledning med Cloud Shell, som kommer förinstallerad med gcloud, hamnarbetare och kubectl kommandoradsverktyg som används i denna handledning. Om du använder Cloud Shell behöver du inte installera dessa kommandoradsverktyg på din arbetsstation Så här använder du Cloud Shell: - Gå till Google Cloud-konsolen Klicka på Aktivera Cloud Shell knappen högst upp i Google Cloud-konsolfönstret En Cloud Shell-session öppnas i en ny ram längst ned på Google Cloud-konsolen och visar en kommandorad Alternativ B: Använd kommandoradsverktyg lokalt Om du föredrar att följa den här handledningen på din arbetsstation, följ dessa steg för att installera nödvändiga verktyg Installera Google Cloud CLI Använd gcloud CLI, installera Kubernetes kommandoradsverktyg kubectlis används för att kommunicera med Kubernetes, som är klusterorkestreringssystemet för GKE-kluster: gcloud-komponenter installerar kubectl Installera Docker Community Edition (CE) på din arbetsstation. Du använder detta för att bygga en containerbild för applikationen Installera Git källkontrollverktyget för att hämta exempelapplikationen från GitHub ## Skapa ett arkiv I den här handledningen lagrar du en bild i Artifact Registry och distribuerar den från registret. Artifact Registry är det rekommenderade behållarregistret på Google Cloud. För den här snabbstarten skapar du ett arkiv med namnet hej-repo Ställ in PROJECT_IDenvironment variabel till ditt Google Cloud-projekt-ID ( ). Du kommer att använda den här miljövariabeln när du bygger behållaravbildningen och skickar den till ditt arkiv PROJECT_ID exportera PROJECT_ID= PROJECT_ID Bekräfta att PROJECT_IDenvironment-variabeln har rätt värde: echo $PROJECT_ID Ställ in ditt projekt-ID för Google Cloud CLI: gcloud config set projekt $PROJECT_ID Produktion: Uppdaterad egenskap [kärna/projekt] Skapa hello-repository med följande kommando: gcloud artefakter förråd skapa hello-repo \ --repository-format=docker \ --location= REGION\ --description="Docker repository"Byta ut med en region för förvaret, som t.ex OMRÅDE us-west1. För att se en lista över tillgängliga platser, kör kommandot: gcloud-artefakters platslista ## Bygga behållarbilden I den här självstudien distribuerar du en exempelwebb ansökan kallas hej-app, en webbserver skriven in Go som svarar på alla förfrågningar med meddelandet Hej världen! på port 8080 GKE accepterar Docker-avbildningar som applikationsdistributionsformat Innan du distribuerar hej-app till GKE, du måste paketera de hello-app källkod som en Docker-bild För att bygga en Docker-bild behöver du källkod och en Dockerfil. En Dockerfil innehåller instruktioner om hur bilden är byggd Ladda ner hello-appsource code och Dockerfile genom att köra följande kommandon: git-klon httpsgithub.com/GoogleCloudPlatform/kubernetes-engine-samples cd kubernetes-engine-samples/hello-app Bygg och tagga Docker-bilden för hej-app: hamnarbygge -t REGION-docker.pkg.devPROJECT_ID}/hello-repo/hello-app:v1 Detta kommando instruerar Docker att bygga bilden med hjälp av Dockerfila den aktuella katalogen, spara den i din lokala miljö och tagga den med ett namn, t.ex us-west1-docker.pkg.dev/my-project/hello-repo/hello-app:v1. Bilden skjuts till Artifact Registry i nästa avsnitt - Den PROJECT_IDvariabel associerar behållarbilden med hello-repository i ditt Google Cloud-projekt - Den us-west1-docker.pkg.devprefix hänvisar till Artifact Registry, regional värd för ditt arkiv - Den Springa det docker imageskommando för att verifiera att konstruktionen lyckades: docker-bilder Produktion: FÖRVARINGSTAGG BILD-ID SKAPAD STORLEK us-west1-docker.pkg.dev/my-project/hello-repo/hello-app v1 25cfadb1bf28 10 sekunder sedan 54 MB ## Köra din behållare lokalt (valfritt) Testa din containerbild med din lokala Docker-motor: docker run --rm -p 8080:8080 REGION-docker.pkg.devPROJECT_ID}/hello-repo/hello-app:v1 Om du använder Cloud Shell klickar du på Knapp för webbförhandsgranskning och välj sedan 8080portnummer. GKE öppnar förhandsgranskningsadressen på sin proxytjänst i ett nytt webbläsarfönster Annars öppnar du ett nytt terminalfönster (eller en Cloud Shell-flik) och kör följande kommando för att verifiera att behållaren fungerar och svarar på förfrågningar med "Hello, World curl httplocalhost:8080 När du har sett ett lyckat svar kan du sänka behållaren genom att trycka på Ctrl+C på fliken där docker runcommand körs ## Trycker Docker-bilden till Artifact Registry Du måste ladda upp behållaravbildningen till ett register så att ditt GKE-kluster kan ladda ner och köra behållaravbildningen. I den här handledningen kommer du att lagra din behållare i Artifact Registry Konfigurera kommandoradsverktyget Docker för att autentisera till Artifact Registry: gcloud auth configure-docker REGION-docker.pkg.dev Skjut Docker-bilden som du just byggde till förvaret: hamnarbetare REGION-docker.pkg.devPROJECT_ID}/hello-repo/hello-app:v1 ## Skapa ett GKE-kluster Nu när Docker-bilden är lagrad i Artifact Registry, skapa en GKE klunga att springa hej-app. Ett GKE-kluster består av en pool av Compute Engine VM-instanser kör Kubernetes, klusterorkestreringen med öppen källkod system som driver GKE Molnskal Ställ in din Compute Engine-zon eller region. Beroende på vilket driftläge du väljer att använda i GKE, ange en standardzon eller region. Om du använder standardläget är ditt kluster zon (för denna handledning), så ställ in din standardberäkningszon. Om du använder autopilotläget är ditt kluster regionalt, så ställ in ditt standardberäkningsområde. Välj en zon eller region som ligger närmast artefaktregistret som du skapade Standardkluster, som t.ex us-west1-a: gcloud config set compute/zone COMPUTE_ZONE Autopilotkluster, t.ex us-west1: gcloud config set compute/region COMPUTE_REGION - Skapa ett kluster med namnet hej-kluster: Standardkluster: gcloud-behållarkluster skapar hello-kluster Autopilotkluster: gcloud-behållarkluster create-auto hello-cluster Det tar några minuter för ditt GKE-kluster att skapas och hälsokontrolleras - När kommandot är klart, kör följande kommando för att se klustrets tre noder: kubectl hämta noder Produktion: NAMN STATUS ROLLER ÅLDER VERSION gke-hello-cluster-default-pool-229c0700-cbtd Klar 92s v1.18.12-gke.1210 gke-hello-cluster-default-pool-229c0700-fc5j Ready 91s v1.18.12-gke.1210 gke-hello-cluster-default-pool-229c0700-n9l7 Ready 92s v1.18.12-gke.1210 Console Go to the Google Kubernetes Enginepage in the Google Cloud console Go to Google Kubernetes Engine Click Create Choose Standard or Autopilot mode and click Configure In the Namefield, enter the name hello-cluster Select a zone or region: Standardcluster: Under Location type, select Zonaland then select a Compute Engine zone from the Zonedrop-down list, such as us-west1-a Autopilotcluster: Select a Compute Engine region from the Regiondrop-down list, such as us-west1 - Click Create. This creates a GKE cluster Wait for the cluster to be created. When the cluster is ready, a green check mark appears next to the cluster name ## Deploying the sample app to GKE You are now ready to deploy the Docker image you built to your GKE cluster Kubernetes represents applications as Pods, which are scalable units holding one or more containers. The Pod is the smallest deployable unit in Kubernetes. Usually, you deploy Pods as a set of replicas that can be scaled and distributed together across your cluster. One way to deploy a set of replicas is through a Kubernetes Deployment In this section, you create a Kubernetes Deployment to run hello-app on your cluster. This Deployment has replicas (Pods). One Deployment Pod contains only one container: the hello-app Docker image You also create a HorizontalPodAutoscaler resource that scales the number of Pods from 3 to a number between 1 and 5, based on CPU load Cloud Shell Ensure that you are connected to your GKE cluster gcloud container clusters get-credentials hello-cluster --zone COMPUTE_ZONE Create a Kubernetes Deployment for your hello-appDocker image kubectl create deployment hello-app --image= REGION-docker.pkg.devPROJECT_ID}/hello-repo/hello-app:v1 Set the baseline number of Deployment replicas to 3 kubectl scale deployment hello-app --replicas=3 Create a HorizontalPodAutoscalerresource for your Deployment kubectl autoscale deployment hello-app --cpu-percent=80 --min=1 --max=5 To see the Pods created, run the following command: kubectl get pods Output: NAME READY STATUS RESTARTS AGE hello-app-784d7569bc-hgmpx 1/1 Running 0 10s hello-app-784d7569bc-jfkz5 1/1 Running 0 10s hello-app-784d7569bc-mnrrl 1/1 Running 0 15s Console Go to the Workloadspage in the Google Cloud console Click Deploy In the Specify containersection, select Existing container image In the Image pathfield, click Select In the Select container imagepane, select the hello-appimage you pushed to Artifact Registry and click Select In the Containersection, click Done, then click Continue In the Configurationsection, under Labels, enter appfor Keyand hello-appfor Value Under Configuration YAML, click View YAML. This opens a YAML configuration file representing the two Kubernetes API resources about to be deployed into your cluster: one Deployment, and one HorizontalPodAutoscalerfor that Deployment Click Close, then click Deploy When the Deployment Pods are ready, the Deployment detailspage opens Under Managed pods, note the three running Pods for the hello-appDeployment ## Exposing the sample app to the internet While Pods do have individually-assigned IP addresses, those IPs can only be reached from inside your cluster. Also, GKE Pods are designed to be ephemeral, starting or stopping based on scaling needs. And when a Pod crashes due to an error, GKE automatically redeploys that Pod, assigning a new Pod IP address each time What this means is that for any Deployment, the set of IP addresses corresponding to the active set of Pods is dynamic. We need a way to 1) group Pods together into one static hostname, and 2) expose a group of Pods outside the cluster, to the internet Kubernetes Services solve for both of these problems Services group Pods into one static IP address, reachable from any Pod inside the cluster GKE also assigns a DNS hostname to that static IP. For example, hello-app.default.svc.cluster.local The default Service type in GKE is called ClusterIP, where the Service gets an IP address reachable only from inside the cluster To expose a Kubernetes Service outside the cluster, create a Service of type LoadBalancer This type of Service spawns an External Load Balancer IP for a set of Pods, reachable through the internet In this section, you expose the hello-app Deployment to the internet using a Service of type LoadBalancer Cloud Shell Use the kubectl exposecommand to generate a Kubernetes Service for the hello-appdeployment: kubectl expose deployment hello-app --name=hello-app-service --type=LoadBalancer --port 80 --target-port 8080 Here, the --portflag specifies the port number configured on the Load Balancer, and the --target-portflag specifies the port number that the hello-appcontainer is listening on Run the following command to get the Service details for hello-app-service: kubectl get service Output: NAME CLUSTER-IP EXTERNAL-IP PORT(S) AGE hello-app-service 10.3.251.122 203.0.113.0 80:30877/TCP 10s Copy the EXTERNAL_IPaddress to the clipboard (for instance: 203.0.113.0) Console Go to the Workloadspage in the Google Cloud console Click hello-app From the Deployment details page, click Actions > Expose In the Exposedialog, set the Target portto 8080. This is the port the hello-appcontainer listens on From the Service typedrop-down list, select Load balancer Click Exposeto create a Kubernetes Service for hello-app When the Load Balancer is ready, the Service detailspage opens Scroll down to the External endpointsfield, and copy the IP address Now that the hello-app Pods are exposed to the internet through a Kubernetes Service, you can open a new browser tab, and navigate to the Service IP address you copied to the clipboard. A Hello, World! message appears, along with a Hostname field. The Hostname corresponds to one of the three hello-app Pods serving your HTTP request to your browser ## Deploying a new version of the sample app In this section, you upgrade hello-app to a new version by building and deploying a new Docker image to your GKE cluster GKE's rolling update feature lets you update your Deployments without downtime. During a rolling update, your GKE cluster incrementally replaces the existing hello-app Pods with Pods containing the Docker image for the new version During the update, your load balancer service routes traffic only into available Pods Return to Cloud Shell, where you have cloned the hello app source code and Dockerfile. Update the function hello()in the main.gofile to report the new version 2.0.0 Build and tag a new hello-appDocker image docker build -t REGION-docker.pkg.devPROJECT_ID}/hello-repo/hello-app:v2 Push the image to Artifact Registry docker push REGION-docker.pkg.devPROJECT_ID}/hello-repo/hello-app:v2 Now you're ready to update your hello-app Kubernetes Deployment to use a new Docker image Cloud Shell Apply a rolling update to the existing hello-appDeployment with an image update using the kubectl set imagecommand: kubectl set image deployment/hello-app hello-app= REGION-docker.pkg.devPROJECT_ID}/hello-repo/hello-app:v2 Watch the running Pods running the v1image stop, and new Pods running the v2image start watch kubectl get pods Output: NAME READY STATUS RESTARTS AGE hello-app-89dc45f48-5bzqp 1/1 Running 0 2m42s hello-app-89dc45f48-scm66 1/1 Running 0 2m40s In a separate tab, navigate again to the hello-app-serviceExternal IP. You should now see the Versionset to 2.0.0 Console Go to the Workloadspage in the Google Cloud console Click hello-app On the Deployment detailspage, click Actions > Rolling update In the Rolling updatedialog, set the Image of hello-appfield to REGION-docker.pkg.dev/ PROJECT_ID/hello-repo/hello-app:v2 Click Update On the Deployment detailspage, inspect the Active Revisionssection. You should now see two Revisions, 1 and 2. Revision 1 corresponds to the initial Deployment you created earlier. Revision 2 is the rolling update you just started After a few moments, refresh the page. Under Managed pods, all of the replicas of hello-appnow correspond to Revision 2 In a separate tab, navigate again to the Service IP address you copied. The Versionshould be 2.0.0 ## Clean up To avoid incurring charges to your Google Cloud account for the resources used in this tutorial, either delete the project that contains the resources, or keep the project and delete the individual resources Delete the Service:This deallocates the Cloud Load Balancer created for your Service: kubectl delete service hello-app-service Delete the cluster:This deletes the resources that make up the cluster, such as the compute instances, disks, and network resources: gcloud container clusters delete hello-cluster --zone COMPUTE_ZONE Delete your container images:This deletes the Docker images you pushed to Artifact Registry gcloud artifacts docker images delete REGION-docker.pkg.devPROJECT_ID}/hello-repo/hello-app:v1 \ --delete-tags --quiet gcloud artifacts docker images delete \ REGION-docker.pkg.devPROJECT_ID}/hello-repo/hello-app:v2 \ --delete-tags --quiet ## What's next Learn about Pricing for GKE and use the Pricing Calculator to estimate costs Read the Load Balancers tutorial, which demonstrates advanced load balancing configurations for web applications Configure a static IP and domain name for your application Explore other Kubernetes Engine tutorials Explore reference architectures, diagrams, tutorials, and best practices about Google Cloud. Take a look at our Cloud Architecture Center ## Try it for yourself If you're new to Google Cloud, create an account to evaluate how GKE performs in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.Try GKE free