Elastic可觀測性是通過Kibana可視化能力,將日志、指標及APM數據結合在一起,實現對容器數據的觀測和分析。當您的應用程序以Pods方式部署在Kubernetes中,可以在Kibana中查看Pods生成日志、主機和網絡上的事件指標及APM數據,逐步縮小排查范圍進行故障排查。本文介紹具體的實現方法。

前提條件

背景信息

本文介紹如何使用Elastic實現對Kubernetes容器的全方位檢測,具體內容如下:

關于Metricbeat、Filebeat及APM更多的特性說明,請參見Infrastructure monitoringLog monitoringElastic APM

通過Metricbeat實現指標采集

在Kubernetes上部署Metricbeat,有以下兩種方式:
  • DaemonSet:保證每個節點運行一個Pod,可以實現對Host指標、System指標、Docker統計信息以及Kubernetes上運行的所有服務指標的采集。
  • Deployment:部署單個Metricbeat實例,該實例用于檢索整個集群的唯一指標,如kubernetes event或者kube-state-metrics。
重要
  • 本文以同時使用DaemonSet和Deployment的部署方式為例介紹如何部署Metricbeat容器,您也可以僅使用DaemonSet方式或Deployment方式進行部署。
  • Metricbeat依賴kube-state-metrics監控,部署前需要確保已完成kube-state-metrics的部署。阿里云ACK容器默認在arms-prom命名空間下部署了kube-state-metrics監控。
  1. 通過kubectl訪問云容器,下載Metricbeat配置文件。
    curl -L -O https://raw.githubusercontent.com/elastic/beats/6.8/deploy/kubernetes/metricbeat-kubernetes.yaml
  2. 修改Metricbeat配置文件。
    重要

    官方下載的YML文件中,DaemonSets和Deployments的資源使用extensions/v1beta1,而v1.18及以上版本的Kubernetes,DaemonSets、Deployments和Replicasets資源的extensions/v1beta1 API將被廢棄,請使用apps/v1。

    1. 修改kind: Deploymentkind: DaemonSet下的配置信息。
      • 修改環境變量,具體內容如下:
        env:
        - name: ELASTICSEARCH_HOST
          value: es-cn-nif23p3mo0065****.elasticsearch.aliyuncs.com
        - name: ELASTICSEARCH_PORT
          value: "9200"
        - name: ELASTICSEARCH_USERNAME
          value: elastic
        - name: ELASTICSEARCH_PASSWORD
          value: ****
        - name: KIBANA_HOST
          value: es-cn-nif23p3mo0065****-kibana.internal.elasticsearch.aliyuncs.com
        - name: KIBANA_PORT
          value: "5601"
        說明 下載的Metricbeat配置文件中默認未定義Kibana相關變量,可以通過容器env傳入變量信息。
        參數 說明
        ELASTICSEARCH_HOST 阿里云Elasticsearch實例的私網地址。
        ELASTICSEARCH_PORT 阿里云Elasticsearch實例的私網端口。
        ELASTICSEARCH_USERNAME 阿里云Elasticsearch的用戶名,默認值elastic。
        ELASTICSEARCH_PASSWORD elastic用戶的密碼。
        KIBANA_HOST Kibana私網地址。
        KIBANA_PORT Kibana私網端口。
      • 增加spec.selector配置信息,具體內容如下:
        ## kind: DaemonSet
        spec:
          selector:
            matchLabels:
               k8s-app: metricbeat
          template:
            metadata:
              labels:
                k8s-app: metricbeat
        
        ## kind: Deployment
        spec:
          selector:
            matchLabels:
               k8s-app: metricbeat
          template:
            metadata:
              labels:
                k8s-app: metricbeat
    2. 分別在name: metricbeat-daemonset-configname: metricbeat-deployment-config下,配置Kibana Output信息,調用文件中配置的環境變量。
      output.elasticsearch:
            hosts: ['${ELASTICSEARCH_HOST:elasticsearch}:${ELASTICSEARCH_PORT:9200}']
            username: ${ELASTICSEARCH_USERNAME}
            password: ${ELASTICSEARCH_PASSWORD}
      setup.kibana:
            host: "https://${KIBANA_HOST}:${KIBANA_PORT}"
      setup.dashboards.enabled: true
    3. 修改metricbeat-daemonset-modules配置,定義system模塊監控的cpu、load、memory、network等系統指標,以及kubernetes模塊可以獲取的監控指標。
      說明 關于Metricbeat更多的模塊配置及指標說明,請參見 System moduleKubernetes module
      apiVersion: v1
      kind: ConfigMap
      metadata:
        name: metricbeat-daemonset-modules
        namespace: kube-system
        labels:
          k8s-app: metricbeat
      data:
        system.yml: |-
          - module: system
            period: 10s
            metricsets:
              - cpu
              - load
              - memory
              - network
              - process
              - process_summary
              - core
              - diskio
              - socket
            processes: ['.*']
            process.include_top_n:
              by_cpu: 5      # include top 5 processes by CPU
              by_memory: 5   # include top 5 processes by memory
      
          - module: system
            period: 1m
            metricsets:
              - filesystem
              - fsstat
            processors:
            - drop_event.when.regexp:
                system.filesystem.mount_point: '^/(sys|cgroup|proc|dev|etc|host|lib)($|/)'
        kubernetes.yml: |-
          - module: kubernetes
            metricsets:
              - node
              - system
              - pod
              - container
              - volume
            period: 10s
            host: ${NODE_NAME}
            hosts: ["localhost:10255"]
    4. 修改metricbeat-deployment-modules配置,獲取kube-state-metric監控指標和event服務指標。
      重要 Metricbeat服務創建在kube-system的namespace下,kube-state-metrics默認創建在arms-prom的namespace下,由于namespace不同,所以hosts的命名格式為kube-state-metrics.<namespace>:8080。如果Metricbeat服務與kube-state-metrics模塊都創建在同一namespace下,則hosts的命名格式為kube-state-metrics:8080。
      apiVersion: v1
      kind: ConfigMap
      metadata:
        name: metricbeat-deployment-modules
        namespace: kube-system
        labels:
          k8s-app: metricbeat
      data:
        # This module requires `kube-state-metrics` up and running under `kube-system` namespace
        kubernetes.yml: |-
          - module: kubernetes
            metricsets:
              - state_node
              - state_deployment
              - state_replicaset
              - state_pod
              - state_container
            period: 10s
            host: ${NODE_NAME}
            hosts: ["kube-state-metrics.arms-prom:8080"]
          # Uncomment this to get k8s events:
          - module: kubernetes
            metricsets:
              - event
    5. 配置RBAC權限聲明,保證Metricbeat可以獲取到Kubernetes集群資源信息。
      apiVersion: rbac.authorization.k8s.io/v1beta1
      kind: ClusterRoleBinding
      metadata:
        name: metricbeat
      subjects:
      - kind: ServiceAccount
        name: metricbeat
        namespace: kube-system
      roleRef:
        kind: ClusterRole
        name: metricbeat
        apiGroup: rbac.authorization.k8s.io
      ---
      apiVersion: rbac.authorization.k8s.io/v1beta1
      kind: ClusterRole
      metadata:
        name: metricbeat
        labels:
          k8s-app: metricbeat
      rules:
      - apiGroups: [""]
        resources:
        - nodes
        - namespaces
        - events
        - pods
        verbs: ["get", "list", "watch"]
      - apiGroups: ["extensions"]
        resources:
        - replicasets
        verbs: ["get", "list", "watch"]
      - apiGroups: ["apps"]
        resources:
        - statefulsets
        - deployments
        verbs: ["get", "list", "watch"]
      - apiGroups:
        - ""
        resources:
        - nodes/stats
        verbs:
        - get
      ---
      apiVersion: v1
      kind: ServiceAccount
      metadata:
        name: metricbeat
        namespace: kube-system
        labels:
          k8s-app: metricbeat
      ---
  3. 部署Metricbeat,并查看資源狀態。

    通過kubectl執行以下命令:

    kubectl apply -f metricbeat-kubernetes.yaml
    kubectl get pods -n kube-system
    重要 請確保Pods資源均處于Running狀態,否則在Kibana平臺有可能會看不到相應數據。
  4. 在Kibana查看監測數據。
    1. 登錄目標阿里云Elasticsearch實例的Kibana控制臺。
      具體操作步驟請參見 登錄Kibana控制臺
    2. 單擊左側菜單Infrastructure
    3. 查看Hosts、Kubernetes Pods對應的Metrics信息。
      • 查看Hosts對應的Metrics信息:單擊右上角Hosts,在Map View頁簽下,單擊指定Host,選擇View metrics,就可以查看對應的CPU、Load、Memory等指標數據。
        Hosts Host metrics
      • 查看Kubernetes Pods對應的Metrics信息:單擊右上角Kubernetes,在Map View頁簽下,單擊指定Pod,選擇View metrics,就可以查看對應的CPU、Memory、Network等指標數據。
        Pod metrics
    4. 查看Kubernetes集群資源總覽數據。

      單擊左側菜單Dashboard,選擇[Metricbeat Kubernetes] Overview,就可以查看集群資源總覽數據。

      overview

通過Filebeat實現日志采集

本文示例中,Filebeat容器使用DaemonSet控制器部署,確保集群上每一個節點都有一個正在運行的實例采集數據,并且配置文件中的資源部署在kube-system命名空間下。您如果需要改變,可以手動更改配置文件。

  1. 下載Filebeat配置文件。
    通過kubectl訪問云容器,下載Filebeat配置文件。
    curl -L -O https://raw.githubusercontent.com/elastic/beats/6.8/deploy/kubernetes/filebeat-kubernetes.yaml
  2. 修改Filebeat配置文件。
    1. 修改kind: DaemonSet下的環境變量。
      env:
      - name: ELASTICSEARCH_HOST
        value: es-cn-nif23p3mo0065****.elasticsearch.aliyuncs.com
      - name: ELASTICSEARCH_PORT
        value: "9200"
      - name: ELASTICSEARCH_USERNAME
        value: elastic
      - name: ELASTICSEARCH_PASSWORD
        value: ****
      - name: KIBANA_HOST
        value: es-cn-nif23p3mo0065****-kibana.internal.elasticsearch.aliyuncs.com
      - name: KIBANA_PORT
        value: "5601"
      - name: NODE_NAME
        valueFrom:
           fieldRef:
              fieldPath: spec.nodeName
      參數 說明
      ELASTICSEARCH_HOST 阿里云Elasticsearch實例的私網地址。
      ELASTICSEARCH_PORT 阿里云Elasticsearch實例的私網端口。
      ELASTICSEARCH_USERNAME 阿里云Elasticsearch的用戶名,默認值elastic。
      ELASTICSEARCH_PASSWORD elastic用戶的密碼。
      KIBANA_HOST Kibana私網地址。
      KIBANA_PORT Kibana私網端口。
      NODE_NAME Kubernetes集群Host。
    2. 修改name: filebeat-config對應的ConfigMap配置信息,配置Kibana Output信息,調用文件中配置的環境變量。
      output.elasticsearch:
            hosts: ['${ELASTICSEARCH_HOST:elasticsearch}:${ELASTICSEARCH_PORT:9200}']
            username: ${ELASTICSEARCH_USERNAME}
            password: ${ELASTICSEARCH_PASSWORD}
      setup.kibana:
            host: "https://${KIBANA_HOST}:${KIBANA_PORT}"
    3. 配置Kubernetes,采集容器日志。
      apiVersion: v1
      kind: ConfigMap
      metadata:
        name: filebeat-inputs
        namespace: kube-system
        labels:
          k8s-app: filebeat
      data:
        kubernetes.yml: |-
          - type: docker
            containers.ids:
            - "*"
            processors:
              - add_kubernetes_metadata:
                  host: ${NODE_NAME}
                  in_cluster: true
      ---
  3. 在Kubernetes中部署Filebeat,并查看資源狀態。

    通過kubectl執行以下命令:

    kubectl apply -f filebeat-kubernetes.yaml
    kubectl get pods -n kube-system
    重要 請確保Pods資源均處于Running狀態,否則在Kibana平臺有可能會看不到相應數據。
  4. 在Kibana查看實時日志。
    1. 登錄目標阿里云Elasticsearch實例的Kibana控制臺。
      具體操作步驟請參見 登錄Kibana控制臺
    2. 查看Hosts、Kubernetes Pods對應的日志。
      • 查看Hosts對應的日志信息:單擊右上角Hosts,在Map View頁簽下,單擊指定Host,選擇View logs,就可以查看Host實時日志。
      • 查看Kubernetes Pods對應的日志信息:單擊右上角Kubernetes,在Map View頁簽下,單擊指定Pod,選擇View logs,就可以查看Pod實時日志。
        view logs

通過Elastic APM實現應用程序性能監測

Elastic APM是基于Elastic Stack構建的應用程序性能監控系統。它提供實時監控軟件服務和應用程序的功能,采集傳入請求的響應時間和數據庫查詢、高速緩存調用及外部HTTP請求等的詳細性能信息,幫助您更快速的查明并修復性能問題。Elastic APM還可以自動收集未處理的錯誤、異常及調用棧,幫助您識別出新錯誤,并關注對應錯誤發生的次數。

關于Elastic APM更多的介紹,請參見Elastic APM Overview

  1. 部署APM Server容器。
    本文示例使用Kubernetes部署,通過ConfigMap控制器定義apm-server.yml文件,并初始化Pods啟動,通過service實現服務自動發現和負載均衡。
    1. 配置apm-server.yml文件。

      完整的配置文件內容如下:

      ---
      apiVersion: v1
      kind: ConfigMap
      metadata:
        name: apm-deployment-config
        namespace: kube-system
        labels:
          k8s-app: apmserver
      data:
        apm-server.yml: |-
            apm-server.host: "0.0.0.0:8200" 
            output.elasticsearch:
               hosts: ['${ELASTICSEARCH_HOST:elasticsearch}:${ELASTICSEARCH_PORT:9200}']
               username: ${ELASTICSEARCH_USERNAME}
               password: ${ELASTICSEARCH_PASSWORD}
            setup.kibana:
               host: "https://${KIBANA_HOST}:${KIBANA_PORT}"
      
      ---
      apiVersion: apps/v1
      kind: Deployment
      metadata:
        name: apmserver
        namespace: kube-system
        labels:
          k8s-app: apmserver
      spec:
        selector:
          matchLabels:
             k8s-app: apmserver
        template:
          metadata:
            labels:
              k8s-app: apmserver
          spec:
            serviceAccountName: apmserver
            hostNetwork: true
            dnsPolicy: ClusterFirstWithHostNet
            containers:
            - name: apmserver
              image: docker.elastic.co/apm/apm-server:6.8.14
              args: [
                "-c", "/etc/apm-server.yml",
                "-e",
              ]
              env:
              - name: ELASTICSEARCH_HOST
                value: es-cn-oew20i5h90006****.elasticsearch.aliyuncs.com
              - name: ELASTICSEARCH_PORT
                value: "9200"
              - name: ELASTICSEARCH_USERNAME
                value: elastic
              - name: ELASTICSEARCH_PASSWORD
                value: ****
              - name: KIBANA_HOST
                value: es-cn-oew20i5h90006****-kibana.internal.elasticsearch.aliyuncs.com
              - name: KIBANA_PORT
                value: "5601"
              - name: NODE_NAME
                valueFrom:
                  fieldRef:
                    fieldPath: spec.nodeName
              securityContext:
                runAsUser: 0
              resources:
                limits:
                  memory: 50Mi
                requests:
                  cpu: 20m
                  memory: 30Mi
              volumeMounts:
              - name: config
                mountPath: /etc/apm-server.yml
                readOnly: true
                subPath: apm-server.yml
            volumes:
            - name: config
              configMap:
                defaultMode: 0600
                name: apm-deployment-config
      ---
      apiVersion: v1
      kind: Service
      metadata:
        name: apmserver
        namespace: kube-system
        labels:
          k8s-app: apmserver
      spec:
        clusterIP: None
        ports:
        - name: http-metrics
          port: 8200
          targetPort: 8200
        selector:
          k8s-app: apmserver
      ---
      apiVersion: v1
      kind: ServiceAccount
      metadata:
        name: apmserver
        namespace: kube-system
        labels:
          k8s-app: apmserver
      ---
      重要
      • Deployment部署資源中,使用docker.elastic.co/apm/apm-server:6.8.14鏡像部署Pods容器,鏡像版本需要和阿里云Elasticsearch實例版本一致。
      • 通過service對集群暴露8200服務端口,保證APM Agents可與APM Server通信。
      參數 說明
      ELASTICSEARCH_HOST 阿里云Elasticsearch實例的私網地址。
      ELASTICSEARCH_PORT 阿里云Elasticsearch實例的私網端口。
      ELASTICSEARCH_USERNAME 阿里云Elasticsearch的用戶名,默認值elastic。
      ELASTICSEARCH_PASSWORD elastic用戶的密碼。
      KIBANA_HOST Kibana私網地址。
      KIBANA_PORT Kibana私網端口。
      NODE_NAME Kubernetes集群Host。
    2. 部署APM Server容器,并查看資源狀態。

      通過kubectl執行以下命令:

      kubectl apply -f apm-server.yml
      kubectl get pods -n kube-system
      重要 請確保Pods資源均處于Running狀態,否則在Kibana平臺有可能會看不到相應數據。
  2. 配置APM Agents。
    本文示例是通過Spring Boot實現一個簡單的Web應用并打包為JAR包,并將JAR包和從Maven Central下載的最新Java Agent上傳到服務器。詳細信息,請參見 Spring BootMaven Central
    1. 登錄Kubernetes節點,在工作目錄中創建Dockerfile文件,文件名為myapply。
      Dockerfile文件內容如下:
      FROM frolvlad/alpine-oraclejdk8
      MAINTAINER peterwanghao.com
      VOLUME /tmp
      ADD spring-boot-0.0.1-SNAPSHOT.jar spring-boot-0.0.1-SNAPSHOT.jar
      ADD elastic-apm-agent-1.21.0.jar elastic-apm-agent-1.21.0.jar
      EXPOSE 8080
      ENTRYPOINT ["java","-javaagent:/elastic-apm-agent-1.21.0.jar","-Delastic.apm.service_name=my-application","-Delastic.apm.server_url=http://apmserver:8200","-Delastic.apm.application_packages=com.example","-jar","/spring-boot-0.0.1-SNAPSHOT.jar"]
      ENTRYPOINT定義容器啟動時運行的Java命令及參數如下:
      參數 說明
      -javaagent 指定APM Agent代理JAR包。
      -Delastic.apm.service_name APM Service Name,允許以下字符:a-z、A-Z、0-9、-、_及空格。
      -Delastic.apm.server_url APM Server URL,http://apmserver:8200是在apm-server.yml文件中的service定義。
      -Delastic.apm.application_packages 應用程序的基礎軟件包。
      -jar 指定應用JAR包。
    2. 通過docker build命令和Dockerfile定義的myapply文件構建鏡像。
      在當前路徑下,執行以下命令:
      docker build -t myapply .
    3. 將構建好的鏡像加載到其他容器節點。
    4. 配置Pods部署文件,文件名為my-application.yaml。
      文件內容如下:
      ---
      apiVersion: v1
      kind: Pod
      metadata:
        name: my-apply
        namespace: kube-system
        labels:
          app: my-apply
      spec:
        containers:
          - name: my-apply
            image: myapply:latest
            ports:
              - containerPort: 8080
            imagePullPolicy: Never
      ---
      apiVersion: v1
      kind: Service
      metadata:
        name: my-apply
        namespace: kube-system
        labels:
          app: my-apply
      spec:
        type: NodePort
        ports:
        - name: http-metrics
          port: 8080
          nodePort: 30000
        selector:
          app: my-apply
      
      ---
      說明 image為構建好的鏡像文件。
    5. 通過kubectl執行以下命令,部署Pods。
      kubectl apply -f my-application.yaml
    6. 待所有Pods資源均處于Running狀態后,使用Curl訪問主機的30000端口。
      執行命令如下:
      curl http://10.7.XX.XX:30000
      說明 10.7.XX.XX為Kubernetes的節點IP地址。

      能夠訪問對應主機后,APM Agents部署成功。

  3. 在Kibana控制臺查看APM監控數據。
    1. 登錄目標阿里云Elasticsearch實例的Kibana控制臺。
      具體操作步驟請參見 登錄Kibana控制臺
    2. 單擊左側菜單APM
    3. 單擊目標應用程序,本文示例為my-application,可以看到服務的整體性能數據。
      APM
    4. 單擊對應的請求接口,可以看到具體的請求信息。
      APM 接口詳情
    5. 查看Hosts、Pods相關日志和指標數據。
      單擊 Actions,選擇 Show pod logsShow pod metrics等,查看對應的日志和指標數據。
      Actions Pod Logs

常見問題

  • 問題:Kubernetes配置文件中resources.requests下資源設置較大,Pods無法啟動成功。

    解決方案:Metricbeat、Filebeat、APM配置文件中都需要設置resources.requests,建議根據Kubernetes集群規格適當調整設置的值。

  • 問題:在部署Metricbeat、Filebeat、APM容器時,一直報錯。報錯內容類似:no matches for kind "DaemonSet" in version "extensions/v1beat1"

    解決方案:官方下載的YML文件中,Daemonsets和Deployments的資源使用extensions/v1beta1,而v1.18及以上版本的Kubernetes,Daemonsets、Deployments和Replicasets資源的extensions/v1beta1 API將被廢棄,請使用apps/v1。