概述
下面几个问题,相信广大K8s用户在日常集群运维中都曾经遇到过:
集群中的某个应用被删除了,谁干的?Apiserver的负载突然变高,大量访问失败,集群中到底发生了什么?集群节点NotReady,是什么原因导致的?集群的节点发生了自动扩容,是什么触发的?什么时间触发的?以前,排查这些问题,对客户来说并不容易。生产环境中的Kubernetes集群通常是一个相当复杂的系统,底层是各种异构的主机、网络、存储等云基础设施,上层承载着大量的应用负载,中间运行着各种原生(例如:Scheduler、Kubelet)和第三方(例如:各种Operator)的组件,负责对基础设施和应用进行管理和调度;此外不同角色的人员频繁地在集群上进行部署应用、添加节点等各种操作。在集群运行的过程中,为了对集群中发生的状况能够尽可能的了如指掌,我们通常会从多个维度对集群进行观测。
日志,作为实现软件可观测性的三大支柱之一,为了解系统运行状况,排查系统故障提供了关键的线索,在运维管理中起着至关重要的作用。Kubernetes提供了两种原生的日志形式——审计(Audit)和事件(Event),它们分别记录了对于集群资源的访问以及集群中发生的事件信息。从腾讯云容器团队长期运维K8s集群的经验来看,审计和事件并不是可有可无的东西,善用它们可以极大的提高集群的可观测性,为运维带来巨大的便利。下面让我们先来简单认识一下它们。
什么是Kubernetes审计?
Kubernetes审计日志是Kube-apiserver产生的可配置策略的结构化日志,记录了对Apiserver的访问事件。审计日志提供Metrics之外的另一种集群观测维度,通过查看、分析审计日志,可以追溯对集群状态的变更;了解集群的运行状况;排查异常;发现集群潜在的安全、性能风险等等。
审计来源
在Kubernetes中,所有对集群状态的查询和修改都是通过向Apiserver发送请求,对Apiserver的请求来源可以分为4类
控制面组件,例如Scheduler,各种Controller,Apiserver自身节点上的各种Agent,例如Kubelet、Kube-proxy等集群的其它服务,例如Coredns、Ingress-controller、各种第三方的Operator等外部用户,例如运维人员通过Kubectl
审计中都记录了些什么?
每一条审计日志都是一个JSON格式的结构化记录,包括元数据(metadata)、请求内容(requestObject)和响应内容(responseObject)3个部分。其中元数据一定会存在,请求和响应内容是否存在取决于审计级别。元数据包含了请求的上下文信息,例如谁发起的请求,从哪里发起的,访问的URI等等;
审计有什么用?
Apiserver做为Kubernetes集群唯一的资源查询、变更入口,审计日志可以说记录了所有对于集群访问的流水,通过它可以从宏观和微观了解整个集群的运行状况,比如:
资源被删掉了,什么时候删掉的,被“谁”删掉的?服务出现问题,什么时候做过版本变更?Apiserver的响应延时变长,或者出现大量5XX响应StatusCode,Apiserver负载变高,是什么导致的?Apiserver返回/请求,究竟是证书过期,非法访问,还是RBAC配置错误等。Apiserver收到大量来自外网IP对敏感资源的访问请求,这种请求是否合理,是否存在安全风险;什么是Kubernetes事件?
事件(Event)是Kubernetes中众多资源对象中的一员,通常用来记录集群内发生的状态变更,大到集群节点异常,小到Pod启动、调度成功等等。我们常用的kubectldescribe命令就可以查看相关资源的事件信息。
事件中记录了什么?
级别(Type):目前仅有“Normal”和“Warning”,但是如果需要,可以使用自定义类型。资源类型/对象(InvolvedObject):事件所涉及的对象,例如Pod,Deployment,Node等。事件源(Source):报告此事件的组件;如Scheduler、Kubelet等。内容(Reason):当前发生事件的简短描述,一般为枚举值,主要在程序内部使用。详细描述(Message):当前发生事件的详细描述信息。出现次数(Count):事件发生的次数。事件有什么用?
集群内已经翻江倒海,集群外却风平浪静,这可能是我们日常集群运维中常常遇到的情况,集群内的状况如果无法透过事件来感知,很可能会错过最佳的问题处理时间,待问题扩大,影响到业务时才发现往往已经为时已晚;除了早早发现问题,Event也是排查问题的最佳帮手,由于Event记录了全面的集群状态变更信息,所以大部分的集群问题都可通过Event来排查。总结一下Event在集群中扮演两大重要角色:
“吹哨人”:当集群发生异常情况时,用户可通过事件第一时间感知;“目击者”:集群中的大小事件都会通过Event记录,如果集群中发生意外情况,如:节点状态异常,Pod重启,都可以通过事件查找发生的时间点及原因;TKE如何发掘审计/事件的价值
传统的通过输入查询语句检索日志的方式来使用审计和事件,固然可以提供很高的灵活性,但也有着较高的使用门槛,不仅要求使用者对于日志的数据结构非常了解,还要熟悉Lucene、SQL语法。这往往导致使用效率偏低,也无法充分发掘数据的价值。
腾讯云容器服务TKE联合腾讯云日志服务CLS,打造出针对Kubernetes审计/事件采集、存储、检索、分析的一站式产品级服务,不仅提供了一键开启/关闭功能,免去一切繁琐的配置;而且容器团队还从长期运维海量集群的经验中,总结出对于Kubernetes审计/事件的最佳使用实践,通过可视化的图表,以多个维度对审计日志和集群事件进行呈现,使用者只需了解K8s的基本概念,就能很“直觉”地在TKE控制台上进行各种检索和分析操作,足以涵盖绝大多数常见集群运维场景,让无论是发现问题还是定位问题都事半功倍,提升运维效率,真正将审计和事件数据的价值最大化。
如何使用TKE审计/事件服务去排查问题?
关于TKE的集群审计/事件简介与基础操作,请参考集群审计、事件存储的官方文档。
场景示例:
下面我们看几个现实中的典型场景
示例1:排查一个工作负载消失的问题
在审计检索页面中,单击标签,指定操作类型和资源对象
查询结果如下图所示:
由图可见,是****这个帐+号,对应用「nginx」进行了删除。可根据帐号ID在中找到关于此账号的详细信息。
示例2:排查一个节点被封锁的问题
在审计检索页面中,单击标签,填写被封锁的节点名
查询结果如下图所示:
由图可见,是****这个帐+号在-1-30T06:22:18时对.16.18.13这台节点进行了封锁操作。
示例3:排查Apiserver响应变慢的问题
在审计检索的标签页中,提供了从用户、操作类型、返回状态码等多个维度对于Apiserver访问聚合趋势图。
由图可见,用户tke-kube-state-metrics的访问量远高于其他用户,并且在“操作类型分布趋势”图中可以看出大多数都是list操作,在“状态码分布趋势”图中可以看出,状态
码大多数为,结合业务日志可知,由于RBAC鉴权问题导致tke-kube-state-metrics组件不停的请求Apiserver重试,导致Apiserver访问剧增。日志如下所示:
示例4:排查节点异常的问题
一台Node节点出现异常,在事件检索页面,点击,在过滤项中输入异常节点名称
查询结果显示,有一条节点磁盘空间不足的事件记录查询结果如下图:
进一步查看异常事件趋势
可以发现,-11-25号开始,节点
16
18
13由于磁盘空间不足导致节点异常,此后kubelet开始尝试驱逐节点上的pod以回收节点磁盘空间;
示例5:查找触发节点扩容的原因
开启了节点池「弹性伸缩」的集群,CA(cluster-autoscler)组件会根据负载状况自动对集群中节点数量进行增减。如果集群中的节点发生了自动扩(缩)容,用户可通过事件检索对整个扩(缩)容过程进行回溯。
在事件检索页面,点击,输入以下检索命令:
event.source.