关于k8s集群高可用性的探究

发布于:2024-10-17 ⋅ 阅读:(13) ⋅ 点赞:(0)

1. k8s的高可用的核心是什么?

说到核心、本质

意味着要从物理层来考虑技术

k8s是一个容器编排管理工具,k8s受欢迎的时机

是docker容器受欢迎时,因为太多的docker容器,管理起来是一个大工程

那么刚好k8s是google自己用了十来年的borg系统的开源版

google早就用这个来编排管理容器了,所以开源之后,竞品也选择了支持k8s

一起发展

google把这个开源并给了cloud native computing foundation云原生基金会之后

还给了一个项目,算是cloud native foundation云原生基金会的第二个项目

是borgmon,全称是 borg monitor,borg的班长,borg的监视器,也就是borg的监控

borg变成了k8s

borgmon变成了prometheus

这也是为什么监控k8s集群,基本上都是用prometheus了。

那么k8s高可用的核心本质是什么呢?

是容器镜像和数据库

 image 和 etcd

如果一个k8s集群的image是ok的,etcd是ok的

整个集群暂时由于计算压力也好,网络问题也好,暂时休息了

那么用image和etcd就可以快速恢复集群。

image属于生产资料级别的东西

可以认为,对于计算机来讲,最底层的价值生产资料是物理层的设备

具体来讲,主要是光、电、半导体材料。

我们不延伸,因为精密如芯片,也是由半导体材料来实现,包括光

比如极紫外光

那么计算机的底层原来是电荷记录数据,光纤和铜缆传输电荷记录的数据,

半导体材料存储电荷,和高低电荷的各种逻辑运算,加减乘除,与或非

这些东西是计算机通用的底层

那么k8s的底层是什么

k8s是在物理硬件(光、电、半导体材料)的基础上,以容器镜像image为生产资料

产生一大堆的pod,对于pod不够清晰的管理员来讲,理解为容器,也可以,更加直观

因为pod里面的核心是主容器

虽然主容器还带着一堆小弟

比如打前站的initcontainer,初始化容器

开局热场选手,poststart hook  开始后的钩子函数,

用脚本要把什么服务开局的时候搞起来;

散会的时候,prestop hook 停止前的钩子函数,主容器关闭的时候要干点什么,

用自定义脚本写进去。

还有三个容器探针

就跟三个上级一样,一个人干活,三个人管

一个主容器干活,三个探针管着它

startupprobe,监控主容器启动的时候,什么服务跟着启动了没

没启动的话,怎么搞?资源文件里面的自定义脚本写出来

startupprobe这个上级就开始按着这个脚本管理主容器了

如果主容器没有实现它开局要弄的效果,它就会决定怎么搞

重启主容器还是怎么样

livenessprobe,意思是容器还在转着没,running没,

如果容器没有在转着,那么它就去用镜像重建容器还是怎样,

如果容器在正常跑着,容器里面装的就是进程

容器就是这个进程需要的依赖环境,包括环境变量什么的

但是不包括操作系统,这也是容器化和虚拟化本质的区别之一

比较重要,虚拟化是得给虚拟机搞出来一个虚拟操作系统

虽然这个虚拟操作系统的很多东西可以直接用真机操作系统的

但总归是得搞出来个虚拟操作系统给虚拟机用

而容器化不需要这个

容器里面就是什么环境变量啊、依赖包啊

比如nginx进程的容器,需要nginx的主程序

nginx软件包的那一堆东西,包括一些要用的nginx模块

比如stub_states_on,统计网站访问数据的这个功能模块

就是这些必须要有的东西,得弄到镜像里,起容器的时候

把这些0和1读起来,产生一个读写层

读写层再怎么折腾,跟镜像没关系

因为镜像是只读的一层一层的文件

容器是在这个只读层上面再新建一个读写层

除非要用容器做镜像,否则容器再怎么折腾

不影响产生容器的模版,也就是镜像这个多层的只读文件。

还有一个readinessprobe,字面意思上也可以看出来

就是ready了还是没ready?

谁ready了还是没ready?

就是主容器

因为这个readinessprobe探针,也是主容器的上级

等于它有三个上级,

startupprobe  管容器启动情况

livenessprobe  管容器运行情况

readinessprobe 管容器准备好跑服务了没

如果没就怎样,探针资源文件里面写了嵌入式脚本

如果都ok,那就ok

这三个探针和两个钩子函数和初始化容器

和核心的主容器

都是放在pod里面的东西

所以pod可以理解为一个主容器和它的领导以及伙伴们。

-------------------------------------------------------------------------------------

再说回k8s高可用的核心

k8s要跑任务,真正在一线干活的是主容器

其它很多都是辅助,后勤,还有很多领导

那么从跑计算任务的角度来讲

主容器是核心

那么主容器的核心又是什么呢?

就是镜像了,image

只要镜像ok

那么主容器就可以ok

用runtime拿着镜像跑容器就行了

这个相对来说不难

因为runtime现在默认的是containerd

可以理解为一个符合oci标准的docker

docker run 就能跑容器

containerd 也能run

跑容器出来

podman这个管容器的程序,也可以

所以核心不是docker还是containerd、podman

核心是这个镜像

如果是官方镜像,那么从官方拉一个也不是特别麻烦

如果是自定义的镜像,而且自定义的配置有点多,这个镜像的高可用就比较重要

用私有镜像仓库harbor来管理自己的私有镜像

而harbor是一个服务,用程序运行的服务

harbor支持分布式,所以,项目镜像数据非常重要的时候,

配置harbor仓库的分布式高可用,是一个比较重要的点,

对于k8s的高可用来说。

-------------------------------------------------------------------------------------------

对于k8s的高可用的另一个核心,是etcd数据库

etcd数据库里面存放的是k8s集群的各种各样状态信息

谁干了什么,哪个组件又怎么样了,怎么配置的,怎么使用的

kube-apiserver忙来忙去都忙了写什么

各个节点都在干啥

各个pod都在干啥

什么服务什么时候干了什么

这些事情,都记录在etcd数据库里面

所以,其他服务,不管是计算的还是监控的,还是利用内核,在内核那注册服务的kube-proxy这些

可以简单这么理解,k8s集群上所有产生数据的动作都在etcd数据库里面记录了

那么如果k8s集群因为什么原因,休息了

那么etcd数据库是ok的

就可以利用etcd数据库里面的数据来恢复集群

跟那个mysql数据库的binlog日志有点像

只要是写的操作,就记录在这个binlog日志里面

mysql的主从同步就是从机器用io线程从主机器那里把binlog日志读过来

然后在从机器上用sql线程把这个binlog日志重跑一遍

那么数据库所有写操作的东西就复制过来了

而binlog日志,其实是binary log

也就是二进制的日志,可以理解为各种0和1的组合

的日志,对于数据库来讲,记录的是写操作的数据,

把这些跑一遍,数据库就备份了。

那么etcd数据库是k8s高可用的核心

所以k8s要做成高可用集群

核心就是etcd数据库高可用

和harbor仓库高可用

这两个都可以单点跑

也可以做成分布式集群

etcd用raft一致性算法来保证数据的一致性和顺序性

所有的写操作都需要通过raft算法达成一致后才能提交

那么把etcd数据库做成高可用,一般是3个节点,如果高可用非常重要

那么就部署5个节点以上

有两种部署方式

一种是把master节点做成3个,每个master节点上

有kube-apiserver  scheduler  controller-manager etcd

当然也有kube-proxy和kubelet

kube-proxy是旁路模式,调用ipvs内核模块,来进行负载均衡

比如一个clusterip服务创建出来了,那么clusterip通过selector选择器选择

的那些pod,自动进行负载均衡,比如一个clusterip服务,对应着

3个后端pod,那么clusterip服务接到的流量,为什么能够负载均衡的给

pod呢,这个就是kube-proxy干的事

它去找内核模块ipvs说,你看,我这搞了个服务

这个得负载均衡,你给我给这个clusterip生成一个ip地址

就是虚的

然后把这几个后端pod的ip加入到lvs负载均衡集群

就让它们负载均衡的去跑就行了

------------------------------------------------------------------------------------

etcd数据库高可用的另一种方式

是把etcd数据库和k8s集群的master组件不部署在同一个节点上

专门把etcd数据库集群独立出来,搞一个高可用的

etcd数据库集群,k8s集群要读和写数据,就可以etcd数据库交互就可以了

那么这样,

把etcd和harbor仓库都独立出来

虽然harbor仓库本身就是独立的机器

暂且这么说

就会有一个图

前面是一个etcd高可用分布式集群,中间是k8s主节点和计算节点集群,后面是harbor镜像仓库集群

那么,这样一个架构

保证etcd数据库的分布式高可用,后生产资料harbor仓库的分布式高可用

那么整个k8s集群的高可用基本就ok了

看着核心是k8s集群,但是考虑高可用方面来讲

似乎核心不在k8s,而在前面的etcd数据和后面的harbor镜像仓库

这个就跟一些竞争一样

前面的侦测信息

和后面的后勤保障

很重要

说,兵马未动,粮草先行

再说,那啥那啥的是经济

----------------------------------------------------------------------------------------

放到k8s的高可用来说,核心是前面的etcd数据库分布式集群,和后面的harbor镜像仓库分布式集群

有了这个,服务休息了,可以启动,k8s的工作节点怎么样了,也可以直接用数据库恢复服务。

那么问题是,kube-apiserver  kube-controller-manager  schdeluer,这几个主节点上的核心组件

的配置信息和各种信息怎么办

这些也都在etcd数据库上记录着

关于用kubeadm init初始化集群的时候,我们用到的一些文件信息,需要做备份保存。

-------------------------------------------------------------------------------------------

那么对于k8s集群中,各种资源文件,之前都是自己写的

需要写一个保存一个吗

不用

只要对etcd数据库做了快照备份snapshot save

那么用etcdctl snapshot restore用数据库把集群恢复起来之后

用kubectl get ... -o yaml > filename

就可以把yaml格式的资源文件恢复出来

------------------------------------------------------------------------------------------------

总的来说,做三个步骤

1. etcd数据库的分布式集群,加定期备份快照

2. harbor仓库的分布式集群

3. 初始化集群用到的kubeadm配置文件,kube-apiserver、controller-manager、scheduler的配置文件,证书和密钥文件。做备份。

那么如果k8s集群休息了

k8s集群需要从零开始重新搭建

利用这三个部分的准备工作的内容

就可以从零把集群再恢复起来。

这个也就是k8s高可用的核心部分了。

------------------------------------------------------------------------------------------------

那么针对这些核心内容,要实践中做到高可用,可以用跨地区备份的方式

和多云平台的备份方式,来进一步加强高可用性。

etcd数据库高可用的两种方式:堆叠式和外部式

资料来源:k8s官网

高可用拓扑选项 | Kubernetes本页面介绍了配置高可用(HA)Kubernetes 集群拓扑的两个选项。你可以设置 HA 集群:使用堆叠(stacked)控制平面节点,其中 etcd 节点与控制平面节点共存 使用外部 etcd 节点,其中 etcd 在与控制平面不同的节点上运行 在设置 HA 集群之前,你应该仔细考虑每种拓扑的优缺点。说明: kubeadm 静态引导 etcd 集群。 阅读 etcd 集群指南以获得更多详细信息。堆叠(Stacked)etcd 拓扑 堆叠(Stacked)HA 集群是一种这样的拓扑, 其中 etcd 分布式数据存储集群堆叠在 kubeadm 管理的控制平面节点上,作为控制平面的一个组件运行。每个控制平面节点运行 kube-apiserver、kube-scheduler 和 kube-controller-manager 实例。 kube-apiserver 使用负载均衡器暴露给工作节点。每个控制平面节点创建一个本地 etcd 成员(member),这个 etcd 成员只与该节点的 kube-apiserver 通信。 这同样适用于本地 kube-controller-manager 和 kube-scheduler 实例。这种拓扑将控制平面和 etcd 成员耦合在同一节点上。相对使用外部 etcd 集群, 设置起来更简单,而且更易于副本管理。然而,堆叠集群存在耦合失败的风险。如果一个节点发生故障,则 etcd 成员和控制平面实例都将丢失, 并且冗余会受到影响。你可以通过添加更多控制平面节点来降低此风险。因此,你应该为 HA 集群运行至少三个堆叠的控制平面节点。这是 kubeadm 中的默认拓扑。当使用 kubeadm init 和 kubeadm join --control-plane 时, 在控制平面节点上会自动创建本地 etcd 成员。icon-default.png?t=O83Ahttps://kubernetes.io/zh-cn/docs/setup/production-environment/tools/kubeadm/ha-topology/

这张图能大概说明kube-proxy组件的工作流程,但是也有一点需要清晰。

clusterIP这个服务本身,和这个服务对应的ip,比如10.254.xx.xx

是由kube-apiserver,也就是api服务器来产生的

就是apiserver这个服务器创建了clusterIP这个服务,并且给它了一个预定义范围内的

ip地址,当然这个ip地址也可以固定指定

然后kube-proxy是监听着apiserver的,

一旦apiserver创建了服务

kube-proxy就会去找ipvs内核模块,做出来一个lvs负载均衡规则,

将clusterip和后端pod连起来,并且由负载均衡的规则,比如轮询,加权轮询,最少连接数

--------------------------------------------------------------------------------

那么再说一下,服务本身和服务的ip由apiserver产生

服务到后端的负载均衡由kube-proxy监听apiserver然后找ipvs内核模块

生成负载均衡规则

那么用到ingress,比如为什么可以通过服务名就访问到后端的服务呢

ingress的配置规则就是访问什么url

就给到后端的服务名加端口号

这是怎么连上的呢

是通过coredns的自动注册功能

当apiserver创建一个服务时

coredns会监听着apiserver并感知到这一个行为

coredns会根据服务的元数据生成dns记录

总之,有了dns解析,就可以通过服务名找到具体的服务。


网站公告

今日签到

点亮在社区的每一天
去签到