k8s网络插件及基础命令

发布于:2025-02-10 ⋅ 阅读:(122) ⋅ 点赞:(0)

一、k8s的cni网络插件

1.k8s的内部网络模式

  • pod内的容器与容器之间的通信。
  • 一个节点上的pod之间的通信,docker0网桥直接通信。
  • 不同节点上的pod之间的通信:通过物理网卡的ip地址和其他节点上的物理网卡的设备进行通信,然后把流量转发到指定的pod内。

2.cni作用

  • 给每一个pod提供一个全局的ip地址
  • CNI是一个标准接口,用于容器运行时调用网络插件,配置容器的网络,设置容器的网络命名空间,ip地址,路由等参数。

3.cni的插件类型  

3.1 flannel插件

        它是一种overlay网络模式,tcp数据包封装在另一种网络里面进行路由转发的模式,在二层的基础上再创建一个逻辑上的网络层,可以实现跨节点的容器通信。

(1)模式
模式 说明
udp模式 (默认模式) 性能最差,基于应用层转发
vxlan模式 基于内核转发,最常用的方式
host-gw 性能最好,但是配置麻烦
(2)vxlan模式的工作原理  
  • 数据帧从主机A上的pod1出发,二次封装源ip和目的ip。(flannel会通过apiserver保存一张路由表到etcd)。
  • 从pod1出发的数据包,经过docker0/cni0网络接口转到flannel.1接口(vxlan模式的默认接口)。
  • flannel.1接口收到数据后添加vxlan头部,封装在udp报文中。
  • 主机A的网路收到flannel.1接口的数据包,封装主机A的ip,和主机B的ip。
  • 数据包到达主机B,vxlan默认接口是8472,主机B收到数据包,解包,传送到8472端口。就是flannel.1的接口,然后再解包,把数据转发到指定的pod。

3.2 calico插件

        把主机作为路由器,使用BGP同步路由的方式转发数据包。BGP动态路由,自动实现路由选择。

(1)calico的组成部分
组件 作用
felix 维护宿主机上的路由规则,以及FIB库(转发信息库)
BIRD 分发路由规则
confd 配置管理组件
(2)转发原理

        为每一个容器设置一个veth pair的设备。相当于桥接的功能,一端介入宿主机的网络空间,veth pair的另一端配置一个路由规则,接入容器docker0/cni0。

(3)路由传播
  • felix在节点上添加pod的ip地址,添加pod的子网路由
  • BIRD在集群内节点内建立BGP的会话,广播本机的路由节点
  • 集群内的节点学习整个路由表,如何能够到达其他节点的pod的下一跳地址
  • 宿主机直接把数据包发送到目标主机,通过veth pair设备直接转发到目标pod

 4.实验

flannel插件

#三台服务器
#192.168.206.10 master;192.168.206.20 node01;192.168.206.30 node02
#三台一起解压缩cni-plugins
cd /opt
mv cni cni_bak
mkdir -p ./cni/bin
tar -xf cni-plugins-linux-amd64-v0.8.6.tgz -C /opt/cni/bin/

#只在主服务器上操作
kubectl apply -f kube-flannel.yml

calico插件

#三台机器一起
cd /opt
mv cni cni_bak
mkdir -p ./cni/bin
tar -xf cni-plugins-linux-amd64-v0.8.6.tgz -C /opt/cni/bin/
mkdir calico
cd calico
docker load -i calico-cni.tar
docker load -i calico-kube-controllers.tar
docker load -i calico-node.tar
docker load -i calico-pod2daemon-flexvol.tar


#只在主服务器上操作
vim calico.yaml
#修改里面定义Pod的网络(CALICO_IPV4POOL_CIDR),需与前面 kube-controller-manager 配置文件指定的 cluster-cidr 网段一样
    - name: CALICO_IPV4POOL_CIDR
      value: "10.244.0.0/16"     #Calico 默认使用的网段为 192.168.0.0/16

kubectl apply -f calico.yaml
kubectl get pod -n kube-system

#自动补齐
vim /etc/profile
source <(kubectl completion bash)
source /etc/profile

kubectl create deployment nginx --image=nginx:1.22 --replicas=3
kubectl expose deployment nginx --port=80 --type=NodePort
kubectl get svc

curl 192.168.206.10:32663

#修改三个容器内的web页面,重新访问,会自动轮询

 

 二、k8s的基础命令

1.基础命令 

基础命令 说明
kubectl get pod 查看默认命名空间里面的pod状态
kubectl get ns 查看命名空间
kubectl get pod -n kube-system 查看指定的命名空间,不指定是default
kubectl create namespace abc 创建命名空间,指定名字为abc
kubectl create deployment nginx1 --image=nginx:1.22 --replicas=3 使用nginx:1.22 镜像,创建了一个名为nginx1 的部署,有 3 个容器副本在运行
kubectl get pod -n abc 列出命名空间为abc中的所有 容器组
kubectl expose deployment nginx1 --port=80 --type=NodePort -n abc 将现有的nginx1暴露为一个NodePort类型的服务
kubectl get pod -o wide 显示详细信息
kubectl delete nginx-6c4c7f844f-47xv5 基于控制器创建的pod,删除pod相当于重启,不能把pod完全销毁。
kubectl version 查看版本
kubectl api-resources 列出当前k8s集群中所有可用的API资源
kubectl describe pod nginx-6c4c7f844f-47xv5 查看具体资源的详细信息
kubectl logs nginx-6c4c7f844f-47xv5 查看pod的日志
kubectl logs -f nginx-6c4c7f844f-47xv5 动态查看
kubectl exec it nginx-6c4c7f844f-hn576 bash 进入pod内的容器

2.pod的扩缩容

法一:手动改

kubectl scale deployment nginx1 --replicas=1  #命令行修改副本数

kubectl edit deployments.apps nginx1  #编辑配置文件

法二:自动扩缩容

HPA  根据cpu的负载自动扩缩容