kubernetes CNI Flannel 网络分析
Flannel是kubernetes的CNI网络插件之一,实质上是一种主机 overlay网络 。flannel支持多种网络转发模式,常用的是vxlan、hostgw等,我们这里以常用的 udp VXLAN协议讲解。Flannel 特点1. 使集群中的不同Node主机创建的Docker容器都具有全集群唯一的虚拟IP地址。2. 建立一个覆盖网络(overlay network),通过这个覆盖网络,将

Flannel是kubernetes的CNI网络插件之一,实质上是一种主机 overlay网络 。flannel支持多种网络转发模式,常用的是vxlan、hostgw等,我们这里以常用的 udp VXLAN协议讲解。
Flannel 特点
1. 使集群中的不同Node主机创建的Docker容器都具有全集群唯一的虚拟IP地址。
2. 建立一个覆盖网络(overlay network),通过这个覆盖网络,将数据包原封不动的传递到目标容器。覆盖网络是建立在另一个网络之上并由其基础设施支持的虚拟网络。覆盖网络通过将一个分组封装在另一个分组内来将网络服务与底层基础设施分离。在将封装的数据包转发到端点后,将其解封装。
3. 创建一个新的虚拟网卡flannel0接收docker网桥的数据,通过维护路由表,对接收到的数据进行封包和转发(vxlan)。
4. etcd保证了所有node上flanned所看到的配置是一致的。同时每个node上的flanned监听etcd上的数据变化,实时感知集群中node的变化。
各个组件的解释
`Cni0 ` :网桥设备,每创建一个pod都会创建一对 veth pair。其中一端是pod中的eth0,另一端是Cni0网桥中的端口(网卡)。Pod从网卡eth0发出的流量都会发送到Cni0网桥设备的端口(网卡)上。Cni0 设备获得的ip地址是该节点分配到的网段的第一个地址。
net-conf.json: |
{
"Network": "10.244.0.0/16",
"Backend": {
"Type": "vxlan"
}
}
[root@k8s-master ~]# ifconfig
cni0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1450
inet 10.244.0.1 netmask 255.255.255.0 broadcast 10.244.0.255
flannel.1: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1450
inet 10.244.0.0 netmask 255.255.255.255 broadcast 0.0.0.0
[root@k8s-node1 ~]# ifconfig
cni0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1450
inet 10.244.1.1 netmask 255.255.255.0 broadcast 10.244.1.255
flannel.1: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1450
inet 10.244.1.0 netmask 255.255.255.255 broadcast 0.0.0.0
[root@k8s-node2 ~]# ifconfig
cni0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1450
inet 10.244.2.1 netmask 255.255.255.0 broadcast 10.244.2.255
flannel.1: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1450
inet 10.244.2.0 netmask 255.255.255.255 broadcast 0.0.0.0
`Flannel.1 `: overlay网络的设备,用来进行 vxlan 报文的处理(封包和解包)。不同node之间的pod数据流量都从overlay设备以隧道的形式发送到对端。
`Flanneld `:flannel在每个主机中运行flanneld作为agent,它会为所在主机从集群的网络地址空间中,获取一个小的网段subnet,本主机内所有容器的IP地址都将从中分配。同时Flanneld监听K8s集群数据库,为flannel.1设备提供封装数据时必要的mac,ip等网络数据信息。
[root@k8s-master ~]# ps -ef | grep flanneld | grep -v grep
root 5197 5180 0 08:00 ? 00:00:27 /opt/bin/flanneld --ip-masq --kube-subnet-mgr
[root@k8s-node1 ~]# ps -ef | grep flanneld | grep -v grep
root 3639 3623 0 08:44 ? 00:00:25 /opt/bin/flanneld --ip-masq --kube-subnet-mgr
[root@k8s-node2 ~]# ps -ef | grep flanneld | grep -v grep
root 14871 14855 0 Mar15 ? 00:00:28 /opt/bin/flanneld --ip-masq --kube-subnet-mgr
不同node上的pod的通信流程
1. pod中产生数据,根据pod的路由信息,将数据发送到Cni0
2. Cni0 根据节点的路由表,将数据发送到隧道设备flannel.1
3. Flannel.1查看数据包的目的ip,从flanneld获得对端隧道设备的必要信息,封装数据包。
4. Flannel.1将数据包发送到对端设备。对端节点的网卡接收到数据包,发现数据包为overlay数据包,解开外层封装,并发送内层封装到flannel.1设备。
5. Flannel.1设备查看数据包,根据路由表匹配,将数据发送给Cni0设备。
6. Cni0匹配路由表,发送数据给网桥上对应的端口。
演示过程
1. pod中产生数据,根据pod的路由信息,将数据发送到Cni0
ip route命令的语法比较简单,其基本格式如下:
ip route add [network/prefix] via [gateway] dev [interface]
其中network/prefix 指目标网络和掩码位数,即网络前缀长度,via 指路由数据包的下一跳网关的IP地址,dev interface 指数据包从哪个网络接口出去。
测试集群 k8s定义的flannel网络(POD CIDR) 为172.20.0.0/16。下面用用案例解释网络内不同POD间通信的一个网络实现吧

路由数据包下一条网关IP地址为172.20.0.1,数据包从eth0网卡出去。
10.19.114.100 - pod1 路由
#kubectl -n stack exec -it api-0 -- bash
#ip route show
default via 172.20.0.1 dev eth0
172.20.0.0/24 dev eth0 proto kernel scope link src 172.20.0.73
172.20.0.0/16 via 172.20.0.1 dev eth0

10.19.114.101 - pod2 路由
#kubectl -n stack exec -it redis-64c6c549ff-5plcq -- bash
#ip route show
default via 172.20.1.1 dev eth0
172.20.0.0/16 via 172.20.1.1 dev eth0
172.20.1.0/24 dev eth0 proto kernel scope link src 172.20.1.11

自己测试
[root@k8s-master ~]# kubectl get pod -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
dns-test 1/1 Running 6 122d 10.244.0.18 k8s-master <none> <none>
[root@k8s-master ~]# kubectl exec -it dns-test sh
/ # ip route
default via 10.244.0.1 dev eth0
10.244.0.0/24 dev eth0 scope link src 10.244.0.18
10.244.0.0/16 via 10.244.0.1 dev eth0
[root@k8s-master ~]# ifconfig cni0
cni0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1450
inet 10.244.0.1 netmask 255.255.255.0 broadcast 10.244.0.255
由此可看出,默认POD 网卡网关走 .1 网关,而网关即为cni0 的IP,下一步分析流量到了宿主机之后的走向~~
网桥网关到宿主机的流量
2. Cni0 根据节点的路由表,将数据发送到隧道设备flannel.1
10.19.114.100 宿主机路由
#ip route -n
default via 10.19.114.1 dev eth0
10.19.114.0/24 dev eth0 proto kernel scope link src 10.19.114.100
10.250.250.0/24 dev eth1 proto kernel scope link src 10.250.250.100
172.17.0.0/16 dev docker0 proto kernel scope link src 172.17.0.1
172.20.0.0/24 dev cni0 proto kernel scope link src 172.20.0.1
172.20.1.0/24 via 172.20.1.0 dev flannel.1 onlink
172.20.2.0/24 via 172.20.2.0 dev flannel.1 onlink
10.19.114.101 宿主机路由
#ip route -n
default via 10.19.114.1 dev eth0
10.19.114.0/24 dev eth0 proto kernel scope link src 10.19.114.101
10.250.250.0/24 dev eth1 proto kernel scope link src 10.250.250.101
172.17.0.0/16 dev docker0 proto kernel scope link src 172.17.0.1
172.20.0.0/24 via 172.20.0.0 dev flannel.1 onlink
172.20.1.0/24 dev cni0 proto kernel scope link src 172.20.1.1
172.20.2.0/24 via 172.20.2.0 dev flannel.1 onlink
#自己测试
[root@k8s-master ~]# ip route
default via 192.168.111.2 dev eno16777736 proto static metric 100
10.244.0.0/24 dev cni0 proto kernel scope link src 10.244.0.1
10.244.1.0/24 via 10.244.1.0 dev flannel.1 onlink #############
10.244.2.0/24 via 10.244.2.0 dev flannel.1 onlink #############
172.17.0.0/16 dev docker0 proto kernel scope link src 172.17.0.1
192.168.111.0/24 dev eno16777736 proto kernel scope link src 192.168.111.3 metric 100
由如上路由可知,据最小匹配原则,匹配到上面的一条路由表项。从10.19.114.100 上去往172.20.1.0/24 网段的包,发送172.20.1.0 网关,网关设备是flannel.1。
3. Flannel.1查看数据包的目的ip,从flanneld获得对端隧道设备的必要信息,封装数据包。
flannel.1为vxlan设备,当数据包来到flannel.1时,需要将数据包封装起来。此时的dst ip 为172.20.1.11,src ip为172.20.0.73。数据包继续封装需要知道172.20.1.11 ip地址对应的mac地址。
此时,flannel.1不会发送arp请求去获得172.20.1.11 的mac地址,而是由Linux kernel将一个“L3 Miss”事件请求发送的用户空间的flanned程序。Flanned程序收到内核的请求事件之后,从etcd查找能够匹配该地址的子网的flannel.1设备的mac地址,即发往的pod所在host中flannel.1设备的mac地址。
Flannel在为Node节点分配ip网段时记录了所有的网段对应flannel.1 mac信息,所以能够知道。
#ip neigh |grep 172
172.20.2.0 dev flannel.1 lladdr 82:c4:0e:f2:00:6f PERMANENT
172.20.1.0 dev flannel.1 lladdr 42:6e:8b:9b:e2:73 PERMANENT
-----------------------------------------------------------------------------------
自己环境
[root@k8s-master ~]# ip neigh show dev flannel.1
10.244.2.0 lladdr 4a:5a:f0:f5:19:5e PERMANENT
10.244.1.0 lladdr b6:68:f7:5e:af:9c PERMANENT
[root@k8s-node1 ~]# ifconfig flannel.1
flannel.1:
inet 10.244.1.0 netmask 255.255.255.255 broadcast 0.0.0.0
ether b6:68:f7:5e:af:9c
[root@k8s-node2 ~]# ifconfig flannel.1
flannel.1:
inet 10.244.2.0 netmask 255.255.255.255 broadcast 0.0.0.0
ether 4a:5a:f0:f5:19:5e
到这里,vxlan的内层数据包就完成了封装。格式是这样的:

VXLAN的转发过程主要依赖于FDB(Forwarding Database)实现,VXLAN设备根据MAC地址来查找相应的VTEP IP地址,继而将二层数据帧封装发送至相应VTEP。
#/sbin/bridge fdb show dev flannel.1
42:6e:8b:9b:e2:73 dst 10.19.114.101 self permanent
ba:8b:ce:f3:b8:51 dst 10.19.114.101 self permanent
42:6f:c7:06:3e:a0 dst 10.19.114.102 self permanent
82:c4:0e:f2:00:6f dst 10.19.114.102 self permanent
---------------------------------------------------
自己测试
[root@k8s-master ~]# ip neigh show dev flannel.1
10.244.2.0 lladdr ae:30:2e:1a:b3:72 PERMANENT
10.244.1.0 lladdr aa:f8:47:ae:13:4b PERMANENT
[root@k8s-master ~]# bridge fdb show dev flannel.1
ae:30:2e:1a:b3:72 dst 192.168.111.5 self permanent
aa:f8:47:ae:13:4b dst 192.168.111.4 self permanent
kernel需要查看node上的fdb(forwarding database)以获得内层封包中目的vtep设备所在的node地址。因为已经从arp table中查到目的设备mac地址为42:6e:8b:9b:e2:73,同时在fdb中存在该mac地址对应的node节点的IP地址。如果fdb中没有这个信息,那么kernel会向用户空间的flanned程序发起”L2 MISS”事件。flanneld收到该事件后,会查询etcd,获取该vtep设备对应的node的”Public IP“,并将信息注册到fdb中。
当内核查看fdb获得了发往机器的ip地址后,arp得到mac地址,之后就能完成vxlan的外层封装。

具体可以通过wireshark抓包分析

4. Flannel.1将数据包发送到对端设备。对端节点的网卡接收到数据包,发现数据包为overlay数据包,解开外层封装,并发送内层封装到flannel.1设备。
10.19.114.101节点的eth0网卡接收到vxlan设备包,kernal将识别出这是一个vxlan包,将包拆开之后转给节点上的flannel.1设备。这样数据包就从发送节点到达目的节点,flannel.1设备将接收到一个如下的数据包

目的地址为172.20.1.11,到达10.19.114.101 flannel.1后查找自己的路由表,根据路由表完成转发,由下图可知,flannel.1将去往172.20.1.0/24的流量转发到cni0上去。。

查看cni0网桥信息, cni0 网络通过绑定pod 的网卡和宿主机网卡,通过veth实现通信
#brctl show
bridge name bridge id STP enabled interfaces
cni0 8000.a656432b14cf no veth1f7db117
veth3ee31d24
veth521bc030
veth5a59ced4
veth649412bd
veth65bbf59f
veth6ed62916
veth7e8e7733
veth9787b6ba
veth98c762b8
vethaf05d94b
vethc07c69cd
vethdf62bded
vethe2cf7392
vethf4995a29
docker0 8000.024216a031b6 no
由下图可知 172.20.1.11 的POD 网卡 对应 link-netnsid 0

由下图可知 172.20.1.11 的POD网卡在宿主机上的veth为vethf4995a29

所以在cni0网桥上挂载的pod的veth pair为vethf4995a29 , eth0@if21和vethf4995a29@if3组成的一对veth pair。从而将流量注入到pod的eth0网卡上。
魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。
更多推荐

所有评论(0)