告别 IPVS,拥抱 Cilium/XDP?
本文地址:https://www.ebpf.top/post/cilium-standalone-L4LB-XDP-zh
Seznam.cz 是一家捷克技术公司,开发定制搜索引擎、广告平台、在线地图、内容管理系统,以及私有云服务、定制硬件和数据中心。
1. 架构
Seznam 的基础设施早期采用 F5 硬件负载平衡器,但几年前我们切换到了软件负载均衡器。到目前为止,我们一直在使用 多层 架构:
-
第一层 ECMP 路由
-
第二层 IPVS 作为 L4 负载均衡器(L4LB)
不幸的是,随着流量的增加,并且由于 COVID,我们开始出现硬件供应短缺,我们迫切需要寻找更优的方案来更有效地使用硬件。
我们一直在密切关注 Cilium 并注意到 Cilium 1.10 版本中的独立 L4LB XDP 和 Cilium 关于 maglev 的说明。XDP 钩子(hook)以有效利用 CPU 而著称,具有极高的性能。这对我们的团队来说非常有趣,因为我们的流量峰值高达 20M 活动连接,这大大增加了 IPVS 节点的 CPU 使用率。
我们的负载均衡器设置将外部流量接入到 Kubernetes 和 OpenStack 集群,IPVS 用于经典的 “负载均衡器” 场景。简单架构看起来如下所示:
由于我们一直在使用 maglev 调度程序(自 v4.18 以来,它是 Linux 内核中 netfilter 的一部分),那么独立 L4LB XDP 将是一个完美的选择,因为其支持我们的所有主要功能诉求,包括 IPIP、DSR、maglev。
我们在 IPVS 节点上使用了 25GbE NIC,因此在 XDP 驱动程序层运行 L4LB 没有问题,因为大多数现代 NIC 都支持它。
|
|
2. 启动独立 L4LB
Cilium 本身使用 Docker 镜像发布,我们尝试直接在 IPVS 节点本身上运行。为了在 Cilium 容器重新启动/升级时正常工作,我们使用 systemd 服务来挂载 bpf 文件系统:
|
|
然后我们仅以负载均衡器模式启动 Cilium:
|
|
我们提供大约 3k 个服务并使用 30+ 个 L7 节点,因此我们很快就达到了 lbmap 的默认值。 因此,我们添加了 --bpf-lb-map-max 512000
选项进行调整。
3. 设置服务
Cilium 提供了 API 来设置 lbmaps,这里我们使用以下命令来配置服务:
|
|
其中:
frontend
代表每个 VIP 服务backends
代表 L7 节点
完整设置样例如下所示:
|
|
对于 BGP 公告,我们使用 BIRD, 所以这部分相当简单:
|
|
4. 负载对比
测试工具和场景设置如下:
我们决定在一个运行 MoonGen 的单一客户产生的合成测试/负载下比较 IPVS 和 L4LB,MoonGen 有 1 个 CPU 和 64B 的小数据包,带有 TCP SYN 选项设置。
在这个过程中,我们对 MoonGen 生成器发出的数据包(tcp 段)进行了配置,以随机化源 IP 地址和 TCP 源端口,从而使流量分布在所有接收 rx 队列中,因为我们的网卡被配置为使用 4 元组(src IP, dst IP, src TCP port, dst TCP port)散列:
|
|
在测试运行期间,我们使用另一个客户端运行一个简单的 GET 请求(在 while 循环中使用 curl)来查看服务器请求处理情况。
测试设置如下图所示:
4.1 结果
在这两种场景(场景 #1 IPVS 和场景 #2 L4LB)中,MoonGen 客户端被配置为生成 1Mpps(每秒百万数据包)和 3Mpps。下面的每个输出屏幕截图均取自于对应的被测服务器 IPVS/L4LB 或 curl
客户端。
L4LB XDP 模式下,1Mpps 和 3Mpps 都可轻松处理,对性能没有任何影响。 从 10Mpps 开始,我们仅看到在 14.8 Mpps 流量时受到影响,但这可能是由于 NIC 而不是 L4LB 的限制。
4.1.1 1Mpps - IPVS
IPVS htop 输出 :
Curl client 输出 :
CPU 并没有完全被占用,但已接近极限,并且不时丢包。
4.1.2 3Mpps - IPVS
IPVS htop 输出 :
Curl client 输出 :
由于处理中断的所有 CPU 内核都已用尽,所有来自第二个客户端的数据包几乎都被 IPVS 节点丢弃。
4.1.3 10Mpps - L4LB XDP
L4LB htop 输出 :
Curl client 输出 :
4.1.4 14.8Mpps - L4LB XDP
L4LB htop 输出 :
Curl client 输出 :
在流量达到 14.8Mpps 时,偶尔出现数据包丢弃情况,但这是由于达到了网卡限制,这完全符合预期。
5. 生产环境流量验证
当我们将 L4LB XDP 部署到一个之前运行 IPVS 生产节点时,最大的惊喜出现了。由于我们可以完全访问节点并且能够在任何时间点启动/停止 BIRD,我们能够干净地在 L4LB XDP 节点和 IPVS 节点之间切换流量。
大约上午 11:00,我们停止了 IPVS 节点上的 BIRD,以便 L4LB XDP 节点处理所有流量,大约上午 11:14,我们切换到运行 IPVS 的 2 个节点。
Packets per second 每秒数据包数(越高越好)
上面的输出显示:
在 ~11:04 - 11:13 期间,生产流量从 750kpps 上升到 1Mpps,这是由使用 L4LB XDP 的单个主机 lb-l3-5.ko.iszn.cz 处理的。
在 ~11:16,我们切换到运行 IPVS 的 2 台主机 lb-l3-7.ko.iszn.cz
和 lb-l3-9.ko.iszn.cz
(这段时间的总流量也在 1Mpps)。
当我们查看 CPU 使用率时,效果非常显著。有一次,我们不确定是否在某个地方存在错误,因为当 L4LB XDP 处理流量时 CPU 负载非常低。但仔细观察后,与 IPVS 处理流量时的 2x18 CPU 相比,它确实只消耗了单个 CPU 的一半。
当切换到 L4LB XDP 时,我们节省了 36 个 CPU。
注:图片取自我们的生产 Grafana 面板中的 CPU 负载(越低越好)
6. 总结
截图不言自明,但对我们来说关键是,L4LB XDP 在驱动层的大部分 HTTP 流量节省了处理生产流量所需的大量 CPU - 我们 90% 的流量是 HTTP 请求。
在我们完全切换到 L4LB XDP 之前,Cilium 中唯一缺少功能是加权后端功能,该功能我们正在开发中:maglev:支持通过新的 cmdline 参数在服务规范中设置后端的权重。该功能开发完成后,那么就没有什么能阻止我们告别 IPVS。
借此,我们要感谢 Cilium 社区构建了如此出色的项目并给予了支持!
- 原文地址:https://cilium.io/blog/2022/04/12/cilium-standalone-L4LB-XDP/
- 原文作者: Ondrej Blazek@ Seznam.cz
- 原文作者:DavidDi
- 原文链接:https://www.ebpf.top/post/cilium-standalone-L4LB-XDP-zh/
- 版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 4.0 国际许可协议. 进行许可,非商业转载请注明出处(作者,原文链接),商业转载请联系作者获得授权。
- 最后更新时间:2022-11-05 21:36:51.876851149 +0800 CST