istio流量管理

2023-06-08,,

目录
1 准备工作
1.1 在k8s部署istio
1.2 istio自动注入
1.3 应用部署要求
2 负载均衡
3 流量迁移:金丝雀发布
3.1 发布应用
3.2 创建目标规则:DestinationRule
3.3 创建虚拟服务:VirtualService
3.4 验证和结语

1 准备工作

1.1 在k8s部署istio

Istio在k8s集群内的部署很简单,非生产要求的部署,可以直接在https://github.com/istio/istio/releases 下载最新的发布包,压缩包里有供简单部署的yaml文件:

$ for i in install/kubernetes/helm/istio-init/files/crd*yaml; do kubectl apply -f $i; done
$ kubectl apply -f install/kubernetes/istio-demo.yaml

注意,上面两条指令会把主要的组件都给装上,镜像下载比较费力,内存消耗也比较大。没个十几G内存的同学请慎重。

部署完成后会新增一个命名空间istio-system:

$ kubectl get pods -n istio-system
NAME READY STATUS RESTARTS AGE
grafana-f8467cc6-rbjlg 1/1 Running 0 1m
istio-citadel-78df5b548f-g5cpw 1/1 Running 0 1m
istio-cleanup-secrets-release-1.1-20190308-09-16-8s2mp 0/1 Completed 0 2m
istio-egressgateway-78569df5c4-zwtb5 1/1 Running 0 1m
istio-galley-74d5f764fc-q7nrk 1/1 Running 0 1m
istio-grafana-post-install-release-1.1-20190308-09-16-2p7m5 0/1 Completed 0 2m
istio-ingressgateway-7ddcfd665c-dmtqz 1/1 Running 0 1m
istio-pilot-f479bbf5c-qwr28 2/2 Running 0 1m
istio-policy-6fccc5c868-xhblv 2/2 Running 2 1m
istio-security-post-install-release-1.1-20190308-09-16-bmfs4 0/1 Completed 0 2m
istio-sidecar-injector-78499d85b8-x44m6 1/1 Running 0 1m
istio-telemetry-78b96c6cb6-ldm9q 2/2 Running 2 1m
istio-tracing-69b5f778b7-s2zvw 1/1 Running 0 1m
kiali-99f7467dc-6rvwp 1/1 Running 0 1m
prometheus-67cdb66cbb-9w2hm 1/1 Running 0 1m

1.2 istio自动注入

在介绍istio原理时有提到,istio会在每一个被管理的pod里注入一个sidecar容器envoy。那么istio是如何完成注入的呢,主要有2种方式:

    手动注入:如下命令,在kubectl前先执行istioctl手动注入
$ istioctl kube-inject -f <your-app-spec>.yaml | kubectl apply -f -
    自动注入:运用k8s的admission-control完成自动注入

    • kube-apiserver配置文件的admission-control参数,增加MutatingAdmissionWebhook 以及 ValidatingAdmissionWebhook 两项

    • 给命名空间打上自动注入的标签(下方我们允许istio在default空间自动注入,同时禁用了istio-system空间的自动注入):

$ kubectl label namespace default istio-injection=enabled
$ kubectl get namespace -L istio-injection
NAME STATUS AGE ISTIO-INJECTION
default Active 4d21h enabled
ingress-nginx Active 4d17h
istio-system Active 4d17h disabled
kube-node-lease Active 4d21h
kube-public Active 4d21h
kube-system Active 4d21h

后面的测试,我们以第2种方式自动注入envoy。

注:通过在deployment文件的annotations参数里加上sidecar.istio.io/inject: "false",可以覆盖命名空间的标签,禁止istio对本pod的自动注入

1.3 应用部署要求

Istio原生与k8s能够无缝对接, istio的存在与否对应用程序本身来说,也是透明的。所以应用的部署,主要涉及的是yaml文件的修改完善:

    Deployment文件的要求:

    • 应带有app和version标签,这个主要是用来识别不同版本的pod。

    • Deployment应明确列出端口列表,istio会忽略未列出的端口。

    • 下方为data-product的示例,注释部分为需要注意的地方:

---
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
# 建议pod名称 = 应用名 + 版本号
name: data-product-v4.0
namespace: default
spec:
template:
metadata:
annotations:
sidecar.istio.io/inject: "true"
namespace: default
labels:
# 标签1:应用名称
app: data-product
# 标签2:版本号
version: v4.0
spec:
containers:
- name: data-product
ports:
# 需要Istio管理的端口号列表
- containerPort: 50051
……
    Service文件的要求:

    • 需要指定端口的协议类型,否则默认按TCP协议处理:

---
apiVersion: v1
kind: Service
metadata:
name: data-product
namespace: default
annotations:
prometheus.io/scrape: 'true'
prometheus.io/path: /metrics
prometheus.io/port: '8081'
labels:
kubernetes.io/cluster-service: "true"
kubernetes.io/name: "data-product"
spec:
ports:
- name: data-product
port: 50051
# 指定端口的协议类型为grpc
name: grpc
targetPort: 50051
selector:
app: data-product

2 负载均衡

$ kubectl get po -o wide
NAME READY STATUS
business-product-6b954db744-cgn8k 2/2 Running
business-product-6b954db744-dgm4x 2/2 Running
business-product-6b954db744-n5c8p 2/2 Running
business-product-v4.0-747ccffbb4-2p2z8 2/2 Running
business-product-v4.0-747ccffbb4-4bh6z 2/2 Running
business-product-v4.0-747ccffbb4-8kgqs 2/2 Running
business-product-v4.0-747ccffbb4-hz6lb 2/2 Running
business-product-v4.0-747ccffbb4-kgs6p 2/2 Running
business-product-v4.0-747ccffbb4-rmmwg 2/2 Running
business-product-v4.0-747ccffbb4-sspgr 2/2 Running
business-product-v4.0-747ccffbb4-sz7ll 2/2 Running
business-product-v4.0-747ccffbb4-vnd58 2/2 Running
data-product-5bc9f7bb9c-dfchd 2/2 Running
data-product-5bc9f7bb9c-tv8cj 2/2 Running
data-product-5bc9f7bb9c-xzz7s 2/2 Running

这里我们启用了9个business-product的pod,和3个data-product的pod。上表有一个细节,每个pod里有2个容器,除了我们的应用程序容器外,还有一个就是enovy。

当pod被注入了enovy,并且是按1.3节的要求将port暴露给了istio,则Istio会自动接管pod的流量,实现负载均衡。

Business-product作为client与data-product server之间通过grpc通讯,这里我简单修改了下business-product和data-product的逻辑,当收到请求时data-product会将自身和client的ip作为响应,而business-product则会在这个响应的基础上再加上自己的ip。所以我们对business-product发起连续的请求,就能得到下方的一组ip对(其中每一行的第1个ip是client的ip,第2个是server检测到的client ip,第3个是server的ip):

"ip": "172.30.27.8/24 - 127.0.0.1:43094 - 172.30.86.3/24",
"ip": "172.30.95.17/24 - 127.0.0.1:43120 - 172.30.86.3/24",
"ip": "172.30.27.9/24 - 127.0.0.1:43094 - 172.30.86.3/24",
"ip": "172.30.86.9/24 - 127.0.0.1:41662 - 172.30.27.3/24",
"ip": "172.30.95.15/24 - 127.0.0.1:43094 - 172.30.86.3/24",
"ip": "172.30.86.7/24 - 127.0.0.1:41712 - 172.30.27.3/24",
"ip": "172.30.27.11/24 - 127.0.0.1:43872 - 172.30.95.7/24",
"ip": "172.30.86.8/24 - 127.0.0.1:41712 - 172.30.27.3/24",
"ip": "172.30.95.14/24 - 127.0.0.1:43944 - 172.30.95.7/24", "ip": "172.30.27.8/24 - 127.0.0.1:43944 - 172.30.95.7/24",
"ip": "172.30.95.17/24 - 127.0.0.1:43872 - 172.30.95.7/24",
"ip": "172.30.27.9/24 - 127.0.0.1:43944 - 172.30.95.7/24",
"ip": "172.30.86.9/24 - 127.0.0.1:43094 - 172.30.86.3/24",
"ip": "172.30.95.15/24 - 127.0.0.1:43872 - 172.30.95.7/24",
"ip": "172.30.86.7/24 - 127.0.0.1:43120 - 172.30.86.3/24",
"ip": "172.30.27.11/24 - 127.0.0.1:41662 - 172.30.27.3/24",
"ip": "172.30.86.8/24 - 127.0.0.1:43094 - 172.30.86.3/24",
"ip": "172.30.95.14/24 - 127.0.0.1:41712 - 172.30.27.3/24", "ip": "172.30.27.8/24 - 127.0.0.1:41712 - 172.30.27.3/24",
"ip": "172.30.95.17/24 - 127.0.0.1:41712 - 172.30.27.3/24",
"ip": "172.30.27.9/24 - 127.0.0.1:41712 - 172.30.27.3/24",
"ip": "172.30.86.9/24 - 127.0.0.1:43872 - 172.30.95.7/24",
"ip": "172.30.95.15/24 - 127.0.0.1:41662 - 172.30.27.3/24",
"ip": "172.30.86.7/24 - 127.0.0.1:43944 - 172.30.95.7/24",
"ip": "172.30.27.11/24 - 127.0.0.1:43094 - 172.30.86.3/24",
"ip": "172.30.86.8/24 - 127.0.0.1:43872 - 172.30.95.7/24",
"ip": "172.30.95.14/24 - 127.0.0.1:43120 - 172.30.86.3/24",

我们连续发起了27次请求,不出所料,client的9个Pod分别被分配到了3次请求,接下来我们看看server是否负载上了:

• 27次请求中,3个server的pod均被分配了9次,负载是均衡的。

• 进一步分析,同一个client,每次被分配到的server是不同的,这是因为envoy代理在中间拦了一手,这正是负载的实现原理。

• 再进一步分析,server检测到的客户端ip,是127.0.0.1的本地ip,这个连接其实是面向本pod的envoy的。

所以我们可以认为envoy为我们在网格内建立起了一个服务之间的连接池,从而实现了负载均衡。

最后,我们再回过头来对比针对grpc长连接的情况,k8s的负载和istio的负载的差异:

• K8s的负载是在连接发起时实现的,比如我们的例子里有9个客户端,则调用了9次负载算法,次数太少,负载未必是均衡的。

• 基于连接的负载,一旦pod异常退出,连接断开,重新建立起的连接有更大的概率被集中到个别没断开的pod上,这会加剧负载的不均衡性。

• Istio维护的负载是在每次通讯的时候完成的动态调度,不受连接数的限制,在大量通讯的情况下,istio能够保证负载的均衡。

3 流量迁移:金丝雀发布

上一章envoy已经接管了我们的流量,接下来就可以让envoy为我们做更细致的流量管理的动作了。本章我们会通过简单的配置来实现金丝雀发布。

假设我们已经发布了data-product的v3.0版本,现在我们有一个v4.0的版本需要更新上去。版本发布过程中我们期望先将10%的流量导入到v4.0版本,剩余90%的流量还是由v3.0版本来处理。待v4.0版本运行稳定无异常后,我们再将100%的流量迁移到v4.0版本。

3.1 发布应用

回顾1.3章节,我们在发布data-product时,需要deployment的名称区分版本(想想为啥?)。为实现两个版本的平滑过渡、金丝雀发布,我们需要同时发布两个版本的deployment:

$ kubectl get deployment
NAME READY UP-TO-DATE AVAILABLE AGE
business-product 3/3 3 3 5h13m
data-product 3/3 3 3 4h30m
data-product-v4.0 3/3 3 3 4h16m

上表data-product是v3.0版本的(这里我命名不规范),data-product-v4.0是v4.0版本的,各有3个pod在运行。

3.2 创建目标规则:DestinationRule

目标规则(DestinationRule)是用来定义流量应该由哪些pod来接收的。下方的yaml文件我们创建了一个DestinationRule,标识发往data-product的流量,由data-product的v3.0和v4.0两个版本来接收。这个yaml文件的关键是subsets字段的两个labels,这对应着1.3和3.1节的应用版本。

apiVersion: networking.istio.io/v1alpha3
kind: DestinationRule
metadata:
name: data-product
spec:
host: data-product
subsets:
- name: v3
labels:
version: v3.0
- name: v4
labels:
version: v4.0

3.3 创建虚拟服务:VirtualService

Service和virtualservice的目标是一致的,都是将流量导向后端的pod。区别是由istio引入的virtualservice可以完成更细致的流量划分。

下方的yaml文件,我们将10%的流量导向了v4版本,90%的流量导向v3版本。这个文件的关键是subset字段,这对应于DestinationRule的subsets;以及weight权重,按百分比划分。

apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:
name: data-product
spec:
hosts:
- data-product
http:
- route:
- destination:
host: data-product
subset: v3
weight: 90
- destination:
host: data-product
subset: v4
weight: 10

3.4 验证和结语

限于篇幅,验证数据就不贴了。平均每10次请求,会有1次导向v4,另外9次还在v3。

不难理解,运行一段时间觉得v4版本ok了,我们可以将权重配比调整到50%,75%,直到100%的流量都导向v4。之后v3版本的deployment就可以删了。

istio流量管理的相关教程结束。

《istio流量管理.doc》

下载本文的Word格式文档,以方便收藏与打印。