kubebuilder实战之四:operator需求说明和设计,火爆全网MySQL路线笔记

需求说明

  • 为了说清楚需求,这里虚构一个场景:小欣是个java开发者,就是下图这个妹子:

![在这里插入图片描述](https://img-blog.csdnimg.cn/20210217171201581.jpeg?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpd

【一线大厂Java面试题解析+后端开发学习笔记+最新架构讲解视频+实战项目源码讲义】

浏览器打开:qq.cn.hn/FTf 免费领取

Gk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2JvbGluZ19jYXZhbHJ5,size_16,color_FFFFFF,t_70)

  • 现在小欣要将springboot应用部署到kubernetes上,她的现状和面临的问题如下:
  1. springboot应用已做成docker镜像;

  2. 通过压测得出单个pod的QPS为500;

  3. 估算得出上线后的总QPS会在800左右;

  4. 随着运营策略变化,QPS还会有调整;

  5. 总的来说,小欣手里只有三个数据:docker镜像、单个pod的QPS、总QPS,她对kubernetes不了解,需要有个方案来帮她将服务部署好,并且在运行期间能支撑外部的高并发访问;

以上就是小欣的需求了,咱们来小结一下:

  1. 咱们为小欣开发一个operator(名为elasticweb),对小欣来说,她只要将手里的三个参数(docker镜像、单个pod的QPS、总QPS)告诉elasticweb就完事儿了;

  2. elasticweb在kubernetes创建pod,至于pod数量当然是自动算出来的,要确保能满足QPS要求,以前面的情况为例,需要两个pod才能满足800的QPS;

  3. 单个pod的QPS和总QPS都随时可能变化,一旦有变,elasticweb也要自动调整pod数量,以确保服务质量;

  4. 为了确保服务可以被外部调用,咱们再顺便帮小欣创建好service(她对kubernetes了解不多,这事儿咱们就顺手做了吧);

自保声明

  • 看过上述需求后,聪明的您一定会对我投来鄙视的眼光,其实kubernetes早就有现成的QPS调节方案了,例如修改deployment的副本数、单个pod纵向扩容、autoscale等都可以,本次使用operator来实现仅仅是为了展示operator的开发过程,并不是说自定义operator是唯一的解决方案;

  • 所以,如果您觉得我这种用operator实现扩容的方式很low,请不要把我骂得太惨,我这也只是为了展示operator开发过程而已,况且咱这个operator也不是一无是处,用了这个operator,您就不用关注pod数量了,只要聚焦单实例QPS和总QPS即可,这两个参数更贴近业务;

  • 为了不把事情弄复杂,假设每个pod所需的CPU和内存是固定的,直接在operator代码中写死,其实您也可以自己改代码,改成可以在外部配置,就像镜像名称参数那样;

  • 把需求都交代清楚了,接下来进入设计环节,先把CRD设计出来,这可是核心的数据结构;

CRD设计之Spec部分

Spec是用来保存用户的期望值的,也就是小欣手里的三个参数(docker镜像、单个pod的QPS、总QPS),再加上端口号:

  1. image:业务服务对应的镜像

  2. port:service占用的宿主机端口,外部请求通过此端口访问pod的服务

  3. singlePodQPS:单个pod的QPS上限

  4. totalQPS:当前整个业务的总QPS

  • 对小欣来说,输入这四个参数就完事儿了;

CRD设计之Status部分

  • Status用来保存实际值,这里设计成只有一个字段realQPS,表示当前整个operator实际能支持的QPS,这样无论何时,只要小欣用kubectl describe命令就能知道当前系统实际上能支持多少QPS;

CRD源码

  • 把数据结构说明白的最好方法就是看代码:

package v1

import (

“fmt”

metav1 “k8s.io/apimachinery/pkg/apis/meta/v1”

“strconv”

)

// 期望状态

type ElasticWebSpec struct {

// 业务服务对应的镜像,包括名称:tag

Image string json:"image"

// service占用的宿主机端口,外部请求通过此端口访问pod的服务

Port *int32 json:"port"

// 单个pod的QPS上限

SinglePodQPS *int32 json:"singlePodQPS"

// 当前整个业务的总QPS

TotalQPS *int32 json:"totalQPS"

}

// 实际状态,该数据结构中的值都是业务代码计算出来的

type ElasticWebStatus struct {

// 当前kubernetes中实际支持的总QPS

RealQPS *int32 json:"realQPS"

}

// +kubebuilder:object:root=true

// ElasticWeb is the Schema for the elasticwebs API

type ElasticWeb struct {

metav1.TypeMeta json:",inline"

metav1.ObjectMeta json:"metadata,omitempty"

Spec ElasticWebSpec json:"spec,omitempty"

Status ElasticWebStatus json:"status,omitempty"

}

func (in *ElasticWeb) String() string {

var realQPS string

if nil == in.Status.RealQPS {

realQPS = “nil”

} else {

realQPS = strconv.Itoa(int(*(in.Status.RealQPS)))

}

return fmt.Sprintf(“Image [%s], Port [%d], SinglePodQPS [%d], TotalQPS [%d], RealQPS [%s]”,

in.Spec.Image,

*(in.Spec.Port),

*(in.Spec.SinglePodQPS),

*(in.Spec.TotalQPS),

realQPS)

}

// +kubebuilder:object:root=true

// ElasticWebList contains a list of ElasticWeb

type ElasticWebList struct {

metav1.TypeMeta json:",inline"

metav1.ListMeta json:"metadata,omitempty"

Items []ElasticWeb json:"items"

}

func init() {

SchemeBuilder.Register(&ElasticWeb{}, &ElasticWebList{})

}

业务逻辑设计

  • CRD的完成代表核心数据结构已经确定,接下来是业务逻辑的设计,主要是理清楚controller的Reconcile方法里面做些啥,其实核心逻辑还是非常简单的:算出需要多少个pod,然后通过更新deployment让pod数量达到要求,在此核心的基础上再把创建deployment和service、更新status这些琐碎的事情做好,就完事儿了;

版权声明:本文为m0_63174529原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明。