Skip to content

Commit

Permalink
更新内容
Browse files Browse the repository at this point in the history
  • Loading branch information
isno committed Jan 16, 2024
1 parent 61b1814 commit 6a078d9
Show file tree
Hide file tree
Showing 9 changed files with 112 additions and 170 deletions.
Binary file added assets/Cluster-AutoScaler.png
Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.
Binary file modified assets/HPA.png
Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.
Binary file added assets/cas.png
Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.
Binary file added assets/how_mtls_works-what_is_mutual_tls.png
Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.
Binary file added assets/how_tls_works.png
Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.
Binary file added assets/vpa.png
Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.
82 changes: 42 additions & 40 deletions container/auto-scaling.md
Original file line number Diff line number Diff line change
@@ -1,71 +1,73 @@
# 7.8 弹性伸缩

弹性伸缩意思通过应用云计算弹性伸缩的功能实现业务量增减资源的合理应用,驱动弹性的背景总结来说:
弹性伸缩(Elastic Scaling Service,简称ESS),也称 Auto Scaling,目标是通过解决欠配置(损失服务可用性)和过度配置(导致不必要的成本)实现容量与成本之间博弈的平衡。

- 峰值负载应对:促销活动、节假日购物季或突发事件根据需求快速扩展资源,保证应用可用性和性能。
- 提高资源利用率:根据实际资源负载动态调整资源规模,避免基础设施资源浪费,降低 TCO(Total Cost of Ownership,总体拥有成本)。
- 应对故障和容错:多实例部署和快速替换,提高业务连续性和可用性。
Kubernetes 弹性伸缩组件可以从伸缩方向和伸缩对象两个维度进行解读。如下表所列,HPA 负责容器的水平伸缩,cluster-autoscaler 负责节点的水平伸缩。

## Horizontal Pod Autoscaling
|| Node | Pod |
|:--|:--|:--|
| Horizontal | Cluster AutoScaler | Horizontal Pod Autoscaler(HPA,水平 Pod 垂直自动伸缩器)|
| Vertical || Vertical Pod Autoscaler(VPA,垂直 Pod 自动伸缩器)|

Kubernetes 自身提供一种弹性伸缩的机制,包括 Vertical Pod Autoscaler (VPA) 和 Horizontal Pod Autoscaler (HPA)。HPA 根据 CPU 、内存利用率增加或减少副本控制器的 pod 数量,它是一个扩缩资源规模的功能特性。

HPA 依赖 Metrics-Server 捕获 CPU、内存数据来提供资源使用测量数据,也可以根据自定义指标(如 Prometheus)进行扩缩。
如果集群的资源不够,那就得对节点进行扩容。集群节点的弹性伸缩本来是一件非常麻烦的事情,好在现在的集群大多都是构建在云上,云上可以直接调用接口添加删除节点,这就使得集群节点弹性伸缩变得非常方便。

这是一个自动扩展和收缩 Kubernetes 集群 Node 的扩展。当集群容量不足时,它会自动去 Cloud Provider (支持绝大部分的云服务商 GCE、GKE、Azure、AKS、AWS 等等)创建新的 Node,而在 Node 长时间(超过 10 分钟)资源利用率很低时(低于 50%)自动 Pod 会自动调度到其他 Node 上面,并删除节点以节省开支。

<div align="center">
<img src="../assets/Cluster-AutoScaler.png" width = "500" align=center />
</div>

Cluster Autoscaler 虽然是 Kubernetes 官方标准,但是由于他深度依赖公有云厂商,因此具体使用方法,功能以及限制以公有云厂商具体实现为准。


VPA 组件确保工作负载适配方式是动态调整 Pod 资源上限而不是水平扩展它们。但这里有一个问题:增强型的 Pod 并不一定好,大多数情况下使用更多的进程处理数据远比使用一个大且强的工作进程更高效。

<div align="center">
<img src="../assets/HPA.svg" width = "500" align=center />
<img src="../assets/vpa.png" width = "380" align=center />
<p>VPA 调整 Pod 的大小</p>
</div>

由上图看出,HPA 持续监控 Metrics-Server 的指标情况,根据收集到的 Pod 资源的 metrics 计算除所需的副本数并进行动态调整资源副本,实现设置目标资源值的水平伸缩。
用到最多的是 HPA组件,HPA 根据观察到的指标(主要是 CPU、内存)来横向增加或减少 Pod 数量。HPA 从最初的 v1 版本只支持 CPU、内存利用率的伸缩,到后来的自定义指标、聚合层 API 的支持,到了 v1.18 版本又加入了配置伸缩行为的支持。现在最新的版本是 autoscaling/v2,引入 Prometheus 的广泛指标。

<div align="center">
<img src="../assets/hpa.png" width = "400" align=center />
<p>HPA 改变 Pod 的数量</p>
</div>

传统的指标如 CPU 和内存不一定就能代表服务的负载情况。比如事件驱动的应用程序 Kafka,传入 kafka 事件的数量才是确定负载的真实指标。在持续集成(CI)流水线中,当提交代码时,可能会触发一系列的流水线作业(镜像编译、应用打包、可用性测试),如果持续集成的作业出现瓶颈,这里的度量标准应该是等待执行的任务数,那么基于作业队列数量伸缩比仅仅观察 CPU 或者内存指标更有效。

下面示例,创建一个 HPA, 期望 CPU 的利用率为 70%,副本数的范围是 1-10,操作对象名 nginx-deployment 为 Deployment 。
当然,Kubernetes 也看到了这一点。HPA 在经过三个大版本的演进之后,也实现支持 Resource Metrics(资源指标,如pod的CPU)和Custom Metrics(自定义指标)和 ExternalMetrics(额外指标)的缩放,如果需要基于其他地方如 Prometheus、Kafka、云供应商或其他事件上的指标进行伸缩,那么可以通过 v2 版本提供的 external metrics 来实现

```plain
apiVersion: autoscaling/v2beta1
kind: HorizontalPodAutoscaler
metadata:
name: scale
namespace: default
spec:
maxReplicas: 10 # 目标资源的最大副本数量
minReplicas: 1 # 目标资源的最小副本数量
metrics: # 度量指标,期望CPU的利用率为70%
- resource:
name: cpu
targetAverageUtilization: 70
type: Resource
scaleTargetRef: # 目标资源
apiVersion: apps/v1
kind: Deployment
name: nginx-deployment
```
## 基于事件驱动的方式

使用 HPA 对资源进行伸缩,也存在一定局限性:
HPA v2 版本就可以实现基于外部指标弹性伸缩,只是实现上比较麻烦。而 Kedify、Microsoft 开源的 KEDA(Kubernetes Event-driven Autoscaling)项目则可以简化这个过程,使用起来更加方便,而且 KEDA 已经内置了几十种常见的 Scaler 可以直接使用。

- 无外部指标支持。如不同的事件源,不同的中间件/应用程序等,业务端的应用程序变化及依赖是多样的,不只是基于 CPU 和内存扩展。
- 无法 1->0。应用程序总有 0 负载的时候,此时不能不运行工作负载吗?
:::tip
KEDA 的出现是为了增强 HPA,而不是替代 HPA。
:::

所以就有了 Kubernetes-based Event-Driven Autoscaling(KEDA)!
KEDA 并没有取代 HPA,而是对 Kubernetes 内置的 HAP 组件的补充。

## 利用事件驱动 Keda 进行弹性伸缩
基于事件的触发方式,KEDA 就是一个 HPA + 多种触发器。只要触发器收到某个事件被触发,KEDA 就可以使用 HPA 进行自动伸缩了。

Kubernetes 自带的 HPA 仅支持 CPU/MEM 等有限的指标,但事实情况这些指标不一定就能代表服务的负载情况,比如消息服务器,如果消息堆积过多,我们希望启用更多的 Customer 处理消息,这种情况下就可以使用 Keda。
<div align="center">
<img src="../assets/keda-support-resources.png" width = "500" align=center />
</div>

KEDA 使得 Kubernetes 能够对 Pods 副本缩0或者扩展到更多是基于标准内置的 Kubernetes 指标,例如CPU和内存等标准,但也基于高级指标,例如消息队列的排队深度,每秒请求数,调度的 Cron 作业数,或者从您自己的应用程序记录中以及您可以想象的其他所有指标中的自定义指标


KEDA 会从外部度量提供者系统 (上面提到的指标扩展器,比如 Azure Monitor) 监控度量,然后根据基于度量值的伸缩规则进行伸缩。作为一个Kubernetes Operator 运行直接与度量提供者系统通信,

<div align="center">
<img src="../assets/keda-arch.png" width = "500" align=center />
<img src="../assets/keda-arch.png" width = "400" align=center />
</div>

## 离在线混部


KEDA 是 Kubernetes 基于事件驱动的自动伸缩工具,通过 KEDA 我们可以根据需要处理的事件数量来驱动 Kubernetes 中任何容器的扩展。


https://keda.sh/docs/2.12/scalers/

<div align="center">
<img src="../assets/keda-support-resources.png" width = "500" align=center />
</div>
Loading

0 comments on commit 6a078d9

Please sign in to comment.