SmartX SCF 01:产品构成与特性
本文内容为SmartX Certified Foundation 产品构成与特性 学习笔记。有助于帮助读者快速了解SmartX的产品。
本文适用于的SmartX产品:SMTX OS 5.X
、SMTX ZBS 5.X
、CloudTower 2.0
、Everoute 1.0
版本;还包含了备份与容灾
、SKS服务
等。
目录
1. 超融合
概念
HCI,在单个Server中包含了计算、存储、网络、管理工具等。
以SDX为核心,通用硬件替代专用硬件。
运作方式
以Cluster方式部署,一般最少3节点
最基础组件
- SDS:分布式存储,以分布式架构提供统一的存储资源池服务;
- SDC:计算虚拟化,计算池化;
- 统一管理平台:提供统一管理工具,管理计算、存储、网络等;
2. SmartX超融合基础设施
硬件
- 服务器:至少3台以上的服务器。通用服务器或SmartX超融合一体机。
- 硬件兼容性查询手册:
https://www.smartx.com/smtxos-compatibility/
- Halo超融合一体机:
https://www.smartx.com/halo/
- 硬件兼容性查询手册:
对比项目 | 兼容服务器 | Halo 超融合一体机 |
---|---|---|
交付形式 | 根据硬件兼容列表(HCL)自行准备硬件,后续完成 SMTX OS 部署 | 一体机预装 SMTX OS,开箱即用 |
硬件供应商选择 | 灵活 | 固定 |
硬件配置 | 灵活 | 灵活 |
硬件管理优化 | 不支持 | 支持 |
信创硬件 | 支持 | 支持 |
售后服务 | 硬件由服务器供应商提供服务,超融合软件由 SmartX 及其认证服务商提供服务 | 超融合软件与服务器硬件统一由 SmartX 及其认证服务商提供服务 |
- 交换机:服务器间数据交换网络10G+;混闪10G;全闪25G+且支持RDMA。
软件
- SMTX OS:核心软件,内置ZBS、ELF、同城双活等。类比为华为eFusion的CNA或VMWare vSphere的Esxi。有两种部署方式:
-
ELF:直接部署在裸金属上,计算虚拟化由ELF提供;完全类似于CNA或ESXi;存储由内含的ZBS提供;
-
ESXi:SMTX OS变为SCVM,以虚拟机形式存在,计算虚拟化由ESXi提供,每台ESXi都需要一个SCVM。存储,SCVM接管所有硬盘,池化后以NFS给ESXi使用。
-
对比项目 | SMTX OS with ELF | SMTX OS with ESXi | SMTX OS with XenServer |
---|---|---|---|
虚拟化授权 | 不需要 | 需要独立采购 | VDI场景下不需要 |
信创支持 | 支持 | 不支持 | 不支持 |
集成优化 | 高 | 中等 | 一般 |
性能表现 | 优秀 | 良好 | 中等 |
优势场景 | 服务器虚拟化 私有云 信创 | 服务器虚拟化 私有云 | 虚拟桌面 |
- CloudTower:统一管理平台。SMTX OS集群、ZBS集群都可以被纳入。类比为eFusion的VRM或vSphere的vCenter
- Everoute:SDN软件,提供微分段、分布式防火墙、VPC等功能。类比为vSphere的NSX
- SMTX 备份与容灾:数据保护产品,为SMTX集群提供备份、复制、容灾。类比为eSphere的BCManager
拓扑
3台以上的服务器硬件通过10G交换机互联,每台服务器跑SMTX OS,SMTX OS池化资源。
SmartX超融合和传统方案对比
传统方案 | 对比项目 | 超融合方案 |
---|---|---|
硬件及环境要求 | 硬件及环境要求 | 硬件及环境要求 |
存算分离三层式架构 | 架构 | 存算融合两层式架构 |
专用硬件(集中式存储设备) | 硬件类型 | 通用硬件 |
多 | 机柜空间占用 | 少 |
高 | 耗电量 | 低 |
数据可靠性&业务连续性 | 数据可靠性&业务连续性 | 数据可靠性&业务连续性 |
RAID技术 | 数据冗余机制 | 副本技术 |
长 | 数据恢复时间 | 短 |
大 | 数据恢复对业务影响 | 小 |
扩展性 | 扩展性 | 扩展性 |
本身不支持,依赖存储网关硬件 | 池化能力 | 软件定义、资源完全池化 |
新增磁盘阵列柜/新增存储设备 | 扩展模式 | 新增硬盘/新增节点 |
复杂、扩容需较长的提前规划 | 扩展流程 | 简单,可按需扩展 |
易用性 | 易用性 | 易用性 |
步骤多,耗时长,操作繁琐 | 部署流程 | 部署简单,快速上线 |
繁复,多个界面来回切换 | 日常管理 | 简单,统一界面管理 |
离线,命令行操作 | 系统升级 | 在线、滚动升级,图形化操作 |
软件组件介绍
ZBS
ZBS,自研的分布式块存储,与ELF或vSphere等超融合形态交付,也可以独立作为存储产品。
- 容错机制好,数据保护手段丰富。针对硬盘、网络、主机、电源等多个级别的故障场景,提供不同维度的保护功能,减少停机时间。
- 针对真实业务负载进行针对性优化,提供优异IO相应,提升核心业务并发访问能力。
ELF
ELF 是 SMTX OS中内置的免费原生虚拟化服务。具备常见虚拟化计算场景特性、与ZBS结合实现性能优化,具有虚拟化网络与安全、数据保护等高级组件。
- 企业级的售后服务与支持;
- 解决虚拟化软件许可的成本;
- 场景大部分覆盖;
- 与ZBS结合,低延时、交付敏捷;
- 界面操作简单明了,上手简单;
SMTX OS功能与特性
数据可靠性与业务连续性保护
- 数据校验
数据可能受到射线、供电等原因导致数据静默损坏。SMTX OS内置数据校验功能,将数据分组(8KB),生成校验码(包含在8KB内的512B)。当发现数据变质,将自动出发数据恢复修正错误。 - 多副本冗余技术
对数据自动复制成多个副本(可选2或3)。提高系统和数据对硬件故障的容忍度。(服务器级冗余)
2副本策略,集群需要3服务器节点以上,可容忍1个节点损坏,不影响系统的可靠性和可用性;
3副本策略,集群需要5服务器节点以上,可容忍2个节点损坏,不影响系统的可靠性和可用性。 - 机架感知
通过感知服务器对应的机柜位置,确保数据多副本放置在不同机柜的多台服务器中,防止机柜电源故障导致的数据丢失(机柜级冗余) - 自动调节恢复速度
SMTX OS在执行数据恢复时,会根据当前业务负载,自动调节恢复速度。确保业务负载优先。
具体:https://www.smartx.com/blog/2022/05/resilient-copy-recovery-strategy/ - 计划任务快照
SMTX OS提供基于虚拟机的快照能力,实现虚拟机级别的秒级的快速备份与回复。
SMTX OS内置本地的快照执行计划,针对指定虚拟机,自定义周期自动执行快照。 - 找回数据
SMTX OS提供回收站功能,允许用户在删除虚拟机后一段时间内重新恢复虚拟机。 - 远程容灾
SMTX OS支持针对指定的虚拟机及数据,异步复制到远程站点。
异步复制的最低时间间隔为15min,即RPO>=15min。
虚拟机的近同步容灾:虚拟机整机备份与容灾,最低RPO 15min,业务可在分钟级切换运行。
资源高效利用:启用异步复制,SMTX OS集群既能提供生产虚拟机环境,也可以作为其他站点的容灾平台。
远距离容灾支持:无地理距离和网络延迟限制,跨城市远距离容灾。 - 跨主机/集群的实时迁移
SMTX OS支持集群内的虚拟机在线迁移、多集群间的虚拟机在线迁移。
在线迁移可以帮助用户随时优化资源池的虚拟机配置;在不影响业务运营的情况下执行硬件维护;将虚拟机从性能不好的服务器中迁移出来。 - 不停机升级
可以在不关停主机的情况下执行版本升级,集群多个节点滚动升级。
同时支持“一键操作”,减少停机时间和降低运维工作量。 - 虚拟机高可用
VM HA功能,将虚拟机从故障主机上自动迁移到集群其他监控主机上并重新恢复。缩短业务停机时间,增强业务连续性。
结合多副本、机架感知,可以在服务器节点、机柜出现故障的情况下,确保业务连续性和数据可靠性。 - 双活集群
实现业务跨数据中心站点部署。当某一数据中心站点失效,可以快速切换到备用数据中心。站点之间数据完全同步,没有数据丢失。
双活集群对数据中心的网络有较高要求,链路延时不能高于5ms。
SMTX OS双活集群以拉伸集群的方式,实现数据实时同步。RPO=0
虚拟机业务跨站点分钟级恢复。RTO分钟级
SMTX OS双活集群无需用户购置额外的同步硬件;支持跨站点的Oracle RAC数据库集群部署,提升业务容灾水平。
围绕虚拟机的性能优化
- 混合存储部署,冷/热数据自动分层
支持SSD和HDD混合部署,SSD作为高速缓存,HDD作为数据存储。系统自动识别冷热数据,将热数据放在SSD,冷数据放在HDD。
存储引擎经过优化,使得虚拟机在混闪配置下可获得近乎全闪的体验。
类似华为的SmartTier - 全闪存部署
支持SATA/NVMe SSD,配合25G网络或RDMA提高性能。 - 支持NVMe SSD
- 数据本地化
SMTX OS对多副本技术的优化,保证虚拟机在写入数据时,至少在本地主机写入一份完整副本,其他副本存放在其他远端主机。缩短IO路径,降低访问延时。 - 高速网络支持
SMTX OS默认支持使用10G/25G 以太网作为存储网络。5.0版本后开始支持RDMA。
RDMA:绕过多层的系统缓冲区,直接访问内存。 - Boost模式
专门问计算虚拟化层进行优化的功能(只支持ELF),通过内存共享技术,优化虚拟机内存与磁盘的交互效率,提升高负载的虚拟机性能。
扩展SMTX OS集群
- 灵活的扩展模式
3节点起步,可以在线热插、添加硬盘;可以不停机添加服务器节点;资源的扩展会后台自动池化和平衡。 - 混合硬件支持
允许不同品牌、不同硬件配置的服务器硬件在同一集群中部署。
分析与评估SMTX OS集群
- 告警系统
除了常规软、硬件故障告警,还有风险预测告警(SSD读写寿命不足等),提前通知用户避免风险;告警可通过邮件、监控中心集成(Zabbix等);自定义告警阈值。 - 个性化监控视图
用户可以按需创建关于集群、主机、虚拟机等不同对象的监控信息视图,可以以时间线展示与对比。 - 资源优化分析
根据历史的资源监控信息分析,判别资源过剩、资源紧张、长期闲置等不同的虚拟机;帮助用户更清晰掌握集群资源,保持资源的高效利用。
高效管理SMTX OS集群
- 资源快速发布
通过模板批量发布虚拟机(一次最多10台);
克隆技术,秒级克隆发布虚拟机;
批量完成虚拟机配置(如主机名、IP、密码、脚本等)。
3. SmartX存储产品
ZBS分布式存储
SmartX自主研发的分布式块存储,可为裸金属服务器、虚拟化环境(VMware ESXi、HyperV等)、Openstack等、K8S等多平台提供块存储。
硬件组成
- 服务器
至少3台或以上的标准服务器或SmartX超融合一体机。
硬件支持可以查看之前的SMTX OS部分的硬件兼容性。 - 存储交换机
10G以上的以太网交换机;2台以上保证高可用。
软件组成
- ZBS分布式块存储软件
区别于SMTX OS的存、算融合部署,主要用于存、算分离的场景。提供生产级可用特性、高性能、易扩展、易维护。 - CloudTower运维管理平台
SmartX产品的统一管理平台,包括SMTX OS超融合集群、SMTX ZBS分布式块存储集群等。
存储网络接入协议
- iSCSI
- NVMe-oF
部署拓扑
3台以上的服务器通过10G交换机互联,每台服务器都运行SMTX ZBS软件。
ZBS将多台服务器的磁盘统一池化。
计算节点1 计算节点2 计算节点3
| | |
| | |
| | |
高速交换机1 高速交换机2
| |
| 接入网络 |
| |
ZBS主机1 ZBS主机2 ZBS主机3
| | |
| 存储网络 |
高速交换机1 高速交换机2
功能与特性
ZBS继承了SMTX OS的功能和特性。
数据可靠性
- 数据校验(同SMTX OS)
- 副本技术(同SMTX OS)
- 传统RAID的限制:
- 需要热备盘
- 热备盘的空间无法使用,资源浪费
- 硬盘故障时,热备盘是瓶颈,数据恢复速度的上限是热备盘的写入速度
- 数据恢复时,所有盘参与,影响业务
- 恢复时间长,10TB需要数天
- 副本技术特点:
- 无需专门的热而被判
- 磁盘故障时,多个硬盘、主机并发执行回复,速度快
- 数据恢复对系统影响小
- 数据恢复时间比RAID短
- RAID和副本二点可用性与可靠性对比:
- 传统RAID的限制:
对比项目 | Raid5 | Raid6 | Raid10 | Raid50 | 2副本 | 3副本 |
---|---|---|---|---|---|---|
得盘率 (无热备盘) | >=75% | >=60% | 50% | >=66.7% | 50% | 33.3% |
得盘率 (1块热备盘) | >=60% | >=50% | 40%~50% | >=57% | 50% | 33.3% |
容忍离线硬盘数量最小值 | 1 | 2 | 1 | 2 | 1 | 2 |
容忍离线硬盘数量最大值 | 1 | 2 | n/2 | 2 | <=n/3 | <=2n/5 |
- 机架拓扑感知(同SMTX OS)
数据保护技术
- 基于存储卷的快照和克隆
- 基于存储卷的异步复制
- 存储双活集群
存储性能优化
- 存储分层
需要注意一点,缓存层至少应为数据层的10%。 - 全闪支持
闪存介质 | 性能 | 成本 | 网络要求 | 缓存层 | 容量层 |
---|---|---|---|---|---|
SATA SSD | 良好 | 较低 | 10G | 支持 | 支持 |
NVMe SSD | 优秀 | 较高 | 10G/25G | 支持 | 支持 |
- 简化存储维护
- 主动报告与隔离“濒临故障”的磁盘:自动隔离访问延时过大的磁盘(大概率磁盘可能会故障)
- 根据业务负载智能调整数据恢复速度
IOMesh 云原生存储
IOMesh是Kubernetes-native的云原生存储及数据平台,可以管理和自动化运维Kubernetes集群内的存储资源,并对运行在Kubernetes上的各类数据类应用(Mysql、MongoDB、中间件等)提供持久化存储、数据保护、迁移能力。
硬件组成
- 服务器
集群至少3台标准服务器。目前支持Intel x86_64、鲲鹏AArch64、海光x86_64。
服务器可以是标准商用服务器,云主机、Kubernetes节点上。
硬件需要符合硬件兼容性要求。 - 存储交换机
10G以上交换机,2台以上保证高可用。
软件组成
- Kubernetes软件
- IOMesh
IOMesh部署在标准的Kubernetes集群上,在主流的操作系统上都能安装成功,具备良好兼容性。
IOMesh具备云原生特征,对基础设施、Kubernetes平台无以来,可为有状态应用StatefulSet提供K8s原生、高性能、高可靠、高性价比、高可扩展的持久化能力。
部署架构
IOMesh分别部署在3台及以上的K8s worker节点上。worker节点之间万兆交换机互联,集群中每台worker节点运行业务容器与IOMesh容器服务。
IOMesh统一池化节点的磁盘资源,以CSI方式提供给内部或外部的K8s集群的上层业务容器。
IOMesh 功能与特性
数据可靠性
- 数据校验
- 多副本支持
- 机架拓扑感知
数据保护与安全
- PV的快照和克隆
- PV身份认证
允许使用Kubernetes secret进行身份验证。身份验证功能通过存储类实现,每次pod生命使用身份验证的PVC时,必须通过认证。
存储性能优化
可用于容器环境中支撑I/O密集型应用。
- 存储分层
- 全闪支持
- 简化存储运维
- 主动报告与隔离“濒临故障”的磁盘:自动隔离访问延时过大的磁盘(大概率磁盘可能会故障)
- 根据业务负载智能调整数据恢复速度
- Kubernetes原生
IOMesh完全基于Kubernetes自设能力构建,使用声明式API实现“存储即代码”,更好的支持DevOps。
以容器方式运行在用户空间,与其他应用程序完全隔离。故障时不影响其他应用;安装时不需要额外任何内核模块、不需要担心内核版本兼容。
以CSI为有状态应用配置存储。与K8s工具链无缝协作,可以使用Helm Chart部署IOMesh;可以与Prometheus和Grafana继承,提供监控、报警。
4. Everoute 网络与安全产品
Everoute提供分布式防火墙、负载均衡、容器网络等功能。
Everoute分布式防火墙(DFW)
基于SmartX ELF,实现符合“零信任”的微分段网咯模型,为虚拟机提供虚拟机隔离、自定义安全策略、全局安全策略三种形态的分布式防火墙策略。
与Everoute Container Plugin结合,可以支持Smartx HCI上的K8s网络安全策略。
适用场景
南北行流量:数据中心内外的流量
东西向流量:数据中心内部服务器之间的流量
传统安全模型无法控制东西向流量。
虚拟化后的变化:
- 被管理对象总体增多
- 被管理对象的位置不固定
- 被管理对象的数量和属性变动很快
等保2.0 要求“虚拟机之前的访问控制”
Everoute DFW部署在虚拟机之间,适用于:
- 虚拟化比例高的场景
- 面向外部用户提供服务的DMZ虚拟化集群
- 多业务、应用、部门混用的服务器集群
- DevSecOps模型驱动的开发、运维、安全自动化流程
- 等保2.0需求
Everoute DFW用于东西向安全防护,不能替代南北向安全防护的传统防火墙
主要特性
- 支持网络微分段(传统分段:基于IP/子网/VLAN/接口/接口组 划分网络安全域;微分段:在任意虚拟机之前设置安全隔离措施)。
- 可以使用IP地址(段)作为安全策略,也支持基于业务标签的策略管理,实现虚拟机全生命周期自动跟随。采用ELF的虚拟机标签(别名)。
- 支持对虚拟机异常状态紧急响应。通过“诊断隔离”模式,为管理员提供在安全状态下访问“中毒”虚拟机的途径。
e.g. : 1. 通过GUI/API将虚拟机置于“网络隔离状态”;2. 设置“诊断隔离白名单”,允许特定节点访问被隔离虚拟机;3. 故障修复后,一键恢复虚拟机状态,无需调整安全模式。
使用条件
基于ELF设计,结合SMTX OS虚拟网络交换机,提供DFW功能。
必须在ELF中使用。
微分段由集群中的每台主机分布式执行:
- 不装插件
- 不动网络
- 没有瓶颈
- 与底层硬件解耦,虚拟化实现
- 基于SMTX OS
注意:虚拟机管理、标签管理、安全策略管理、虚拟机隔离等安全运维操作,需要在CloudTower上完成。CloudTower可以实现管理多集群,跨集群迁移仍保持标签、安全策略等。
Everoute DFW与SMTX OS、CloudTower之间的兼容关系:
- SMTX OS:任意许可版本(基础、敏捷、标准、企业),软件版本高于v5.0.1
- CloudTower:许可版本(基础、企业、企业增强),软件版本高于v1.9.0
- 三者的社区版授权可以配合使用,但不能与商业版共同使用。
Everoute网络负载均衡(Load Balancer)
作为Everoute SDN组件部署在SmartX HCI上,提供负载均衡服务。
Everoute 2.0.0 提供4层,基于IP+协议+端口的负载均衡
Everoute LB可以:
- 为后端服务器设置不同的权重,依据权重比例分发:
- 基于HTTP|TCP|UDP|ICMP等健康检查
- 属于同一个Client的IP包,尽量转发到一台后端服务器
适用场景
使用多个ELF虚拟机为Client提供同一种基于网络的服务,可以使用LB功能分发访问请求到后端服务器组。
采用外置的LB方案,会出现数据转发路径迂回、操作效率低、运维不同意等问题。
Everoute LB为SMTX OS集群中的应用提供的价值:
- 负载和资源平衡;
- 高可用、快速故障倒换、系统异构、业务迁移:根据健康检查
- 访问控制、限速保护:设置访问控制列表、连接请求数量限制、带宽限制
K8s环境中的负载均衡有开源如MetalLB,但是没有企业级服务支持,难以定位问题和调试。
Everoute LB可以作为K8s的Type=LoadBalancer的Kubernetes Servcie的外部负载均衡器,提供四层LB能力。
只要满足IP可达的条件,ELF中的负载均衡功能,就可以面向ELF之外的虚拟机、物理机、容器提供L4 LB
使用条件
- SMTX OS >= 5.0.1;CloudTower >= 3.2.0
- 使用CloudTower管理,在“网络与安全”功能页面配置
- 至少2个至多4个 LB VM 部署在 SMTX OS(ELF)集群中,为集群内、外的后端服务器提供LB服务。
- Everoute LB和DFW没有依赖关系,两者可以分别购买、安装、使用
- Everoute2.0.0中,LB VM必须部署在同一个SMTX OS(ELF)集群中
方案优势
- 集成于SMTX OS中,通过CloudTower管理配置
- 无需改变物理网络
- 支持完整的L4 LB
- Everoute LB自身具备虚拟化的高可用特性,LB VM可以实现自动流量分担、主备倒换、在线扩容升级等。
- 由SmartX原厂售后
注意:
- Everoute 2.0.0中,不支持LB VM 在线扩容,需要删除原有,再新增,即不支持横向扩容。
- Everoute 2.0.0中,支持在线提升LB VM配置类型,即垂直扩容。
CloudTower 管理平台产品
为多款SmartX产品提供统一管理平台与访问入口,统一展示基础架构资源池。
跨集群迁移
CloudTower支持虚拟机和数据在多个SMTX OS之间在线/离线迁移
内容库管理
CloudTower 可以建立和管理统一的模板库、镜像库,供集群之间共享使用
用户管理
ClouudTower支持自定义用户角色与权限以及专属管理试图,提供用户安全策略配置。
SMTX 备份与容灾
SmartX HCI Infrastructure 不仅支持第三方备份、容灾解决方案集成,可有一套原生的备份与容灾产品。
产品组成:
- 备份与恢复
支持将虚拟机征集备份至集群外部存储(如NAS),也可以使用该文件(数据文件和配置文件)恢复虚拟机 - 复制与恢复
支持将SMTX OS(ELF)集群中的虚拟机异步复制到另一个SMTX OS(ELF)集群,并保持副本虚拟机与源虚拟机同步。
产品特性
- 原生无代理备份和容灾
以虚拟机为单位进行保护 - 统一管理
使用CloudTower,实现系统服务的一键部署和升级 - 灵活的数据保护选项
支持备份和复制两种数据保护方式,按需选择,并可以自定义执行周期、执行窗口、保留策略。
7. SMTX Kubernetes 服务
K8s主要功能
- 服务发现与负载均衡
- 存储编排
- 自动部署与回滚
- 自动调度
- 自我修复
K8s架构与组件
control plane component
即以前的Master Node,更名成此。负责调度、编排、管理WorkerNode。
可以感知和响应集群内事件。可以运行在集群的任意节点上(不过一般都是指定一台服务器运行)
Control Plane Component包含的组件:
- kube-apiserver:
负责处理接受请求,是k8s集群的统一入口,协调各组件。 - etcd:
分布式、一致且高可用的KV存储,用作k8s集群数据的后台数据库。 - kube-scheduler:
监视新创建的、未指定Node的Pod,并选择合适的Node用于运行Pod。 - kube-controller-manager:
K8s集群中处理常规任务的后台线程,自动化控制中心。
Worker Node
即以前的Slave Node,更名成此。实际运行Pod的载体。
Worker Node的组件:
- kubelet:
作为Agent在集群每个Node上运行,保证容器都运行在Pod中。Kubelet接受apiserver提供的PodSpec(Pod的规格配置文件),确保Node上的Pod都按照PodSpec来运行。Kubelet仅管理K8s创建的容器。 - kube-proxy:
网络代理,运行在每一个Node。维护节点的网络规则,允许Pod通过网络和集群内部其他Pod或集群外 通信。 - CRI:
负责运行容器的软件。支持containerd、CRI-O、Docker Engine等。目前原生K8s采用containerd
K8s如何运作
计算资源管理
- Pod
最小单位,1或多个容器的组合,Pod内共享存储和网络资源,Pod间资源隔离 - ReplicaSet
保证Pod的运行数量 - Deployments
Deployment描述Pod目标状态,使Pod以期望的状态运行,无状态负载 - StatefulSet
有状态负载,管理某Pod集合的部署和扩缩,提供持久存储和持久标识符。维护了Pod的粘性ID(Pod对应一个ID不变)
存储资源管理
Pod默认临时存放,Pod退出或关闭后数据就丢失。
EV临时卷,生命周期跟随Pod,Pod销毁也销毁。
PV持久卷,持久化保存的卷,Pod销毁不会销毁绑定的持久卷。
CSI:存储容器接口,借助CSI存储编排系统,可以将任意存储系统暴露给自己的容器工作负载(有/无状态负载)。第三方可以开发CSI驱动,使K8s可以使用这些外部存储。CSI使得不同类型的存储系统都可以:
- 按需自动创建存储
- 确保容器无论调度到哪个节点都能访问存储
- 按需自动删除不再使用的存储
网络资源管理
K8s集群需要使用Network Plugin才能使Pod访问网络。同时Network Plugin可以使K8s使用不同的网络技术。
CNI:存储网络接口,由一组用于配置Linux容器的网络接口的规范和库、插件组成。CNI仅关注Pod创建时的网络分配和销毁时的网络释放。
Pod可以通过CNI获得相应的网络资源和网络安全控制策略。
SKS与传统架构(裸金属)K8s的对比
SMTX Kubernetes Service 简称SKS,是在SMTX OS HCI 之上自动化构建企业级K8s集群。
优势:
- 简化K8s部署:仅需点击操作,20分钟部署一套生产就绪的K8s集群
- 屏蔽硬件复杂性
- 无需了解K8s安装细节
- 简化运维:K8s并不能完成服务器、存储等硬件运维和管理,而SKS与SMTX OS结合很好的补充了这一点
- 统一运维界面
- 可视化管理
- 降低成本(减少CapEx、减少OpEx)
- 虚拟机在线迁移:运行中K8s的虚拟机可以迁移,而不许重新启动Service或Pod
SKS产品构成
SKS是什么
SmartX企业云基础设施提供的K8s服务。基于SMTX CloudTower和SMTX OS来提供K8s as a Service服务。SKS支持为K8s集群提供内置的CNI、CSI、Ingress Controller、LoadBalancer、监控、日志等功能。
即SmartX的同时提供虚拟机和K8s服务以支撑客户传统和容器应用。
SKS架构
-
与SMTX OS的关系
SKS基于SMTX OS(ELF),自动创建多台VM用以构建K8s集群。SKS依赖于SMTX OS 版本>=5.0.3。 -
ZBS提供存储服务
SKS支持两种CSI:SMTX ELF CSI和ZBS CSI Kubernetes。通过CSI对接ZBS,由ZBS提供PV用于StatefulSet。 -
Everoute提供网络连接和安全服务
实现了SMTX ECP CNI 对接Everoute用于支撑SKS K8s网络
-
CloudTower提供管理服务
CloudTower是SKS管理的入口,用于图形化SKS全生命周期的管理。
软件组成
容器镜像仓库
存放SKS在离线场景下使用的所有容器镜像,包括SKS组件容器镜像,K8s组件镜像。
SKS管控集群
Management Cluster是高可用的K8s集群,运行着SKS核心服务和其他服务:
- K8s集群组件
- SKS核心服务
- SKS包管理器
- SKS集群插件
SKS管控集群承载SKS所有管理功能和服务:自动化创建SKS工作负载、工作负载集群的运维和管理。
SKS工作负载集群
Workload Cluster,由管理员创建的K8s集群,交付给普通用户用于部署K8s工作负载。
与管控集群的区别:
- 管控 仅运行SKS管理相关,不运行用户的普通负载;
- 工作 仅运行用户工作负载;
- 管控 对用户端透明
工作负载集群组成
一个标准的K8s集群,每个Node对应一台VM。
集群节点按照节点组划分,有一个控制平面节点组和多个工作节点组。
工作负载集群 还安装SKS包管理器和一些预置的SKS集群插件,提供K8s集群控制平面高可用、CNI、CSI、监控、日志、Ingress Controller、LB等服务。
容器持久化存储插件CSI支持
使用SKS创建工作负载集群时,而可以指定集群安装SMTX ELF CSI还是SMTC ZBS CSI,配合SMTX OS存储资源或ZBS分布式存储为容器提供持久化存储。
- SMTX ELF CSI:利用SMTX OS集群中的存储资源,继承IO本地化的高性能优势。推荐
- SMTX ZBS CSI:可以为SKS内或外(裸金属)K8s集群提供持久卷服务,但需要配置额外的专属网络端口作为存储接入网络。
容器网络插件CNI支持
使用SKS创建工作负载集群时,而可以指定集群安装Calico CNI或ECP(Everoute Container Plugin)CNI,为容器提供网络连接服务和相关安全策略。
- Calico CNI:开源的网络方案,用于容器、虚拟机、宿主机之间的网络连接。
- ECP CNI:Everoute Container Plugin。SmartX自研的CNI插件,实现虚拟机和容器的扁平网络管理。容器和虚拟机应用可互联互通。对容器和虚拟机的网络进行统一的网络安全策略管理,支持工作负载级的策略设定。
服务访问LB、Ingress
工作负载集群支持NodePort、LoadBalancer、Ingress等方式暴露应用访问方式
监控和日志
SKS可观测性的核心能力之一,实时记录Kubernetes集群的运行状态数据,获知系统中各个组件的运行指标。
日志功能,启用后,可以查看集群中的日志信息,并GUI设置日志保留时间。
SKS功能与特性
简易的K8s集群生命周期管理
-
图形化、自动化创建K8s集群:
-
选择K8s版本和相关插件
-
为K8s工作负载集群设定初始规模和分配硬件资源
-
为K8s工作负载集群配置网络
-
-
一键完成K8s集群扩容和缩容
在线扩展/收缩worker节点的数量(编辑节点数量)
生产级的存储、网络插件预集成与集群高可用
- 内置的两种CSI提供持久卷。ELF CSi更是支持IO本地化功能进一步降低存储访问延时。
- 内置的两种CNI提供网络服务
灵活开放的插件与版本选择
- 支持多种K8s模板:支持原生的K8s,用户可根据需要选择不同的版本 或 创建多个不同的K8s版本。
- 通过插件扩展功能:内置了MetalLB、Contour、Prometheus等多种K8s生态成熟插件。默认不开启,有需要可以通过SKS管理页面启用插件。同时支持通过插件管理器安装其他插件。
组件 | 工具 |
---|---|
L4负载均衡器 | MetalLB |
Ingress控制器 | Contour |
监控 | Prometheus, Grafana |
日志 | ElasticSearch, Fluent Bit, Kibana |
原文地址:https://blog.csdn.net/Tassel_YUE/article/details/144337910
免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!