自学内容网 自学内容网

SmartX SCF 01:产品构成与特性

本文内容为SmartX Certified Foundation 产品构成与特性 学习笔记。有助于帮助读者快速了解SmartX的产品。
本文适用于的SmartX产品:SMTX OS 5.XSMTX ZBS 5.XCloudTower 2.0Everoute 1.0版本;还包含了备份与容灾SKS服务等。

目录

1. 超融合

概念

HCI,在单个Server中包含了计算、存储、网络、管理工具等。
以SDX为核心,通用硬件替代专用硬件。

运作方式

以Cluster方式部署,一般最少3节点

最基础组件

  1. SDS:分布式存储,以分布式架构提供统一的存储资源池服务;
  2. SDC:计算虚拟化,计算池化;
  3. 统一管理平台:提供统一管理工具,管理计算、存储、网络等;

2. SmartX超融合基础设施

在这里插入图片描述

硬件

  • 服务器:至少3台以上的服务器。通用服务器或SmartX超融合一体机。
    • 硬件兼容性查询手册:https://www.smartx.com/smtxos-compatibility/
    • Halo超融合一体机:https://www.smartx.com/halo/
对比项目兼容服务器Halo 超融合一体机
交付形式根据硬件兼容列表(HCL)自行准备硬件,后续完成 SMTX OS 部署一体机预装 SMTX OS,开箱即用
硬件供应商选择灵活固定
硬件配置灵活灵活
硬件管理优化不支持支持
信创硬件支持支持
售后服务硬件由服务器供应商提供服务,超融合软件由 SmartX 及其认证服务商提供服务超融合软件与服务器硬件统一由 SmartX 及其认证服务商提供服务
  • 交换机:服务器间数据交换网络10G+;混闪10G;全闪25G+且支持RDMA。

软件

  • SMTX OS:核心软件,内置ZBS、ELF、同城双活等。类比为华为eFusion的CNA或VMWare vSphere的Esxi。有两种部署方式:
    • ELF:直接部署在裸金属上,计算虚拟化由ELF提供;完全类似于CNA或ESXi;存储由内含的ZBS提供;
      在这里插入图片描述

    • ESXi:SMTX OS变为SCVM,以虚拟机形式存在,计算虚拟化由ESXi提供,每台ESXi都需要一个SCVM。存储,SCVM接管所有硬盘,池化后以NFS给ESXi使用。
      在这里插入图片描述

对比项目SMTX OS with ELFSMTX OS with ESXiSMTX OS with XenServer
虚拟化授权不需要需要独立采购VDI场景下不需要
信创支持支持不支持不支持
集成优化中等一般
性能表现优秀良好中等
优势场景服务器虚拟化 私有云 信创服务器虚拟化 私有云虚拟桌面
  • CloudTower:统一管理平台。SMTX OS集群、ZBS集群都可以被纳入。类比为eFusion的VRM或vSphere的vCenter
  • Everoute:SDN软件,提供微分段、分布式防火墙、VPC等功能。类比为vSphere的NSX
  • SMTX 备份与容灾:数据保护产品,为SMTX集群提供备份、复制、容灾。类比为eSphere的BCManager

拓扑

3台以上的服务器硬件通过10G交换机互联,每台服务器跑SMTX OS,SMTX OS池化资源。

SmartX超融合和传统方案对比

传统方案对比项目超融合方案
硬件及环境要求硬件及环境要求硬件及环境要求
存算分离三层式架构架构存算融合两层式架构
专用硬件(集中式存储设备)硬件类型通用硬件
机柜空间占用
耗电量
数据可靠性&业务连续性数据可靠性&业务连续性数据可靠性&业务连续性
RAID技术数据冗余机制副本技术
数据恢复时间
数据恢复对业务影响
扩展性扩展性扩展性
本身不支持,依赖存储网关硬件池化能力软件定义、资源完全池化
新增磁盘阵列柜/新增存储设备扩展模式新增硬盘/新增节点
复杂、扩容需较长的提前规划扩展流程简单,可按需扩展
易用性易用性易用性
步骤多,耗时长,操作繁琐部署流程部署简单,快速上线
繁复,多个界面来回切换日常管理简单,统一界面管理
离线,命令行操作系统升级在线、滚动升级,图形化操作

软件组件介绍

ZBS

ZBS,自研的分布式块存储,与ELF或vSphere等超融合形态交付,也可以独立作为存储产品。

  • 容错机制好,数据保护手段丰富。针对硬盘、网络、主机、电源等多个级别的故障场景,提供不同维度的保护功能,减少停机时间。
  • 针对真实业务负载进行针对性优化,提供优异IO相应,提升核心业务并发访问能力。

ELF

ELF 是 SMTX OS中内置的免费原生虚拟化服务。具备常见虚拟化计算场景特性、与ZBS结合实现性能优化,具有虚拟化网络与安全、数据保护等高级组件。

  • 企业级的售后服务与支持;
  • 解决虚拟化软件许可的成本;
  • 场景大部分覆盖;
  • 与ZBS结合,低延时、交付敏捷;
  • 界面操作简单明了,上手简单;

SMTX OS功能与特性

数据可靠性与业务连续性保护

  1. 数据校验
    数据可能受到射线、供电等原因导致数据静默损坏。SMTX OS内置数据校验功能,将数据分组(8KB),生成校验码(包含在8KB内的512B)。当发现数据变质,将自动出发数据恢复修正错误。
  2. 多副本冗余技术
    对数据自动复制成多个副本(可选2或3)。提高系统和数据对硬件故障的容忍度。(服务器级冗余)
    2副本策略,集群需要3服务器节点以上,可容忍1个节点损坏,不影响系统的可靠性和可用性;
    3副本策略,集群需要5服务器节点以上,可容忍2个节点损坏,不影响系统的可靠性和可用性。
  3. 机架感知
    通过感知服务器对应的机柜位置,确保数据多副本放置在不同机柜的多台服务器中,防止机柜电源故障导致的数据丢失(机柜级冗余)
  4. 自动调节恢复速度
    SMTX OS在执行数据恢复时,会根据当前业务负载,自动调节恢复速度。确保业务负载优先。
    具体:https://www.smartx.com/blog/2022/05/resilient-copy-recovery-strategy/
  5. 计划任务快照
    SMTX OS提供基于虚拟机的快照能力,实现虚拟机级别的秒级的快速备份与回复。
    SMTX OS内置本地的快照执行计划,针对指定虚拟机,自定义周期自动执行快照。
  6. 找回数据
    SMTX OS提供回收站功能,允许用户在删除虚拟机后一段时间内重新恢复虚拟机。
  7. 远程容灾
    SMTX OS支持针对指定的虚拟机及数据,异步复制到远程站点。
    异步复制的最低时间间隔为15min,即RPO>=15min。
    虚拟机的近同步容灾:虚拟机整机备份与容灾,最低RPO 15min,业务可在分钟级切换运行。
    资源高效利用:启用异步复制,SMTX OS集群既能提供生产虚拟机环境,也可以作为其他站点的容灾平台。
    远距离容灾支持:无地理距离和网络延迟限制,跨城市远距离容灾。
  8. 跨主机/集群的实时迁移
    SMTX OS支持集群内的虚拟机在线迁移、多集群间的虚拟机在线迁移。
    在线迁移可以帮助用户随时优化资源池的虚拟机配置;在不影响业务运营的情况下执行硬件维护;将虚拟机从性能不好的服务器中迁移出来。
  9. 不停机升级
    可以在不关停主机的情况下执行版本升级,集群多个节点滚动升级。
    同时支持“一键操作”,减少停机时间和降低运维工作量。
  10. 虚拟机高可用
    VM HA功能,将虚拟机从故障主机上自动迁移到集群其他监控主机上并重新恢复。缩短业务停机时间,增强业务连续性。
    结合多副本、机架感知,可以在服务器节点、机柜出现故障的情况下,确保业务连续性和数据可靠性。
  11. 双活集群
    实现业务跨数据中心站点部署。当某一数据中心站点失效,可以快速切换到备用数据中心。站点之间数据完全同步,没有数据丢失。
    双活集群对数据中心的网络有较高要求,链路延时不能高于5ms。
    SMTX OS双活集群以拉伸集群的方式,实现数据实时同步。RPO=0
    虚拟机业务跨站点分钟级恢复。RTO分钟级
    SMTX OS双活集群无需用户购置额外的同步硬件;支持跨站点的Oracle RAC数据库集群部署,提升业务容灾水平。

围绕虚拟机的性能优化

  1. 混合存储部署,冷/热数据自动分层
    支持SSD和HDD混合部署,SSD作为高速缓存,HDD作为数据存储。系统自动识别冷热数据,将热数据放在SSD,冷数据放在HDD。
    存储引擎经过优化,使得虚拟机在混闪配置下可获得近乎全闪的体验。
    类似华为的SmartTier
  2. 全闪存部署
    支持SATA/NVMe SSD,配合25G网络或RDMA提高性能。
  3. 支持NVMe SSD
  4. 数据本地化
    SMTX OS对多副本技术的优化,保证虚拟机在写入数据时,至少在本地主机写入一份完整副本,其他副本存放在其他远端主机。缩短IO路径,降低访问延时。
  5. 高速网络支持
    SMTX OS默认支持使用10G/25G 以太网作为存储网络。5.0版本后开始支持RDMA。
    RDMA:绕过多层的系统缓冲区,直接访问内存。
  6. Boost模式
    专门问计算虚拟化层进行优化的功能(只支持ELF),通过内存共享技术,优化虚拟机内存与磁盘的交互效率,提升高负载的虚拟机性能。

扩展SMTX OS集群

  1. 灵活的扩展模式
    3节点起步,可以在线热插、添加硬盘;可以不停机添加服务器节点;资源的扩展会后台自动池化和平衡。
  2. 混合硬件支持
    允许不同品牌、不同硬件配置的服务器硬件在同一集群中部署。

分析与评估SMTX OS集群

  1. 告警系统
    除了常规软、硬件故障告警,还有风险预测告警(SSD读写寿命不足等),提前通知用户避免风险;告警可通过邮件、监控中心集成(Zabbix等);自定义告警阈值。
  2. 个性化监控视图
    用户可以按需创建关于集群、主机、虚拟机等不同对象的监控信息视图,可以以时间线展示与对比。
  3. 资源优化分析
    根据历史的资源监控信息分析,判别资源过剩、资源紧张、长期闲置等不同的虚拟机;帮助用户更清晰掌握集群资源,保持资源的高效利用。

高效管理SMTX OS集群

  1. 资源快速发布
    通过模板批量发布虚拟机(一次最多10台);
    克隆技术,秒级克隆发布虚拟机;
    批量完成虚拟机配置(如主机名、IP、密码、脚本等)。

3. SmartX存储产品

ZBS分布式存储

SmartX自主研发的分布式块存储,可为裸金属服务器、虚拟化环境(VMware ESXi、HyperV等)、Openstack等、K8S等多平台提供块存储。

硬件组成

  • 服务器
    至少3台或以上的标准服务器或SmartX超融合一体机。
    硬件支持可以查看之前的SMTX OS部分的硬件兼容性。
  • 存储交换机
    10G以上的以太网交换机;2台以上保证高可用。

软件组成

  • ZBS分布式块存储软件
    区别于SMTX OS的存、算融合部署,主要用于存、算分离的场景。提供生产级可用特性、高性能、易扩展、易维护。
  • CloudTower运维管理平台
    SmartX产品的统一管理平台,包括SMTX OS超融合集群、SMTX ZBS分布式块存储集群等。

存储网络接入协议

  • iSCSI
  • NVMe-oF

部署拓扑

3台以上的服务器通过10G交换机互联,每台服务器都运行SMTX ZBS软件。
ZBS将多台服务器的磁盘统一池化。

计算节点1 计算节点2 计算节点3
    |        |        |
    |        |        |
    |        |        |
   高速交换机1  高速交换机2
       |           |
       |  接入网络  |
       |           |
ZBS主机1  ZBS主机2  ZBS主机3
    |        |        |
    |     存储网络     |
    高速交换机1  高速交换机2

功能与特性

ZBS继承了SMTX OS的功能和特性。

数据可靠性
  1. 数据校验(同SMTX OS)
  2. 副本技术(同SMTX OS)
    • 传统RAID的限制:
      • 需要热备盘
      • 热备盘的空间无法使用,资源浪费
      • 硬盘故障时,热备盘是瓶颈,数据恢复速度的上限是热备盘的写入速度
      • 数据恢复时,所有盘参与,影响业务
      • 恢复时间长,10TB需要数天
    • 副本技术特点:
      • 无需专门的热而被判
      • 磁盘故障时,多个硬盘、主机并发执行回复,速度快
      • 数据恢复对系统影响小
      • 数据恢复时间比RAID短
    • RAID和副本二点可用性与可靠性对比:
对比项目Raid5Raid6Raid10Raid502副本3副本
得盘率 (无热备盘)>=75%>=60%50%>=66.7%50%33.3%
得盘率 (1块热备盘)>=60%>=50%40%~50%>=57%50%33.3%
容忍离线硬盘数量最小值121212
容忍离线硬盘数量最大值12n/22<=n/3<=2n/5
  1. 机架拓扑感知(同SMTX OS)
数据保护技术
  1. 基于存储卷的快照和克隆
  2. 基于存储卷的异步复制
  3. 存储双活集群
存储性能优化
  1. 存储分层
    需要注意一点,缓存层至少应为数据层的10%。
  2. 全闪支持
闪存介质性能成本网络要求缓存层容量层
SATA SSD良好较低10G支持支持
NVMe SSD优秀较高10G/25G支持支持
  1. 简化存储维护
    • 主动报告与隔离“濒临故障”的磁盘:自动隔离访问延时过大的磁盘(大概率磁盘可能会故障)
    • 根据业务负载智能调整数据恢复速度

IOMesh 云原生存储

IOMesh是Kubernetes-native的云原生存储及数据平台,可以管理和自动化运维Kubernetes集群内的存储资源,并对运行在Kubernetes上的各类数据类应用(Mysql、MongoDB、中间件等)提供持久化存储、数据保护、迁移能力。

硬件组成

  • 服务器
    集群至少3台标准服务器。目前支持Intel x86_64、鲲鹏AArch64、海光x86_64。
    服务器可以是标准商用服务器,云主机、Kubernetes节点上。
    硬件需要符合硬件兼容性要求。
  • 存储交换机
    10G以上交换机,2台以上保证高可用。

软件组成

  • Kubernetes软件
  • IOMesh
    IOMesh部署在标准的Kubernetes集群上,在主流的操作系统上都能安装成功,具备良好兼容性。
    IOMesh具备云原生特征,对基础设施、Kubernetes平台无以来,可为有状态应用StatefulSet提供K8s原生、高性能、高可靠、高性价比、高可扩展的持久化能力。

部署架构

在这里插入图片描述

IOMesh分别部署在3台及以上的K8s worker节点上。worker节点之间万兆交换机互联,集群中每台worker节点运行业务容器与IOMesh容器服务。
IOMesh统一池化节点的磁盘资源,以CSI方式提供给内部或外部的K8s集群的上层业务容器。

IOMesh 功能与特性

数据可靠性
  1. 数据校验
  2. 多副本支持
  3. 机架拓扑感知
数据保护与安全
  1. PV的快照和克隆
  2. PV身份认证
    允许使用Kubernetes secret进行身份验证。身份验证功能通过存储类实现,每次pod生命使用身份验证的PVC时,必须通过认证。
存储性能优化

可用于容器环境中支撑I/O密集型应用。

  1. 存储分层
  2. 全闪支持
  3. 简化存储运维
    • 主动报告与隔离“濒临故障”的磁盘:自动隔离访问延时过大的磁盘(大概率磁盘可能会故障)
    • 根据业务负载智能调整数据恢复速度
  4. Kubernetes原生
    IOMesh完全基于Kubernetes自设能力构建,使用声明式API实现“存储即代码”,更好的支持DevOps。
    以容器方式运行在用户空间,与其他应用程序完全隔离。故障时不影响其他应用;安装时不需要额外任何内核模块、不需要担心内核版本兼容。
    以CSI为有状态应用配置存储。与K8s工具链无缝协作,可以使用Helm Chart部署IOMesh;可以与Prometheus和Grafana继承,提供监控、报警。

4. Everoute 网络与安全产品

Everoute提供分布式防火墙、负载均衡、容器网络等功能。

Everoute分布式防火墙(DFW)

基于SmartX ELF,实现符合“零信任”的微分段网咯模型,为虚拟机提供虚拟机隔离、自定义安全策略、全局安全策略三种形态的分布式防火墙策略。
与Everoute Container Plugin结合,可以支持Smartx HCI上的K8s网络安全策略。

适用场景

南北行流量:数据中心内外的流量
东西向流量:数据中心内部服务器之间的流量
传统安全模型无法控制东西向流量。
虚拟化后的变化:

  • 被管理对象总体增多
  • 被管理对象的位置不固定
  • 被管理对象的数量和属性变动很快

等保2.0 要求“虚拟机之前的访问控制”

Everoute DFW部署在虚拟机之间,适用于:

  • 虚拟化比例高的场景
  • 面向外部用户提供服务的DMZ虚拟化集群
  • 多业务、应用、部门混用的服务器集群
  • DevSecOps模型驱动的开发、运维、安全自动化流程
  • 等保2.0需求

Everoute DFW用于东西向安全防护,不能替代南北向安全防护的传统防火墙

主要特性

  1. 支持网络微分段(传统分段:基于IP/子网/VLAN/接口/接口组 划分网络安全域;微分段:在任意虚拟机之前设置安全隔离措施)。
  2. 可以使用IP地址(段)作为安全策略,也支持基于业务标签的策略管理,实现虚拟机全生命周期自动跟随。采用ELF的虚拟机标签(别名)。
  3. 支持对虚拟机异常状态紧急响应。通过“诊断隔离”模式,为管理员提供在安全状态下访问“中毒”虚拟机的途径。
    e.g. : 1. 通过GUI/API将虚拟机置于“网络隔离状态”;2. 设置“诊断隔离白名单”,允许特定节点访问被隔离虚拟机;3. 故障修复后,一键恢复虚拟机状态,无需调整安全模式。

使用条件

基于ELF设计,结合SMTX OS虚拟网络交换机,提供DFW功能。
必须在ELF中使用。
微分段由集群中的每台主机分布式执行:

  • 不装插件
  • 不动网络
  • 没有瓶颈
  • 与底层硬件解耦,虚拟化实现
  • 基于SMTX OS

注意:虚拟机管理、标签管理、安全策略管理、虚拟机隔离等安全运维操作,需要在CloudTower上完成。CloudTower可以实现管理多集群,跨集群迁移仍保持标签、安全策略等。

Everoute DFW与SMTX OS、CloudTower之间的兼容关系:

  • SMTX OS:任意许可版本(基础、敏捷、标准、企业),软件版本高于v5.0.1
  • CloudTower:许可版本(基础、企业、企业增强),软件版本高于v1.9.0
  • 三者的社区版授权可以配合使用,但不能与商业版共同使用。

Everoute网络负载均衡(Load Balancer)

作为Everoute SDN组件部署在SmartX HCI上,提供负载均衡服务。
Everoute 2.0.0 提供4层,基于IP+协议+端口的负载均衡
Everoute LB可以:

  • 为后端服务器设置不同的权重,依据权重比例分发:
  • 基于HTTP|TCP|UDP|ICMP等健康检查
  • 属于同一个Client的IP包,尽量转发到一台后端服务器

适用场景

使用多个ELF虚拟机为Client提供同一种基于网络的服务,可以使用LB功能分发访问请求到后端服务器组。
采用外置的LB方案,会出现数据转发路径迂回、操作效率低、运维不同意等问题。
Everoute LB为SMTX OS集群中的应用提供的价值:

  • 负载和资源平衡;
  • 高可用、快速故障倒换、系统异构、业务迁移:根据健康检查
  • 访问控制、限速保护:设置访问控制列表、连接请求数量限制、带宽限制

K8s环境中的负载均衡有开源如MetalLB,但是没有企业级服务支持,难以定位问题和调试。
Everoute LB可以作为K8s的Type=LoadBalancer的Kubernetes Servcie的外部负载均衡器,提供四层LB能力。

只要满足IP可达的条件,ELF中的负载均衡功能,就可以面向ELF之外的虚拟机、物理机、容器提供L4 LB

使用条件

  1. SMTX OS >= 5.0.1;CloudTower >= 3.2.0
  2. 使用CloudTower管理,在“网络与安全”功能页面配置
  3. 至少2个至多4个 LB VM 部署在 SMTX OS(ELF)集群中,为集群内、外的后端服务器提供LB服务。
    1. Everoute LB和DFW没有依赖关系,两者可以分别购买、安装、使用
    2. Everoute2.0.0中,LB VM必须部署在同一个SMTX OS(ELF)集群中

方案优势

  1. 集成于SMTX OS中,通过CloudTower管理配置
  2. 无需改变物理网络
  3. 支持完整的L4 LB
  4. Everoute LB自身具备虚拟化的高可用特性,LB VM可以实现自动流量分担、主备倒换、在线扩容升级等。
  5. 由SmartX原厂售后

注意:

  1. Everoute 2.0.0中,不支持LB VM 在线扩容,需要删除原有,再新增,即不支持横向扩容。
  2. Everoute 2.0.0中,支持在线提升LB VM配置类型,即垂直扩容。

CloudTower 管理平台产品

为多款SmartX产品提供统一管理平台与访问入口,统一展示基础架构资源池。

跨集群迁移

CloudTower支持虚拟机和数据在多个SMTX OS之间在线/离线迁移

内容库管理

CloudTower 可以建立和管理统一的模板库、镜像库,供集群之间共享使用

用户管理

ClouudTower支持自定义用户角色与权限以及专属管理试图,提供用户安全策略配置。

SMTX 备份与容灾

SmartX HCI Infrastructure 不仅支持第三方备份、容灾解决方案集成,可有一套原生的备份与容灾产品。

产品组成:

  1. 备份与恢复
    支持将虚拟机征集备份至集群外部存储(如NAS),也可以使用该文件(数据文件和配置文件)恢复虚拟机
  2. 复制与恢复
    支持将SMTX OS(ELF)集群中的虚拟机异步复制到另一个SMTX OS(ELF)集群,并保持副本虚拟机与源虚拟机同步。

产品特性

  1. 原生无代理备份和容灾
    以虚拟机为单位进行保护
  2. 统一管理
    使用CloudTower,实现系统服务的一键部署和升级
  3. 灵活的数据保护选项
    支持备份和复制两种数据保护方式,按需选择,并可以自定义执行周期、执行窗口、保留策略。

7. SMTX Kubernetes 服务

K8s主要功能

  1. 服务发现与负载均衡
  2. 存储编排
  3. 自动部署与回滚
  4. 自动调度
  5. 自我修复

K8s架构与组件

在这里插入图片描述

control plane component

即以前的Master Node,更名成此。负责调度、编排、管理WorkerNode。
可以感知和响应集群内事件。可以运行在集群的任意节点上(不过一般都是指定一台服务器运行)
Control Plane Component包含的组件:

  • kube-apiserver:
    负责处理接受请求,是k8s集群的统一入口,协调各组件。
  • etcd:
    分布式、一致且高可用的KV存储,用作k8s集群数据的后台数据库。
  • kube-scheduler:
    监视新创建的、未指定Node的Pod,并选择合适的Node用于运行Pod。
  • kube-controller-manager:
    K8s集群中处理常规任务的后台线程,自动化控制中心。

Worker Node

即以前的Slave Node,更名成此。实际运行Pod的载体。
Worker Node的组件:

  • kubelet:
    作为Agent在集群每个Node上运行,保证容器都运行在Pod中。Kubelet接受apiserver提供的PodSpec(Pod的规格配置文件),确保Node上的Pod都按照PodSpec来运行。Kubelet仅管理K8s创建的容器。
  • kube-proxy:
    网络代理,运行在每一个Node。维护节点的网络规则,允许Pod通过网络和集群内部其他Pod或集群外 通信。
  • CRI:
    负责运行容器的软件。支持containerd、CRI-O、Docker Engine等。目前原生K8s采用containerd

K8s如何运作

计算资源管理

  • Pod
    最小单位,1或多个容器的组合,Pod内共享存储和网络资源,Pod间资源隔离
  • ReplicaSet
    保证Pod的运行数量
  • Deployments
    Deployment描述Pod目标状态,使Pod以期望的状态运行,无状态负载
  • StatefulSet
    有状态负载,管理某Pod集合的部署和扩缩,提供持久存储和持久标识符。维护了Pod的粘性ID(Pod对应一个ID不变)

存储资源管理

Pod默认临时存放,Pod退出或关闭后数据就丢失。
EV临时卷,生命周期跟随Pod,Pod销毁也销毁。
PV持久卷,持久化保存的卷,Pod销毁不会销毁绑定的持久卷。
CSI:存储容器接口,借助CSI存储编排系统,可以将任意存储系统暴露给自己的容器工作负载(有/无状态负载)。第三方可以开发CSI驱动,使K8s可以使用这些外部存储。CSI使得不同类型的存储系统都可以:

  • 按需自动创建存储
  • 确保容器无论调度到哪个节点都能访问存储
  • 按需自动删除不再使用的存储

网络资源管理

K8s集群需要使用Network Plugin才能使Pod访问网络。同时Network Plugin可以使K8s使用不同的网络技术。
CNI:存储网络接口,由一组用于配置Linux容器的网络接口的规范和库、插件组成。CNI仅关注Pod创建时的网络分配和销毁时的网络释放。
Pod可以通过CNI获得相应的网络资源和网络安全控制策略。

SKS与传统架构(裸金属)K8s的对比

SMTX Kubernetes Service 简称SKS,是在SMTX OS HCI 之上自动化构建企业级K8s集群。
优势:

  • 简化K8s部署:仅需点击操作,20分钟部署一套生产就绪的K8s集群
  • 屏蔽硬件复杂性
  • 无需了解K8s安装细节
  • 简化运维:K8s并不能完成服务器、存储等硬件运维和管理,而SKS与SMTX OS结合很好的补充了这一点
  • 统一运维界面
  • 可视化管理
  • 降低成本(减少CapEx、减少OpEx)
  • 虚拟机在线迁移:运行中K8s的虚拟机可以迁移,而不许重新启动Service或Pod

SKS产品构成

SKS是什么

SmartX企业云基础设施提供的K8s服务。基于SMTX CloudTower和SMTX OS来提供K8s as a Service服务。SKS支持为K8s集群提供内置的CNI、CSI、Ingress Controller、LoadBalancer、监控、日志等功能。
即SmartX的同时提供虚拟机和K8s服务以支撑客户传统和容器应用。

SKS架构

在这里插入图片描述

  • 与SMTX OS的关系
    SKS基于SMTX OS(ELF),自动创建多台VM用以构建K8s集群。SKS依赖于SMTX OS 版本>=5.0.3。

  • ZBS提供存储服务
    SKS支持两种CSI:SMTX ELF CSI和ZBS CSI Kubernetes。通过CSI对接ZBS,由ZBS提供PV用于StatefulSet。

  • Everoute提供网络连接和安全服务
    实现了SMTX ECP CNI 对接Everoute用于支撑SKS K8s网络
    在这里插入图片描述

  • CloudTower提供管理服务
    CloudTower是SKS管理的入口,用于图形化SKS全生命周期的管理。
    在这里插入图片描述

软件组成

容器镜像仓库

存放SKS在离线场景下使用的所有容器镜像,包括SKS组件容器镜像,K8s组件镜像。

SKS管控集群

Management Cluster是高可用的K8s集群,运行着SKS核心服务和其他服务:

  • K8s集群组件
  • SKS核心服务
  • SKS包管理器
  • SKS集群插件

SKS管控集群承载SKS所有管理功能和服务:自动化创建SKS工作负载、工作负载集群的运维和管理。

SKS工作负载集群

Workload Cluster,由管理员创建的K8s集群,交付给普通用户用于部署K8s工作负载。
与管控集群的区别:

  • 管控 仅运行SKS管理相关,不运行用户的普通负载;
  • 工作 仅运行用户工作负载;
  • 管控 对用户端透明

在这里插入图片描述

工作负载集群组成

一个标准的K8s集群,每个Node对应一台VM
集群节点按照节点组划分,有一个控制平面节点组和多个工作节点组。
工作负载集群 还安装SKS包管理器和一些预置的SKS集群插件,提供K8s集群控制平面高可用、CNI、CSI、监控、日志、Ingress Controller、LB等服务

容器持久化存储插件CSI支持

使用SKS创建工作负载集群时,而可以指定集群安装SMTX ELF CSI还是SMTC ZBS CSI,配合SMTX OS存储资源或ZBS分布式存储为容器提供持久化存储。

  • SMTX ELF CSI:利用SMTX OS集群中的存储资源,继承IO本地化的高性能优势。推荐
  • SMTX ZBS CSI:可以为SKS内或外(裸金属)K8s集群提供持久卷服务,但需要配置额外的专属网络端口作为存储接入网络。
容器网络插件CNI支持

使用SKS创建工作负载集群时,而可以指定集群安装Calico CNI或ECP(Everoute Container Plugin)CNI,为容器提供网络连接服务和相关安全策略。

  • Calico CNI:开源的网络方案,用于容器、虚拟机、宿主机之间的网络连接。
  • ECP CNI:Everoute Container Plugin。SmartX自研的CNI插件,实现虚拟机和容器的扁平网络管理。容器和虚拟机应用可互联互通。对容器和虚拟机的网络进行统一的网络安全策略管理,支持工作负载级的策略设定。
服务访问LB、Ingress

工作负载集群支持NodePort、LoadBalancer、Ingress等方式暴露应用访问方式

监控和日志

SKS可观测性的核心能力之一,实时记录Kubernetes集群的运行状态数据,获知系统中各个组件的运行指标。
日志功能,启用后,可以查看集群中的日志信息,并GUI设置日志保留时间。

SKS功能与特性

简易的K8s集群生命周期管理
  1. 图形化、自动化创建K8s集群:

    1. 选择K8s版本和相关插件
      在这里插入图片描述

    2. 为K8s工作负载集群设定初始规模和分配硬件资源
      在这里插入图片描述

    3. 为K8s工作负载集群配置网络
      在这里插入图片描述

  2. 一键完成K8s集群扩容和缩容
    在线扩展/收缩worker节点的数量(编辑节点数量)

生产级的存储、网络插件预集成与集群高可用
  1. 内置的两种CSI提供持久卷。ELF CSi更是支持IO本地化功能进一步降低存储访问延时。
  2. 内置的两种CNI提供网络服务
灵活开放的插件与版本选择
  1. 支持多种K8s模板:支持原生的K8s,用户可根据需要选择不同的版本 或 创建多个不同的K8s版本。
  2. 通过插件扩展功能:内置了MetalLB、Contour、Prometheus等多种K8s生态成熟插件。默认不开启,有需要可以通过SKS管理页面启用插件。同时支持通过插件管理器安装其他插件。
组件工具
L4负载均衡器MetalLB
Ingress控制器Contour
监控Prometheus, Grafana
日志ElasticSearch, Fluent Bit, Kibana

原文地址:https://blog.csdn.net/Tassel_YUE/article/details/144337910

免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!