一文学会用RKE部署高可用Kubernetes集群
k8s架构图
RKE简介
RKE全称Rancher Kubernetes Engine,是一个快速的,多功能的 Kubernetes 安装工具。通过RKE,我们可以快速的安装一个高可用K8S集群。RKE 支持多种操作系统,包括 MacOS、Linux 和 Windows。
K8S原生安装需要的先决条件较多,比如说需要预安装kubeadm,kubectl,配置网络等一系列繁琐的工作。而使用RKE安装k8s,基本上只要docker版本是当前RKE版本支持的即可。
Rancher简介
Rancher 是为使用容器的公司打造的容器管理平台。Rancher 简化了使用 Kubernetes 的流程,开发者可以随处运行 Kubernetes(Run Kubernetes Everywhere),满足 IT 需求规范,赋能 DevOps 团队。
版本选择
软件 | 版本 | 源码 | 版本发布时间 |
---|---|---|---|
RKE | 1.3.12 | GitHub - rancher/rke: Rancher Kubernetes Engine (RKE), an extremely simple, lightning fast Kubernetes distribution that runs entirely within containers. | 2022-06-16,1.3.12 released |
k8s | 1.23.7 | GitHub - kubernetes/kubernetes: Production-Grade Container Scheduling and Management | 2022-05-26,1.23.7 released |
helm | v3.9.2 | Releases · helm/helm · GitHub | |
rancher | 2.6.6 | GitHub - rancher/rancher: Complete container management platform |
参考:
Rancher文档 | K8S文档 | Rancher | Rancher文档
环境初始化
hostname设置
sudo hostnamectl set-hostname ubuntu24 查看 hostnamectl 修改后需要将/etc/hosts文件更新 ubuntu24 127.0.0.1
修改/etc/hosts文件,所有节点
192.168.43.23 ubuntu23
192.168.43.24 ubuntu24
192.168.43.26 ubuntu26
192.168.43.27 ubuntu27
192.168.43.28 ubuntu28
192.168.43.29 ubuntu29
192.168.43.30 ubuntu30
192.168.43.31 ubuntu31
192.168.43.24 k8s-test.com
禁用swap
临时禁用swap
sudo swapoff -a
查看swap是否关闭
free -h
永久禁用
sudo sed -ri 's/.*swap.*/#&/' /etc/fstab 手动把有swap相关配置的行注释也是可以,ubuntu18的话其实就一行 #UUID=07389530-1861-4a4b-b4fc-ad03d69f59f4 noneswapsw0 0
ssh免密互登录
确保所有主机ssh免密可互通,保证rke节点可以免密码登录其它节点即可。
ssh-keygen ssh-copy-id kangming@192.168.43.28
内核参数调整
确保以下参数值为1
net.bridge.bridge-nf-call-iptables=1
可以通过以下指令查看
#查看所有内核参数 sudo sysctl -a #过滤 sudo sysctl -a|grep net.bridge.bridge-nf-call-iptables
如果不是1,执行下面的设置指令
sysctl -w net.bridge.bridge-nf-call-iptables=1
关闭防火墙
sudo ufw disable
资源规划
IP | 配置 | 角色/作用 |
---|---|---|
192.168.43.24 | 1核/2G | nginx负载 |
192.168.43.26 | 1核/2G | kubernetes node1 |
192.168.43.27 | 1核/2G | kubernetes node2 |
192.168.43.28 | 1核/2G | kubernetes node3 |
192.168.43.29 | 1核/2G | rancher-agent |
192.168.43.30 | 1核/2G | rancher-agent |
192.168.43.31 | 1核/2G | rancher-agent |
安装RKE1.3.12&高可用k8s集群
RKE在26 nginx负载均衡节点进行安装。
下载最新稳定版本RKE(Rancher Kubernetes Engine),下载地址:Release Release v1.3.12 · rancher/rke · GitHub
下载
https://github.com/rancher/rke/releases/download/v1.3.12/rke_linux-amd64
注意每个版本的RKE对k8s版本的支持都是有限的,当前版本(V1.3.12)支持的k8s版本列表如下:
Kubernetes version |
---|
v1.23.7-rancher1-1 (Default) |
v1.22.10-rancher1-1 |
v1.21.13-rancher1-1 |
v1.20.15-rancher1-4 |
v1.19.16-rancher1-6 |
v1.18.20-rancher1-3 |
rancher也使用当前最新版本:Release Release v2.6.6 · rancher/rancher · GitHub
安装
sudo mv rke_linux-amd64 /usr/local/bin/rke && chmod +x /usr/local/bin/rke
查看 rke版本
rke --version
cluster.yml
nodes:
- address: 192.168.43.26
internal_address: 192.168.43.26
user: kangming
role: [controlplane,worker,etcd]
- address: 192.168.43.27
internal_address: 192.168.43.27
user: kangming
role: [controlplane,worker,etcd]
- address: 192.168.43.28
internal_address: 192.168.43.28
user: kangming
role: [controlplane,worker,etcd]
创建一个名为 cluster.yml 的 Kubernetes 集群配置文件。在后续步骤中,当使用 RKE 命令设置集群时,它将使用此文件在节点上安装 Kubernetes。
RKE适配了高可用集群,您可以在 cluster.yml 文件中配置多个 controlplane 节点。RKE 会把 master 节点的组件部署在所有被列为 controlplane 的节点上,同时把 kubelets 的默认连接地址配置为 127.0.0.1:6443 。这个地址是nginx-proxy请求所有 master 节点的地址。创建高可用集群需要指定两个或更多的节点作为 controlplane 。 RKE使用集群配置文件 cluster.yml 规划集群中的节点,例如集群中应该包含哪些节点,如何部署 Kubernetes。您可以通过该文件修改很多集群配置选项。
如果您的节点具有公共和内部地址,建议设置 internal_address: 这样 Kubernetes 会将其用于集群内通信。RKE需要通过 SSH 连接到每个节点,并且它将在默认位置 ~/.ssh/id_rsa 中寻找私钥。如果您的默认私钥与节点的私钥不在同一个位置,则还需要为该节点配置 ssh_key_path 选项 根据官网列举了几个RKE节点选项:
选项 | 必填 | 描述 |
---|---|---|
address | 是 | 公用 DNS 或 IP 地址 |
user | 是 | 可以运行 docker 命令的用户 |
role | 是 | 分配给节点的 Kubernetes 角色列表 |
internal_address | 是 | 内部集群流量的专用 DNS 或 IP 地址 |
ssh_key_path | 否 | 用于对节点进行身份验证的 SSH 私钥的路径(默认为~/.ssh/id_rsa) |
cluster_name | 否 | 集群名称,默认集群名称:local |
ignore_docker_version | 否 | 在运行 RKE 前是否执行 Docker 版本检测,可选值为true和false,默认值为false |
当前rke版本需要的docker镜像如下,可保存离线镜像备用。所有需要的镜像可以查看启动rke目录下的cluster.rkestate文件。
方便起见,将当前rke版本所有镜像保存到一个离线镜像中,然后导入到需要的节点中。
docker save -o rke1.3.2-rancherk8s1.23.7.tar rancher/mirrored-coreos-etcd:v3.5.3 \
rancher/rke-tools:v0.1.80 \
rancher/mirrored-k8s-dns-kube-dns:1.21.1 \
rancher/mirrored-k8s-dns-dnsmasq-nanny:1.21.1 \
rancher/mirrored-k8s-dns-sidecar:1.21.1 \
rancher/mirrored-cluster-proportional-autoscaler:1.8.5 \
rancher/mirrored-coredns-coredns:1.9.0 \
rancher/mirrored-k8s-dns-node-cache:1.21.1 \
rancher/hyperkube:v1.23.7-rancher1 \
rancher/mirrored-coreos-flannel:v0.15.1 \
rancher/flannel-cni:v0.3.0-rancher6 \
rancher/mirrored-calico-node:v3.22.0 \
rancher/mirrored-calico-cni:v3.22.0 \
rancher/mirrored-calico-kube-controllers:v3.22.0 \
rancher/mirrored-calico-ctl:v3.22.0 \
rancher/mirrored-calico-pod2daemon-flexvol:v3.22.0 \
rancher/mirrored-flannelcni-flannel:v0.17.0 \
rancher/mirrored-calico-pod2daemon-flexvol:v3.22.0 \
weaveworks/weave-kube:2.8.1 \
weaveworks/weave-npc:2.8.1 \
rancher/mirrored-pause:3.6 \
rancher/nginx-ingress-controller:nginx-1.2.1-rancher1 \
rancher/mirrored-nginx-ingress-controller-defaultbackend:1.5-rancher1 \
rancher/mirrored-ingress-nginx-kube-webhook-certgen:v1.1.1 \
rancher/mirrored-metrics-server:v0.6.1 \
noiro/cnideploy:5.1.1.0.1ae238a \
noiro/aci-containers-host:5.1.1.0.1ae238a \
noiro/opflex:5.1.1.0.1ae238a \
noiro/openvswitch:5.1.1.0.1ae238a \
noiro/aci-containers-controller:5.1.1.0.1ae238a \
noiro/gbp-server:5.1.1.0.1ae238a
相关节点导入镜像后执行
执行RKE
rke up
这条命令默认cluster.yml
已经保存在了您运行命令所处的路径下.如果配置文件起了其它名字,则像如下这样启动
rke up --config ./rancher-cluster.yml
上述命令可能出现如下错误,重新执行一下rke up即可。
FATA[0198] Failed to get job complete status for job rke-coredns-addon-deploy-job in namespace kube-system
集群清理,需要清除集群时,执行
rke remove #删除所有容器上面的rke remove不会清理所有的节点容器,如有需要可执行下面的指令把所有容器清理,会删除所有容器,删除请谨慎 docker rm -f $(docker ps -aq)
kubectl安装&测试K8S
把kube_config_cluster.yml文件备份,然后放到所有工作节点中,然后配置环境变量。
配置环境变量
vim .bashrc export KUBECONFIG=/home/kangming/rancher/kube_config_cluster.yml source .bashrc
设置kube_config_cluster.yml文件的权限为当前用户读写
sudo chmod 600 kube_config_cluster.yml
在几个工作节点中安装kubectl
通过本地浏览器下载下面的文件,然后放到所有工作节点中
https://packages.cloud.google.com/apt/doc/apt-key.gpg
上传到服务器后执行
sudo apt-key add /home/kangming/apt-key.gpg
添加源,然后更新apt,下载kebectl
sudo vi /etc/apt/sources.list deb https://mirrors.aliyun.com/kubernetes/apt kubernetes-xenial main sudo apt-get update
下载 与查看
sudo apt-get install -y kubectl kubectl get nodes
打印如下(所有节点都ready即可)
kangming@ubuntu26:~$ kubectl get nodes
NAMESTATUS ROLESAGE VERSION
192.168.43.26 Readycontrolplane,etcd,worker 71m v1.23.7
192.168.43.27 Readycontrolplane,etcd,worker 71m v1.23.7
192.168.43.28 Readycontrolplane,etcd,worker 71m v1.23.7
检查所有需要启动的pod,都处于running或 completed状态。
kubectl get pods --all-namespaces
NAMESPACE NAMEREADY STATUSRESTARTS AGE
ingress-nginx nginx-ingress-controller-tnsn41/1 Running 030s
ingress-nginx nginx-ingress-controller-tw2ht1/1 Running 030s
ingress-nginx nginx-ingress-controller-v874b1/1 Running 030s
kube-system canal-jp4hz 3/3 Running 030s
kube-system canal-z2hg8 3/3 Running 030s
kube-system canal-z6kpw 3/3 Running 030s
kube-system kube-dns-7588d5b5f5-sf4vh 3/3 Running 030s
kube-system kube-dns-autoscaler-5db9bbb766-jz2k61/1 Running 030s
kube-system metrics-server-97bc649d5-4rl2q1/1 Running 030s
kube-system rke-ingress-controller-deploy-job-bhzgm 0/1 Completed 030s
kube-system rke-kubedns-addon-deploy-job-gl7t40/1 Completed 030s
kube-system rke-metrics-addon-deploy-job-7ljkc0/1 Completed 030s
kube-system rke-network-plugin-deploy-job-6pbgj 0/1 Completed 030s
原文地址:https://blog.csdn.net/u012882823/article/details/139912973
免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!