Kubernetes 集群的搭建

2022-04-04 21:17:37   最后更新: 2022-04-04 21:17:37   访问数量:91




 

上一篇文章,我们介绍和对比了 Docker Swarm 和 Kubernetes:

 

容器集群管理 -- Docker Swarm vs Kubernetes

 

那么,功能强大却又看起来如此复杂的 Kubernetes 要如何使用呢?本文我们来介绍一下。

 

 

 

 

上图就是 K8s 的全局架构。它由 Master 和 Node 两种节点构成,它们分别对应控制节点和计算节点。

 

2.1 Master 节点

 

Kubernetes 的 Master 节点即它的控制节点,它由三部分构成:

 

  1. kube-controller-manager: 负责容器编排;
  2. kube-scheduler:负责调度;
  3. kube-apiserver:负责 API 服务。

 

整个集群的持久化数据,则由 kube-apiserver 处理后保存在 etcd 中。

 

2.2 Node 节点

 

Node 节点即 Kubernetes 的计算节点。它最核心的就是名为 kubelet 的组件,它负责同容器运行时,例如 Docker CRI 进行交互,而这种交互依赖的是一个称作 CRI 的远程调用接口,该接口定义了容器运行时的各项核心操作,比如启动容器所需的所有参数等。

 

有了 kubelete 的抽象,Kubernetes 可以不必关心你不熟的什么容器、使用了什么技术实现,只要你的容器运行时能够运行标准的容器镜像,就可以通过实现 CRI 接入 Kubernetes。

 

具体实现上,在 Docker 项目中,一般通过 OCI 这个容器运行时规范,将 CRI 请求翻译成对 Linux 系统调用,从而实现 CRI 的调用。

 

同时,kubelet 提供了 CNI 和 CSI 分别将网络与持久化存储以插件的形式集成到 Kubernetes 中供容器调用。

 

 

基于上述架构,Kubernetes 设计者们通过 golang 语言实现了一系列相互协作的组件,从而实现了 Kubernetes 的可执行程序。

 

但问题在于,如何将这些二进制可执行文件以及他们各自的配置文件、授权文件、自启动脚本部署到生产环境中去无疑是一项艰巨的工作。

 

2017 年,Kubernetes 社区推出了使用极为方便的部署工具 -- kubeadm。我们只需要执行下面两个命令就可以部署一个 Kubernetes 集群:

 

$ kubeadm init # 创建一个 Master 节点。

$ kubeadm join <Master 节点的 IP、端口> # 将一个 Node 节点加入到集群中。

 

 

此处我使用的环境 ubuntu20.04,如果你用的是其他版本的操作系统,可以参考官网:

 

https://kubernetes.io/zh/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm/

 

4.1 安装 kubeadm、kubelet 与 kubectl

 

首先,我们需要安装 Kubernetes 所必需的三个组件:

 

  1. kubeadm:用来初始化集群的指令。
  2. kubelet:在集群中的每个节点上用来启动 Pod 和容器等。
  3. kubectl:用来与集群通信的命令行工具。

 

执行下列命令即可:

 

$ sudo apt-get update

$ sudo apt-get install -y apt-transport-https ca-certificates curl

$ sudo curl -fsSLo /usr/share/keyrings/kubernetes-archive-keyring.gpg https://packages.cloud.google.com/apt/doc/apt-key.gpg

$ echo "deb [signed-by=/usr/share/keyrings/kubernetes-archive-keyring.gpg] https://apt.kubernetes.io/ kubernetes-xenial main" | sudo tee /etc/apt/sources.list.d/kubernetes.list

$ sudo apt-get update

$ sudo apt-get install -y kubelet kubeadm kubectl

$ sudo apt-mark hold kubelet kubeadm kubectl

 

4.2 创建集群

 

4.2.1 准备工作

 

  • 启动 kubelet

 

完成了上述安装,我们就可以利用 kubeadm 来创建集群了,但首先,我们必须启动 kubelet,让我们启动并设置为开机自动启动:

 

$ systemctl enable kubelet && systemctl start kubelet

 

  • 禁止 swap 分区

 

swapoff -a

 

  • 关闭防火墙与 selinux

 

$ ufw disable

$ sudo apt install selinux-utils && setenforce 0

 

4.2.2 创建集群

 

接下来,我们就可以执行下面的命令创建集群了:

 

$ sudo kubeadm init

 

4.2.3 拷贝配置

 

如果你是在当前机器上第一次启动 kubernetes 集群,你需要按照屏幕上显示的提示执行:

 

$ mkdir -p \$HOME/.kube

$ sudo cp -i /etc/kubernetes/admin.conf \$HOME/.kube/config

$  sudo chown \$(id -u):\$(id -g) ​\$HOME/.kube/config

 

4.3 可能的问题

 

4.3.1 镜像拉取失败

 

由于官方镜像地址被墙,所以我们需要首先获取所需镜像以及它们的版本。然后从国内镜像站获取。

 

首先,执行下面的命令获取你所需要的各个镜像的版本号:

 

$ kubeadm config images list --config kubeadm.conf

 

然后,编写 k8s.sh,注意其中的版本号修改为上面那个命令返回的版本号:

 

#!/bin/bash echo "修改docker普通用户权限" sudo chmod 777 /var/run/docker.sock echo "1.拉取镜像" #下面的版本号要对应 KUBE_VERSION=v1.23.5 PAUSE_VERSION=3.6 CORE_DNS_VERSION=1.8.6 ETCD_VERSION=3.5.1-0 # pull kubernetes images from hub.docker.com docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-proxy-amd64:$KUBE_VERSION docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-controller-manager-amd64:$KUBE_VERSION docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-apiserver-amd64:$KUBE_VERSION docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-scheduler-amd64:$KUBE_VERSION # pull aliyuncs mirror docker images docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/pause:$PAUSE_VERSION docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/coredns:$CORE_DNS_VERSION docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/etcd:$ETCD_VERSION # retag to k8s.gcr.io prefix docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/kube-proxy-amd64:$KUBE_VERSION k8s.gcr.io/kube-proxy:$KUBE_VERSION docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/kube-controller-manager-amd64:$KUBE_VERSION k8s.gcr.io/kube-controller-manager:$KUBE_VERSION docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/kube-apiserver-amd64:$KUBE_VERSION k8s.gcr.io/kube-apiserver:$KUBE_VERSION docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/kube-scheduler-amd64:$KUBE_VERSION k8s.gcr.io/kube-scheduler:$KUBE_VERSION docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/pause:$PAUSE_VERSION k8s.gcr.io/pause:$PAUSE_VERSION docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/coredns:$CORE_DNS_VERSION k8s.gcr.io/coredns/coredns:v$CORE_DNS_VERSION docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/etcd:$ETCD_VERSION k8s.gcr.io/etcd:$ETCD_VERSION # untag origin tag, the images won't be delete. docker rmi registry.cn-hangzhou.aliyuncs.com/google_containers/kube-proxy-amd64:$KUBE_VERSION docker rmi registry.cn-hangzhou.aliyuncs.com/google_containers/kube-controller-manager-amd64:$KUBE_VERSION docker rmi registry.cn-hangzhou.aliyuncs.com/google_containers/kube-apiserver-amd64:$KUBE_VERSION docker rmi registry.cn-hangzhou.aliyuncs.com/google_containers/kube-scheduler-amd64:$KUBE_VERSION docker rmi registry.cn-hangzhou.aliyuncs.com/google_containers/pause:$PAUSE_VERSION docker rmi registry.cn-hangzhou.aliyuncs.com/google_containers/coredns:$CORE_DNS_VERSION docker rmi registry.cn-hangzhou.aliyuncs.com/google_containers/etcd:$ETCD_VERSION echo "====================执行完毕======================" echo "所需镜像:" kubeadm config images list echo "已安装镜像:" sudo docker images echo "====如果数量不匹配请多执行几次k8s_pull_images.sh====="

 

 

执行 k8s.sh 之后,再执行初始化命令即可:

 

$ sudo kubeadm init

 

4.3.2 dial tcp 127.0.0.1:10248: connect: connection refused

 

是 cgroup 驱动问题。默认情况下 Kubernetes cgroup 驱动程序设置为system,但 docker 设置为 systemd。我们需要更改 Docker cgroup 驱动。

 

使用你喜欢的编辑器, 编辑 /etc/docker/daemon.json 并添加:

 

{ "exec-opts": ["native.cgroupdriver=systemd"] }

 

 

保存后执行:

 

$ systemctl daemon-reload

$ systemctl restart docker

$ systemctl restart kubelet

 

然后,重新初始化集群即可:

 

$ sudo kubeadm reset

$ sudo kubeadm init

 

4.4 kubeadm init 做了什么

 

执行 kubeadm init 后,很快便完成了集群的创建和初始化,那么,这一过程中到底做了什么呢?

 

我们打开 /etc/kubernetes 目录,可以看到下面出现了很多配置文件和目录。kubeadm 的初始化工作便是围绕这些配置文件展开的。

 

主要做了这么几件事:

 

  1. 检查环境以来,包括 linux 内核版本、cgroups 模块是否可用、hostname 是否标准、所需端口是否已经被占用等等。
  2. 创建私钥,由于默认情况下 kube-apiserver 都需要通过 SSL 加密协议才能访问,因此,私钥和证书是必须的,但如果你预先将已有的证书放在 /etc/kubernetes/pki 下,那么,kubeadm 会跳过这一步。
  3. 省城 kube-apiserver 所需的配置文件 /etc/kubernetes/*.conf。
  4. 通过 pod 的方式部署 Master 组件,包括:
    1. kube-apiserver
    2. kube-controller-manager
    3. kube-scheduler

  5. 生成 etcd 的 pod 配置文件,并以 pod 的方式启动 etcd。
  6. 通过检测 localhost:6443/healthz 来检查 Master 组件是否健康运行。
  7. 生成 bootstrap token 并将用法打印出来,用来供 Node 节点通过 kubeadm join 加入集群。
  8. 安装 kube-proxy 和 DNS 两个用来提供集群服务发现和 DNS 功能的插件。

 

kube-apiserver、kube-controller-manager 与 kube-scheduler 三个 pod 的配置文件都位于 /etc/kubernetes/manifests 路径下,我们可以通过查看和编辑这些 yaml 文件来修改 pod 的启动方式和参数等,也可以借此学习 pod 配置文件的写法。

 

4.5 进阶 -- 添加自定义配置

 

kubeadm init 命令支持通过 --config 参数传递 yaml 文件来进行自定义配置,例如我们使用下面的 yaml 配置 kubeadm.yaml:

 

apiVersion: kubeadm.k8s.io/v1beta2 kind: InitConfiguration nodeRegistration: kubeletExtraArgs: cgroup-driver: "systemd" --- apiVersion: kubeadm.k8s.io/v1beta2 kind: ClusterConfiguration kubernetesVersion: "v1.18.8" clusterName: "sample-cluster" controllerManager: extraArgs: horizontal-pod-autoscaler-use-rest-clients: "true" horizontal-pod-autoscaler-sync-period: "10s" node-monitor-grace-period: "10s" apiServer: extraArgs: runtime-config: "api/all=true"

 

 

然后通过执行下面命令即可:

 

$ kubeadm init --config kubeadm.yaml

 

该配置中,通过 horizontal-pod-autoscaler-use-rest-clients: "true" 让 kube-controller-manager 开启了通过用户自定义监控指标 Custom Metrics 进行自动水平扩展的特性。

 

 

5.1 bootstrap token 是什么

 

首先,上文提到,在集群初始化的最后几步中,kubeadm 生成了 bootstrap token 并将用法打印出来,用来供 Node 节点通过 kubeadm join 加入集群。那么,什么是 bootstrap token?他又是用来做什么的?

 

新加入到集群的节点首先需要获取存储在 ConfigMap 中的 cluster-info,但用来与集群交互的 kube-apiserver 提供的接口在安全模式下都是需要 ssl 认证的,那么,我们就必须非常繁琐的将证书文件手动放到新的节点中才能进行接下来的操作。bootstrap token 就是用来解决这一步繁琐操作用的,通过 bootstrap token,kubeadm 允许在此时发起一次非安全模式下的通信,从而让新的节点拿到 ConfigMap 中的 cluster-info,从而获得包括授权信息在内的集群信息。

 

5.2 通过 Taint 机制在 Master 节点中运行用户 Pod

 

前面已经提到过,Master 节点是不允许运行用户 Pod 的,但是 Kubernetes 提供了 Taint 机制,允许我们去这么做:

 

$ sudo kubectl taint nodes master foo=bar:NoSchedule

 

这意味着,只有生命了简直对 foo=bar 的 Taint 的 Pod 才允许在 Master 节点中运行,并且除此以外所有其他 Pod 都不能在 Master 节点上运行。

 

如果要运行一个 Pod,我们就要在 Pod 的 yaml 文件中配置:

 

apiVersion: V1 kind: pod ... spec: tolerations: - key: "foo" operator: "Equal" value: "bar" effect: "NoSchedule"

 

 

 

6.1 检查节点状态

 

执行 kubectl get 命令可以看到当前节点的状态:

 

$ sudo kubectl get nodes

NAME  STATUS  ROLES   AGE   VERSION

master   NotReady   control-plane,master   76m   v1.23.5

 

我们看到 master 节点的状态是 NotReady,这是为什么呢?接下来我们可以通过下面命令进一步查看问题的原因:

 

$ sudo kubectl node master

 

除此以外,我们还可以通过下面的命令检查各个 pod 的状态:

 

$ sudo kubectl get pods -n kube-system

coredns-64897985d-48vxb   0/1  Pending   0   80m

coredns-64897985d-7vxr7   0/1  Pending   0   80m

etcd-techlog-ubuntux1c   1/1  Running   0   80m

kube-apiserver-techlog-ubuntux1c 1/1  Running   0   80m

kube-controller-manager-techlog-ubuntux1c   1/1  Running   0   80m

kube-proxy-vcvf6  1/1  Running   0   80m

kube-scheduler-techlog-ubuntux1c 1/1  Running   0   80m

 

6.2 部署网络插件

 

通过上面的命令结果,我们可以看到,master 节点 NotReady 的原因是 coredns 节点处于 Pending 状态,这是因为网络插件尚未部署,只要执行下面的命令部署即可:

 

\$ sudo  kubectl apply -f "https://cloud.weave.works/k8s/net?k8s-version=\$(kubectl version | base64 | tr -d '\n')"

 

我们也可以通过这个命令部署 Dashboard 可视化插件:

 

$ sudo kubectl apply -f https://raw.githubusercontent.com/kubernetes/dashboard/v2.5.0/aio/deploy/recommended.yaml

 

 

以上,我们便已经搭建起了一个完整的 Kubernetes 集群,下一篇文章,我们就会详细来介绍如何在这个 Kubernetes 集群中部署应用了。敬请期待。

 

 

欢迎关注微信公众号,以技术为主,涉及历史、人文等多领域的学习与感悟,每周三到七篇推文,只有全部原创,只有干货没有鸡汤

 

linux 使用及配置相关






linux      技术贴      docker      虚拟化      沙盒      kubernetes      kubeadm      kubelet      kubectl     


京ICP备2021035038号