> 技术文档 > 【k8s】k8s集群搭建

【k8s】k8s集群搭建


k8s集群搭建

  • 一、环境准备
    • 1.1 集群类型
    • 1.2 安装方式
    • 1.3 主机规划
    • 1.4 环境配置
      • 1.4.1 说明
      • 1.4.2 初始化
      • 1.4.3 关闭防火墙和禁止防火墙开机启动
      • 1.4.4 设置主机名
      • 1.4.5 主机名解析
      • 1.4.6 时间同步
      • 1.4.7 关闭selinux
      • 1.4.8 关闭swap分区
      • 1.4.9 将桥接的IPv4流量传递到iptables的链
      • 1.4.10 开启ipvs
      • 1.4.11 重启机器
  • 二、集群部署(每个节点安装Docker、kubeadm、kubelet和kubectl)
    • 2.1 安装Docker
    • 2.2 安装kubeadm、kubelet和kubectl
    • 2.3 查看k8s所需镜像
    • 2.4 部署k8s的Master节点
    • 2.5 部署k8s的Node节点
    • 2.6 部署网络插件
  • 三、服务部署
    • 3.1 kubectl创建nginx镜像
    • 3.2 暴露端口
    • 3.3 本地访问nginx页面
  • 四、集群重置
    • 4.1 master节点
    • 4.2 工作节点

一、环境准备

1.1 集群类型

  • Kubernetes集群大致分为两类:一主多从和多主多从。
    • 一主多从:一个Master节点和多台Node节点,搭建简单,但是有单机故障风险,适合用于测试环境。
    • 多主多从:多台Master和多台Node节点,搭建麻烦,安全性高,适合用于生产环境。

1.2 安装方式

  • kubernetes有多种部署方式,目前主流的方式有kubeadm、minikube、二进制包。
    • minikube:一个用于快速搭建单节点的kubernetes工具。
    • kubeadm:一个用于快速搭建kubernetes集群的工具。
    • 二进制包:从官网上下载每个组件的二进制包,依次去安装,此方式对于理解kubernetes组件更加有效。
  • 本次为了安装方便,选择使用kubeadm方式。

1.3 主机规划

  • 本次搭建一主一从集群:

主机名 IP地址 操作系统 配置 master 192.168.247.100 CentOS7.8+,基础设施服务器 2核CPU,2G内存,50G硬盘 node1 192.168.247.101 CentOS7.8+,基础设施服务器 2核CPU,2G内存,50G硬盘

1.4 环境配置

  • 注:无特殊说明,每台机器都需要执行。

1.4.1 说明

  • 需要两台CentOS服务器(一主一从),然后在每台服务器中分别安装Docker(18.06.3)、kubeadm(1.18.0)、kubectl(1.18.0)和kubelet(1.18.0)。

1.4.2 初始化

  • 检查操作系统的版本(要求操作系统的版本至少在7.5以上)
cat /etc/redhat-release

【k8s】k8s集群搭建

1.4.3 关闭防火墙和禁止防火墙开机启动

systemctl stop firewalld
systemctl disable firewalld
systemctl status firewalld

【k8s】k8s集群搭建

1.4.4 设置主机名

  • 192.168.247.100:
hostnamectl set-hostname master

【k8s】k8s集群搭建

  • 192.168.247.101:
hostnamectl set-hostname node1

【k8s】k8s集群搭建

1.4.5 主机名解析

  • 为了方便后面集群节点间的直接调用,需要配置一下主机名解析,企业中推荐使用内部的DNS服务器。
cat >> /etc/hosts << EOF192.168.247.100 master192.168.247.101 node1EOF

【k8s】k8s集群搭建
【k8s】k8s集群搭建

1.4.6 时间同步

  • kubernetes要求集群中的节点时间必须精确一致,所以在每个节点上添加时间同步
yum install ntpdate -y
ntpdate time.windows.com

1.4.7 关闭selinux

sed -i \'s/enforcing/disabled/\' /etc/selinux/config

1.4.8 关闭swap分区

sed -ri \'s/.*swap.*/#&/\' /etc/fstab

1.4.9 将桥接的IPv4流量传递到iptables的链

  • 在每个节点上将桥接的IPv4流量传递到iptables的链:
cat > /etc/sysctl.d/k8s.conf << EOFnet.bridge.bridge-nf-call-ip6tables = 1net.bridge.bridge-nf-call-iptables = 1net.ipv4.ip_forward = 1vm.swappiness = 0EOF
# 加载br_netfilter模块modprobe br_netfilter
# 查看是否加载lsmod | grep br_netfilter
# 生效sysctl --system

1.4.10 开启ipvs

  • 在kubernetes中service有两种代理模型,一种是基于iptables,另一种是基于ipvs的。ipvs的性能要高于iptables的,但是如果要使用它,需要手动载入ipvs模块。
  • 在每个节点安装ipset和ipvsadm:
yum -y install ipset ipvsadm
cat > /etc/sysconfig/modules/ipvs.modules <<EOF#!/bin/bashmodprobe -- ip_vsmodprobe -- ip_vs_rrmodprobe -- ip_vs_wrrmodprobe -- ip_vs_shmodprobe -- nf_conntrack_ipv4EOF
  • 授权、运行、检查是否加载:
chmod 755 /etc/sysconfig/modules/ipvs.modules && bash /etc/sysconfig/modules/ipvs.modules && lsmod | grep -e ip_vs -e nf_conntrack_ipv4
  • 检查是否加载:
lsmod | grep -e ipvs -e nf_conntrack_ipv4

1.4.11 重启机器

reboot

二、集群部署(每个节点安装Docker、kubeadm、kubelet和kubectl)

2.1 安装Docker

  • 安装docker
wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo
yum -y install docker-ce-18.06.3.ce-3.el7
systemctl enable docker && systemctl start docker
docker version

【k8s】k8s集群搭建

  • 设置Docker镜像加速器:
sudo mkdir -p /etc/docker
sudo tee /etc/docker/daemon.json <<-\'EOF\'{ \"exec-opts\": [\"native.cgroupdriver=systemd\"], \"registry-mirrors\": [ \"https://docker.1ms.run\", \"https://docker.xuanyuan.me\" ], \"live-restore\": true, \"log-driver\":\"json-file\", \"log-opts\": {\"max-size\":\"500m\", \"max-file\":\"3\"}, \"storage-driver\": \"overlay2\"}EOF
sudo systemctl daemon-reload
sudo systemctl restart docker

【k8s】k8s集群搭建

  • 添加阿里云的YUM软件源:
cat > /etc/yum.repos.d/kubernetes.repo << EOF[kubernetes]name=Kubernetesbaseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64enabled=1gpgcheck=0repo_gpgcheck=0gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpgEOF

2.2 安装kubeadm、kubelet和kubectl

  • 由于版本更新频繁,这里指定版本号部署:
yum install -y kubelet-1.18.0 kubeadm-1.18.0 kubectl-1.18.0
  • 为了实现Docker使用的cgroup drvier和kubelet使用的cgroup drver一致,建议修改\"/etc/sysconfig/kubelet\"文件的内容:
vim /etc/sysconfig/kubelet
# 修改KUBELET_EXTRA_ARGS=\"--cgroup-driver=systemd\"KUBE_PROXY_MODE=\"ipvs\"
  • 设置为开机自启动即可,由于没有生成配置文件,集群初始化后自动启动:
systemctl enable kubelet

2.3 查看k8s所需镜像

kubeadm config images list

【k8s】k8s集群搭建

2.4 部署k8s的Master节点

  • 192.168.247.100节点:
# 由于默认拉取镜像地址k8s.gcr.io国内无法访问,这里需要指定阿里云镜像仓库地址kubeadm init \\ --apiserver-advertise-address=192.168.247.100 \\ --image-repository registry.aliyuncs.com/google_containers \\ --kubernetes-version v1.18.0 \\ --service-cidr=10.96.0.0/12 \\ --pod-network-cidr=10.244.0.0/16

【k8s】k8s集群搭建

【k8s】k8s集群搭建

  • 根据提示消息,在Master节点上使用kubectl工具:
mkdir -p $HOME/.kubesudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/configsudo chown $(id -u):$(id -g) $HOME/.kube/config

2.5 部署k8s的Node节点

  • 根据提示,在192.168.247.101上添加如下的命令(注意:这个token有效期为2小时):
kubeadm join 192.168.247.100:6443 --token dpbosb.qqncela7m50u465p \\ --discovery-token-ca-cert-hash sha256:8967b327f3d8aea766ca6e076b34adab84351efc30d9b162fff18204b12282db

【k8s】k8s集群搭建


【k8s】k8s集群搭建

2.6 部署网络插件

  • 根据提示,在Master节点上使用kubectl工具查看节点状态:
kubectl get nodes

【k8s】k8s集群搭建

  • 在Master节点上获取flannel配置文件(可能会失败,如果失败,请下载到本地,然后安装):
wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

【k8s】k8s集群搭建

  • 使用配置文件启动flannel:
kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

【k8s】k8s集群搭建

  • 查看部署CNI网络插件进度:
kubectl get pods -n kube-system

【k8s】k8s集群搭建

  • 再次在Master节点使用kubectl工具查看节点状态(均为Ready状态):
kubectl get nodes

【k8s】k8s集群搭建

  • 查看集群健康状况:
kubectl get cs

【k8s】k8s集群搭建

kubectl cluster-info

【k8s】k8s集群搭建

三、服务部署

  • 在k8s中部署一个nginx程序,测试是否集群正常工作

3.1 kubectl创建nginx镜像

kubectl create deployment nginx --image=nginx:1.14-alpine

【k8s】k8s集群搭建

3.2 暴露端口

kubectl expose deployment nginx --port=80 --type=NodePort
  • 查看状态:
kubectl get pods,svc

【k8s】k8s集群搭建

3.3 本地访问nginx页面

【k8s】k8s集群搭建


四、集群重置

4.1 master节点

  • 在master节点执行reset命令,选择y:
kubeadm reset

【k8s】k8s集群搭建

  • 手动清除配置信息:
cd ~ 进入根目录ll -a 查看是否存在.kube文件rm -rf /root/.kubesystemctl restart docker ## 重启docker systemctl restart kubelet ## 重启kubeletrm -rf /etc/cni/net.d

做完上述操作后,就可执行2.4章节集群初始化操作,开始重新初始化。

4.2 工作节点

  • 重置工作节点,在node节点执行reset命令,选择y:
kubeadm reset

【k8s】k8s集群搭建

  • 手动删除目录:
rm -rf /root/.kuberm -rf /etc/cni/net.drm -rf /etc/kubernetes/*
  • 重新加入集群

即2.5章节,重新部署node节点。