【云原生实战】学习笔记(二)k8s(Kubernetes)实战入门
《云原生实战》是尚硅谷与KubeSphere官方联合打造的云原生系列课程之一
课程链接:
云原生Java架构师的第一课K8s+Docker+KubeSphere+DevOps_哔哩哔哩_bilibili
学习资料:
k8s 官网: Kubernetes 文档 | Kubernetes
云原生实战 · 语雀 (yuque.com)
学习内容:
云平台核心
Docker基础
Kubernetes实战入门
KubeSphere平台安装
KubeSphere可视化平台
KubeSphere实战
云原生DevOps基础与实战
微服务基础与实战
1、k8s基础概念
1、k8s是什么
k8s(Kubernetes )是一个可移植的、可扩展的开源平台,用于管理容器化的工作负载和服务,可促进声明式配置和自动化。 Kubernetes 拥有一个庞大且快速增长的生态系统。Kubernetes 的服务、支持和工具广泛可用。
2、时光回溯
部署:
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-07CyJNe7-1644813182314)(E:\Project\Typora\Image\image-20220208092521895.png)]
这么多容器这么管理呢?所以我们急需一个大规模容器编排(编组,排序,管理)系统,k8s可以解决。
为什么需要 Kubernetes,它能做什么?
容器是打包和运行应用程序的好方式。在生产环境中,你需要管理运行应用程序的容器,并确保不会停机。 例如,如果一个容器发生故障,则需要启动另一个容器。如果系统处理此行为,会不会更容易?
这就是 Kubernetes 来解决这些问题的方法! Kubernetes 为你提供了一个可弹性运行分布式系统的框架。 Kubernetes 会满足你的扩展要求、故障转移、部署模式等。Kubernetes 可以轻松管理系统的 Canary(金丝雀) 部署。
Kubernetes 为你提供:
-
服务发现和负载均衡
Kubernetes 可以使用 DNS 名称或自己的 IP 地址公开容器,如果进入容器的流量很大, Kubernetes 可以负载均衡并分配网络流量,从而使部署稳定。 -
存储编排
Kubernetes 允许你自动挂载你选择的存储系统,例如本地存储、公共云提供商等。 -
自动部署和回滚
你可以使用 Kubernetes 描述已部署容器的所需状态,它可以以受控的速率将实际状态 更改为期望状态。例如,你可以自动化 Kubernetes 来为你的部署创建新容器, 删除现有容器并将它们的所有资源用于新容器。 -
自动完成装箱计算
Kubernetes 允许你指定每个容器所需 CPU 和内存(RAM)。 当容器指定了资源请求时,Kubernetes 可以做出更好的决策来管理容器的资源。 -
自我修复
Kubernetes 重新启动失败的容器、替换容器、杀死不响应用户定义的 运行状况检查的容器,并且在准备好服务之前不将其通告给客户端。 -
密钥与配置管理
Kubernetes 允许你存储和管理敏感信息,例如密码、OAuth 令牌和 ssh 密钥。 你可以在不重建容器镜像的情况下部署和更新密钥和应用程序配置,也无需在堆栈配置中暴露密钥。
工作方式
Kubernetes : N主节点+N工作节点; N>=1
2、 组件架构
组件架构总图
2.1 控制平面的组件
控制平面(control Plane)
控制平面的组件对集群做出全局决策(比如调度),以及检测和响应集群事件(例如,当不满足部署的 replicas
字段时,启动新的 pod)。
控制平面组件可以在集群中的任何节点上运行。 然而,为了简单起见,设置脚本通常会在同一个计算机上启动所有控制平面组件, 并且不会在此计算机上运行用户容器。
控制平面的组件(api、etcd 、sched 、c-m、c-c-m)
-
api(kube-apiserver 、API 服务器)
API 服务器是 Kubernetes 控制面的组件, 该组件公开了 Kubernetes API。 API 服务器是 Kubernetes 控制面的前端。
Kubernetes API 服务器的主要实现是 kube-apiserver。 kube-apiserver 设计上考虑了水平伸缩,也就是说,它可通过部署多个实例进行伸缩。 你可以运行 kube-apiserver 的多个实例,并在这些实例之间平衡流量。
-
etcd (资料库)
etcd 是兼具一致性和高可用性的键值数据库,可以作为保存 Kubernetes 所有集群数据的后台数据库。
您的 Kubernetes 集群的 etcd 数据库通常需要有个备份计划。要了解 etcd 更深层次的信息,请参考 etcd 文档。
-
sched (kube-schedulerv 、调度者)
负责监视新创建的、未指定运行节点(node)的 Pods,选择节点让 Pod 在上面运行。
调度决策考虑的因素包括单个 Pod 和 Pod 集合的资源需求、硬件/软件/策略约束、亲和性和反亲和性规范、数据位置、工作负载间的干扰和最后时限。
-
c-m (kube-controller-manager、决策者,控制器)
在主节点上运行 控制器 的组件。
从逻辑上讲,每个控制器都是一个单独的进程, 但是为了降低复杂性,它们都被编译到同一个可执行文件,并在一个进程中运行。
这些控制器包括:
- 节点控制器(Node Controller): 负责在节点出现故障时进行通知和响应
- 任务控制器(Job controller): 监测代表一次性任务的 Job 对象,然后创建 Pods 来运行这些任务直至完成
- 端点控制器(Endpoints Controller): 填充端点(Endpoints)对象(即加入 Service 与 Pod)
- 服务帐户和令牌控制器(Service Account & Token Controllers): 为新的命名空间创建默认帐户和 API 访问令牌
-
c-c-m (cloud-controller-manager、外联部、云控制器管理器)
云控制器管理器是指嵌入特定云的控制逻辑的 控制平面组件。 云控制器管理器允许您链接集群到云提供商的应用编程接口中, 并把和该云平台交互的组件与只和您的集群交互的组件分离开。
c-c-m仅运行特定于云平台的控制回路。 如果你在自己的环境中运行 Kubernetes,或者在本地计算机中运行学习环境, 所部署的环境中不需要云控制器管理器。
与
kube-controller-manager
类似, c-c-m将若干逻辑上独立的 控制回路组合到同一个可执行文件中,供你以同一进程的方式运行。 你可以对其执行水平扩容(运行不止一个副本)以提升性能或者增强容错能力。下面的控制器都包含对云平台驱动的依赖:
- 节点控制器(Node Controller): 用于在节点终止响应后检查云提供商以确定节点是否已被删除
- 路由控制器(Route Controller): 用于在底层云基础架构中设置路由
- 服务控制器(Service Controller): 用于创建、更新和删除云提供商负载均衡器
2.2 Node 组件
节点组件在每个节点上运行,维护运行的 Pod 并提供 Kubernetes 运行环境。一个节点(Node)看作一个厂区
-
kubelet(一个节点的领导(代理),厂长)
一个在集群中每个节点(node)上运行的代理。 它保证容器(containers)都 运行在 Pod 中。
kubelet 接收一组通过各类机制提供给它的 PodSpecs,确保这些 PodSpecs 中描述的容器处于运行状态且健康。 kubelet 不会管理不是由 Kubernetes 创建的容器。
-
kube-proxy (网络代理,一个厂区的门卫)
各个kube-proxy 互相同步信息,可互相查询。
kube-proxy 是集群中每个节点上运行的网络代理, 实现 Kubernetes 服务(Service) 概念的一部分。
kube-proxy 维护节点上的网络规则。这些网络规则允许从集群内部或外部的网络会话与 Pod 进行网络通信。
如果操作系统提供了数据包过滤层并可用的话,kube-proxy 会通过它来实现网络规则。否则, kube-proxy 仅转发流量本身
3、 kubeadm创建集群
请参照以前Docker安装。先提前为所有机器安装Docker
【狂神说】Docker 学习笔记【基础篇】_一个平凡de人的博客-CSDN博客
以下是在安装k8s的时候使用
$ yum install -y docker-ce-20.10.7 docker-ce-cli-20.10.7 containerd.io-1.4.6
虚拟机技巧:先搭建一台虚拟机安装公共环境(Docker 、k8s),再复制成其他两台虚拟机
集群环境图
3.1 安装kubeadm
前提条件
-
一台兼容的 Linux 主机。Kubernetes 项目为基于 Debian 和 Red Hat 的 Linux 发行版以及一些不提供包管理器的发行版提供通用的指令
-
每台机器 2 GB 或更多的 RAM (如果少于这个数字将会影响你应用的运行内存)
-
2 CPU 核或更多
-
集群中的所有机器的网络彼此均能相互连接(公网和内网都可以)
设置防火墙放行规则
-
节点之中不可以有重复的主机名、MAC 地址或 product_uuid。请参见这里了解更多详细信息。
设置不同hostname
-
开启机器上的某些端口。请参见这里 了解更多详细信息。
内网互信
-
禁用交换分区。为了保证 kubelet 正常工作,你 必须 禁用交换分区。
永久关闭
(本次使用的是虚拟机环境进行的实验)
基础环境
(所有机器执行操作)
1、各个机器设置自己的主机名
$ hostnamectl set-hostname mater
$ hostnamectl set-hostname node1
$ hostnamectl set-hostname node2
2、将 SELinux 设置为 permissive 模式(相当于将其禁用)
sudo setenforce 0
sudo sed -i 's/^SELINUX=enforcing$/SELINUX=permissive/' /etc/selinux/config
3、禁用交换分区Swap
swapoff -a
sed -ri 's/.*swap.*/#&/' /etc/fstab
4、允许 iptables 检查桥接流量
cat <<EOF | sudo tee /etc/modules-load.d/k8s.conf
br_netfilter
EOFcat <<EOF | sudo tee /etc/sysctl.d/k8s.conf
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
5、让以上的配置生效
sudo sysctl --system
安装 kubelet、kubeadm、kubectl
(所有机器执行操作)
kubectl 是供程序员使用的命令行,一般只安装在mater(总部)。
kubeadm 帮助程序员管理集群 (如设置主节点并创建主节点中的控制平面的组件)。
1、配置安装源
cat <<EOF | sudo tee /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpghttp://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
exclude=kubelet kubeadm kubectl
EOF
2、安装 kubelet、kubeadm、kubectl
sudo yum install -y kubelet-1.20.9 kubeadm-1.20.9 kubectl-1.20.9 --disableexcludes=kubernetes
3、启动 kubelet
sudo systemctl enable --now kubelet
4、查看kubelet 状态
systemctl status kubelet
kubelet 现在每隔几秒就会重启,因为它陷入了一个等待 kubeadm 指令的死循环(mater 厂长)
3.2 使用kubeadm引导集群
1、下载各个机器需要的镜像 (脚本循环pull(拉取))
sudo tee ./images.sh <<-'EOF'
#!/bin/bash
images=(
kube-apiserver:v1.20.9
kube-proxy:v1.20.9
kube-controller-manager:v1.20.9
kube-scheduler:v1.20.9
coredns:1.7.0
etcd:3.4.13-0
pause:3.2
)
for imageName in ${images[@]} ; do
docker pull registry.cn-hangzhou.aliyuncs.com/lfy_k8s_images/$imageName
done
EOF
2、执行下载
chmod +x ./images.sh && ./images.sh
3、查看下载的镜像
$ docekr images
(所有机器执行以上操作)
4、关闭并拷贝mater,新增node1、node2
主机ip 地址:mater (192.168.64.128)、node1(192.168.64.130)、node2(192.168.64.131)
5、所有机器添加master域名映射,以下ip需要修改为自己的
echo "192.168.64.128 cluster-endpoint" >> /etc/hosts
5、初始化主节点(仅操作mater),注意所有网络范围不重叠
kubeadm init \
--apiserver-advertise-address=192.168.64.128 \
--control-plane-endpoint=cluster-endpoint \
--image-repository registry.cn-hangzhou.aliyuncs.com/lfy_k8s_images \
--kubernetes-version v1.20.9 \
--service-cidr=10.96.0.0/16 \
--pod-network-cidr=172.31.0.0/16
--pod-network-cidr=172.31.0.0/16
非常重要,用于为pod分配ip地址
- 初始化主节点成功,同时给出一系列提示(接下来按提示操作)
# ...
# 【翻译】你的Kubernetes控制平面已经成功初始化
Your Kubernetes control-plane has initialized successfully!# 【翻译】要开始使用集群,您需要作为普通用户运行以下操作
To start using your cluster, you need to run the following as a regular user:mkdir -p $HOME/.kubesudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/configsudo chown $(id -u):$(id -g) $HOME/.kube/config# 【翻译】或者,如果你是root用户,你可以运行:
Alternatively, if you are the root user, you can run:export KUBECONFIG=/etc/kubernetes/admin.conf# 【翻译】您现在应该向集群部署一个pod网络。
You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:https://kubernetes.io/docs/concepts/cluster-administration/addons/# 【翻译】现在,您可以通过复制证书颁发机构来加入任意数量的 控制平面节点(mater)和服务帐户密钥在每个节点上,然后以root身份运行以下命令:
You can now join any number of control-plane nodes by copying certificate authorities
and service account keys on each node and then running the following as root:kubeadm join cluster-endpoint:6443 --token f1jdd3.9z7z8niwd8cdz3p4 \--discovery-token-ca-cert-hash sha256:fba337fd72305497e53064e1407872f4d9e8d39ed7a1f276bb4134e2d848ba9c \--control-plane # 然后,您(root)可以通过在每个工作节点上作为根节点运行以下命令来连接任意数量的工作节点(node)
Then you can join any number of worker nodes by running the following on each as root:kubeadm join cluster-endpoint:6443 --token f1jdd3.9z7z8niwd8cdz3p4 \--discovery-token-ca-cert-hash sha256:fba337fd72305497e53064e1407872f4d9e8d39ed7a1f276bb4134e2d848ba9c
6、按照英文提示执行
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
7、查看集群所有节点
$ kubectl get nodes
[root@k8s-mater ~]# kubectl get nodes
NAME STATUS ROLES AGE VERSION
k8s-mater NotReady control-plane,master 10m v1.20.9
根据提示继续
1、下载并安装网络组件
$ curl https://docs.projectcalico.org/manifests/calico.yaml -O$ kubectl apply -f calico.yaml
2、修改 calico.yaml 配置,使网段同 --pod-network-cidr=172.31.0.0/16
一致,除非是192.168**就不用改
$ vim calico.yaml
?192.168 # vim工具搜索
3、常用命令
运行中的应用在docker里面叫容器,在k8s里面叫Pod
#查看集群所有节点
kubectl get nodes#根据配置文件,给集群创建资源
kubectl apply -f xxxx.yaml#查看集群部署了哪些应用?
docker ps
# 效果等于
kubectl get pods -A
4、查看mater状态,验证集群节点状态
[root@k8s-mater ~]# kubectl get pods -A
# RESTARTS:重新启动的次数
NAMESPACE NAME READY STATUS RESTARTS AGE
kube-system calico-kube-controllers-547686d897-k6zq4 1/1 Running 1 60m
kube-system calico-node-fbqx9 1/1 Running 1 60m
kube-system coredns-5897cd56c4-ntsv7 1/1 Running 1 81m
kube-system coredns-5897cd56c4-p9krt 1/1 Running 1 81m
kube-system etcd-k8s-mater 1/1 Running 1 81m
kube-system kube-apiserver-k8s-mater 1/1 Running 1 81m
kube-system kube-controller-manager-k8s-mater 1/1 Running 4 81m
kube-system kube-proxy-njvhf 1/1 Running 1 81m
kube-system kube-scheduler-k8s-mater 1/1 Running 4 81m# 验证集群节点状态
[root@k8s-mater ~]# kubectl get nodes
NAME STATUS ROLES AGE VERSION
k8s-mater Ready control-plane,master 81m v1.20.9
将node1、node2 进入工作节点
1、node1、node2执行(24小时有效)
kubeadm join cluster-endpoint:6443 --token f1jdd3.9z7z8niwd8cdz3p4 \--discovery-token-ca-cert-hash sha256:fba337fd72305497e53064e1407872f4d9e8d39ed7a1f276bb4134e2d848ba9c
- 运行结果
# ...# 【翻译】此节点已加入集群:
# 日志含义向apiserver发送证书签名请求并收到响应。
# * Kubelet被告知新的安全连接细节。This node has joined the cluster:
* Certificate signing request was sent to apiserver and a response was received.
* The Kubelet was informed of the new secure connection details.# 【翻译】在控制平面上运行'kubectl get nodes'查看该节点加入集群。
Run 'kubectl get nodes' on the control-plane to see this node join the cluster.
2、验证集群节点状态
$ kubectl get nodes
[root@k8s-mater ~]# kubectl get nodes
NAME STATUS ROLES AGE VERSION
k8s-mater Ready control-plane,master 90m v1.20.9
node1 Ready <none> 2m47s v1.20.9
node2 Ready <none> 2m38s v1.20.9
k8s-集群自我修复能力测试
任意服务器挂了,重启后依旧可以用,高可用。
令牌过期怎么办
创建新令牌,再将node1、node2 进入工作节点
$ kubeadm token create --print-join-command
3.3 部署dashboard可视化界面
(mater上操作)
k8s-安装dashboard_kxq的博客-CSDN博客_k8s 安装dashboard
1、安装dashboard
dashboard是kubernetes官方提供的可视化界面 https://github.com/kubernetes/dashboard
$ kubectl apply -f https://raw.githubusercontent.com/kubernetes/dashboard/v2.3.1/aio/deploy/recommended.yaml
- 提示找不到地址
所以直接在github上找配置文件:https://github.com/kubernetes/dashboard/blob/master/aio/deploy/recommended.yaml
然后将recommended.yaml文件内容粘贴复制到本地
或者:K8S的配置文件/recommended.yaml · 一个平凡de人/存储文件 - 码云 - 开源中国 (gitee.com)
2、重新安装dashboard(根据配置文件,给集群创建资源)
$ kubectl apply -f recommended.yaml
3、查看任务是否完成
$ kubectl get pods -A
4、设置访问端口
$ kubectl edit svc kubernetes-dashboard -n kubernetes-dashboard
提示: 进入文件将type: ClusterIP
改为type: NodePort
- 找到端口30455(每个人的端口可能不同),端口是访问云操作台的,在安全组放行
kubectl get svc -A | grep kubernetes-dashboard
[root@k8s-mater Downloads]# kubectl get svc -A | grep kubernetes-dashboardkubernetes-dashboard dashboard-metrics-scraper ClusterIP 10.96.116.209 <none> 8000/TCP 22m
kubernetes-dashboard kubernetes-dashboard NodePort 10.96.78.49 <none> 443:30455/TCP 22m
5、访问: https://集群任意机器IP:端口 即可
windows上访问 https://192.168.64.130:30455
6、创建访问账号
- 准备一个yaml文件;
vim dash.yaml
apiVersion: v1
kind: ServiceAccount
metadata:name: admin-usernamespace: kubernetes-dashboard
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:name: admin-user
roleRef:apiGroup: rbac.authorization.k8s.iokind: ClusterRolename: cluster-admin
subjects:
- kind: ServiceAccountname: admin-usernamespace: kubernetes-dashboard
- 应用 dash.yaml文件
$ kubectl apply -f dash.yaml
7、获取访问令牌
kubectl -n kubernetes-dashboard get secret $(kubectl -n kubernetes-dashboard get sa/admin-user -o jsonpath="{.secrets[0].name}") -o go-template="{{.data.token | base64decode}}"
eyJhbGciOiJSUzI1NiIsImtpZCI6ImJUQ01WMWRFSENKSmhTUVJuRThoMDZ2U0dZMEZqMEltQmJpX2JXdEtpRGMifQ.eyJpc3MiOiJrdWJlcm5ldGVzL3NlcnZpY2VhY2NvdW50Iiwia3ViZXJuZXRlcy5pby9zZXJ2aWNlYWNjb3VudC9uYW1lc3BhY2UiOiJrdWJlcm5ldGVzLWRhc2hib2FyZCIsImt1YmVybmV0ZXMuaW8vc2VydmljZWFjY291bnQvc2VjcmV0Lm5hbWUiOiJhZG1pbi11c2VyLXRva2VuLTd4YjQ0Iiwia3ViZXJuZXRlcy5pby9zZXJ2aWNlYWNjb3VudC9zZXJ2aWNlLWFjY291bnQubmFtZSI6ImFkbWluLXVzZXIiLCJrdWJlcm5ldGVzLmlvL3NlcnZpY2VhY2NvdW50L3NlcnZpY2UtYWNjb3VudC51aWQiOiIzY2I2ZThhYi05NjY5LTQ0YjAtOGM3Ni03ZDBiOWM0NGUxNWQiLCJzdWIiOiJzeXN0ZW06c2VydmljZWFjY291bnQ6a3ViZXJuZXRlcy1kYXNoYm9hcmQ6YWRtaW4tdXNlciJ9.MPICtJCDj53hrneIBrKkdztdrM_xYv9LTneC1tyM6SvR6X76iguKQKM3ak7brYSG_pntVUDsVMGipG-GXHb4LbQnX8qsPBqn8TULnrylpKUr1UcL9u9NpVUsf5_Cb5pcSKOHjnp4yGiFTsklnP0p0-a6YNjrKx4vVxbUgE03j_ZTLgAYcHaV6l2q8CtsUAbKEA1eECA5CZsrN3xVwD3b_gmlmt1YqphLnj2PFZfKx41wFEHC66chenZstcOdqeSAQmkvShyuzp3W9fiFmQk7DPAGYKKBloQhGLwl338i5jg3HunX-_EsxqgzpnqKbspjdwM3Qtz-4I6XFOn3SIC6bg
8、使用令牌访问
4、Kubernetes核心资源
资源创建方式
- 命令行
- YAML
Kubernetes核心资源
4.1 Namespace(名称空间)
Namespace(名称空间、命名空间)是用来对集群资源进行隔离划分。默认只隔离资源,不隔离网络
1、可视化界面查看命名空间
2、命令行查看命名空间
$ kubectl get namespace
# 或
$ kubectl get ns
[root@k8s-mater ~]# kubectl get namespace
NAME STATUS AGE
default Active 11h
kube-node-lease Active 11h
kube-public Active 11h
kube-system Active 11h
kubernetes-dashboard Active 9h
3、查看所有名称空间的pods信息
$ kubectl get pods -A
- 查看指定名称空间的pods信息
$ kubectl get pods -n kubernetes-dashboard
4、创建名称空间(使用命令行)
$ kubectl create ns hello
5、删除名称空间(使用yaml文件),连带名称空间下的资源一起删除
$ kubectl delete ns hello
6、创建名称空间(使用yaml文件)
- createns.yaml
apiVersion: v1 # 版本
kind: Namespace # 类型
metadata:name: hello
- 应用yaml文件
$ kubectl apply -f createns.yaml
7、删除名称空间(使用yaml文件)
$ kubectl delete -f createns.yaml
4.2 Pod
4.2.1 Pod基础
k8s将容器先封装成Pod,再对pod进行操作,Pod是kubernetes中应用的最小单位。
Pod运行中的一组容器,一个pod里面可以运行单个容器或多个容器,建议是单个容器。
1、运行Pod
$ kubectl run 【Pod名称】 --image=【镜像名称】
[root@k8s-mater ~]$ kubectl run mynginx --image=nginx
pod/mynginx created
2、查看default名称空间的Pod
[root@k8s-mater ~]$ kubectl get pod
NAME READY STATUS RESTARTS AGE
mynginx 1/1 Running 0 2m23s
3、查看pod详细描述
$ kubectl describe pod 【Pod名称】
[root@k8s-mater ~]$ kubectl describe pod mynginx
Name: mynginx
Namespace: default # 所在名称空间
Priority: 0
Node: node2/192.168.64.131 # 运行节点为node2
Start Time: Fri, 11 Feb 2022 20:47:48 -0500
Labels: run=mynginx
Annotations: cni.projectcalico.org/containerID: 1385a3cd6d332c41ce6d538001af9044c091d76e54870cb1d13e5f69cb84ce80cni.projectcalico.org/podIP: 172.31.104.4/32cni.projectcalico.org/podIPs: 172.31.104.4/32
Status: Running
IP: 172.31.104.4 # ip地址[每个Pod - k8s都会分配一个ip]
IPs:IP: 172.31.104.4
# ...
-
运行节点为node2,node2上执行
docker ps | grep mynginx
和docker images | grep nginx
发现只有node2有信息,只有node2下载了nginx的镜像
4、查看pod的ip
(集群中的任意一个机器以及任意的应用都能通过Pod分配的ip来访问这个Pod)(此时的pod还不被外部访问)
$ kubectl get pod -owide
[root@k8s-mater ~]$ kubectl get pod -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
mynginx 1/1 Running 0 7m27s 172.31.104.4 node2 <none> <none>
- 访问容器id,返回nginx的欢迎页
[root@k8s-mater ~]$ curl 172.31.104.4
# ...
<h1>Welcome to nginx!</h1>
# ...
5、 删除
$ kubectl delete pod 【Pod名称】
[root@k8s-mater ~]$ kubectl delete pod mynginx
pod "mynginx" deleted
6、查看Pod的运行日志
$ kubectl logs【Pod名称】
7、使用yaml文件(配置文件方式)创建pod
- creatpod.yaml
apiVersion: v1
kind: Pod
metadata:labels:run: mynginxname: mynginxnamespace: default # 设置命名空间 (可视化操作时设置命名空间 或 切换的特定命名空间再创建)
spec:containers:- image: nginxname: mynginx
- 应用yaml文件,创建pod
$ kubectl apply -f creatpod.yaml
- 应用yaml文件,删除pod
$ kubectl delete -f creatpod.yaml
8、进入pod(类似docker 进入容器)
$ kubectl exec -it mynginx -- /bin/bash
[root@k8s-mater Downloads]# kubectl exec -it mynginx -- /bin/bash
root@mynginx:/# ls
bin dev docker-entrypoint.sh home lib64 mnt proc run srv tmp var
boot docker-entrypoint.d etc lib media opt root sbin sys usr
root@mynginx:/# cd /usr/share/nginx/html
root@mynginx:/usr/share/nginx/html# ls
50x.html index.html
root@mynginx:/usr/share/nginx/html# echo "Hello k8s" > index.html
root@mynginx:/usr/share/nginx/html# exit
exit
[root@k8s-mater Downloads]# curl 172.31.104.6
Hello k8s
9、监控pod数量保护
每1秒自动执行一次kubectl get pod
$ watch -n 1 kubectl get pod
4.2.2 可视化操作与Pod细节
1、创建pod
namespace: default
(yaml文件设置命名空间 可视化操作时设置命名空间 或 切换的特定命名空间再创建)
- 创建成功 (点击 mynginx 链接查看pod详情)
- 删除
2、进入pod
4.2.3 单个pod部署多个容器
1、creatpods.yaml
apiVersion: v1
kind: Pod
metadata:labels:run: myappname: myapp
spec:containers:- image: nginx # 容器1name: nginx - image: tomcat:8.5.68 # 容器2name: tomcat
2、应用
$ kubectl apply -f creatpods.yaml
3、查看创建
[root@k8s-mater Downloads]# kubectl get pod
NAME READY STATUS RESTARTS AGE
myapp 0/2 ContainerCreating 0 14s
mynginx 1/1 Running 0 56m
查看详细信息中,事件是实时滚动更新的
4、访问测试,nginx和tomcat共享存储空间
$ curl 172.31.166.132 # 返回nginx的欢迎信息
$ curl 172.31.166.132:8080 # 返回tomcat的欢迎信息
5、一个pod创建两个nginx容器的错误
- creatpods2.yaml
apiVersion: v1
kind: Pod
metadata:labels:run: myapp2name: myapp2
spec:containers:- image: nginx name: nginx01 - image: nginx name: nginx02
错误,因为nginx01占用了80端口,导致nginx02创建失败。
6、删除多个pod
$ kubectl delete myapp mynginx -n default
4.3 Deployment(部署)
(Deployment缩写:deploy)
Deployment 可以控制Pod,使Pod拥有多副本,自愈,扩缩容等能力
4.3.1 使Pod拥有自愈能力
1、普通新建pod(pod没有自愈能力)
$ kubectl run mynginx01 --image=nginx
- 一定所在node服务器崩溃或删除就没了
[root@k8s-mater Downloads]# kubectl run mynginx01 --image=nginx
pod/mynginx01 created
[root@k8s-mater Downloads]# kubectl get pods
NAME READY STATUS RESTARTS AGE
mynginx01 0/1 ContainerCreating 0 12s
[root@k8s-mater Downloads]# kubectl delete pods mynginx01
pod "mynginx01" deleted
[root@k8s-mater Downloads]# kubectl get pods
No resources found in default namespace.
2、Deployment 新建pod(pod拥有自愈能力)
$ kubectl create deployment mynginx02 --image=nginx
[root@k8s-mater Downloads]# kubectl create deployment mynginx02 --image=nginx
deployment.apps/mynginx02 created
[root@k8s-mater Downloads]# kubectl get pods
NAME READY STATUS RESTARTS AGE
mynginx02-587cfb5b64-frmq9 0/1 ContainerCreating 0 6s
[root@k8s-mater Downloads]# kubectl delete pods mynginx02-587cfb5b64-frmq9
pod "mynginx02-587cfb5b64-frmq9" deleted
[root@k8s-mater Downloads]# kubectl get pods
NAME READY STATUS RESTARTS AGE
mynginx02-587cfb5b64-w48z6 0/1 ContainerCreating 0 11s
没被删除,换个名字又卷土重来,使Pod拥有自愈能力。
3、删除拥有自愈能力的pod,方法是删除Deployment 部署
[root@k8s-mater Downloads]# kubectl get deployment
NAME READY UP-TO-DATE AVAILABLE AGE
mynginx02 1/1 1 1 18m
[root@k8s-mater Downloads]# kubectl delete deployment mynginx02
deployment.apps "mynginx02" deleted
[root@k8s-mater Downloads]# kubectl get pods
No resources found in default namespace. # 删除成功
4.3.2 Deployment部署多副本
1、命令行方式创建Pod多副本,部署3份
$ kubectl create deployment my-dep --image=nginx --replicas=3
[root@k8s-mater ~]# kubectl create deployment my-dep --image=nginx --replicas=3
deployment.apps/my-dep created
[root@k8s-mater ~]# kubectl get deployment
# 名称 可用/总数 正在更新 可用的pod数量
NAME READY UP-TO-DATE AVAILABLE AGE
my-dep 2/3 3 2 32s
[root@k8s-mater ~]# kubectl get pods
NAME READY STATUS RESTARTS AGE
my-dep-5b7868d854-4b2rb 1/1 Running 0 38s
my-dep-5b7868d854-ffr7k 1/1 Running 0 38s
my-dep-5b7868d854-v4w7j 1/1 Running 0 38s
2、可视化创建Pod多副本
node2部署了3份pods,node1部署了2份pods,如果node1崩了,node1部署了2份pods会重新在其他正常运行的node工作节点上部署
[root@k8s-mater ~]# kubectl get pods -owide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
my-dep-01-686cfb7bf-55p99 1/1 Running 0 38s 172.31.104.13 node2 <none> <none>
my-dep-01-686cfb7bf-7qfvm 1/1 Running 0 38s 172.31.166.140 node1 <none> <none>
my-dep-01-686cfb7bf-qvbz8 1/1 Running 0 38s 172.31.166.139 node1 <none> <none>
my-dep-01-686cfb7bf-vdkw5 1/1 Running 0 38s 172.31.104.12 node2 <none> <none>
my-dep-01-686cfb7bf-zbc6c 1/1 Running 0 38s 172.31.104.14 node2 <none> <none>
3、配置文件方式创建Pod多副本
deployment.yaml
apiVersion: apps/v1
kind: Deployment
metadata:labels:app: my-dep-02name: my-dep-02
spec:replicas: 3selector:matchLabels:app: my-dep-02template:metadata:labels:app: my-dep-02spec:containers:- image: nginxname: nginx
4.3.3 扩缩容
扩容:如 原本只有node1和node2部署了mynginx(pod) ,扩容让node3和node4也部署了mynginx;
缩容:如 原本只有node1和node2、node3、node4 部署了mynginx(pod) ,缩容让node3和node4不再部署mynginx。
动态扩缩容:让k8s自己判断什么时候进行扩缩容
方式一
1、扩容到5份
$ kubectl scale --replicas=5 deployment/my-dep-02
2、缩容到2份
$ kubectl scale --replicas=5 deployment/my-dep-02
命令相同,实则为调整pods数量。
方式二
编辑Deployment 配置文件,修改文件 replicas字段并保存
$ kubectl edit deployment my-dep-02
方式三
可视化操作扩缩容
4.4.4 自愈&故障转移
自愈 如 node1的 pods故障了,重启pods使其正常运行
故障转移 如: node1的 pods故障了,在其他node重新新建一份pods
自愈测试
1、监控pods
$ watch -n 1 kubectl get pods -o wide
Every 1.0s: kubectl get pods -o wide Sat Feb 12 05:06:27 2022NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
my-dep-02-7b9d6bb69c-6fvz7 1/1 Running 0 74m 172.31.166.144 node1 <none> <none>
my-dep-02-7b9d6bb69c-dhjgr 1/1 Running 0 94m 172.31.104.16 node2 <none> <none>
my-dep-02-7b9d6bb69c-hzs8f 1/1 Running 0 107m 172.31.104.15 node2 <none> <none>
2、在node1中查看pods 对应的容器并暂停容器模拟故障
[root@node1 ~]# docker ps | grep my-dep-02-7b9d6bb69c-6fvz7
1a0f48f741dd nginx "/docker-entrypoint.…" About an hour ago Up About an hour k8s_nginx_my-dep-02-7b9d6bb69c-6fvz7_default_ae7938d7-cadc-439e-8d55-d25bde42431f_0
784bd86ee511 registry.cn-hangzhou.aliyuncs.com/lfy_k8s_images/pause:3.2 "/pause" About an hour ago Up About an hour k8s_POD_my-dep-02-7b9d6bb69c-6fvz7_default_ae7938d7-cadc-439e-8d55-d25bde42431f_0
[root@node1 ~]# docker stop 1a0f48f741dd
3、查看监控
4、但几秒后又恢复如初,并显示重启了一次
故障转移测试
1、直接关闭node1机器
2、n分钟后(排除是因为网络故障而导致的失联),发现pods在node2机器中重新建立
3、监控打印pods状态变化过程
$ kubectl get pods -w
[root@k8s-mater ~]# kubectl get pods -w
NAME READY STATUS RESTARTS AGE
my-dep-02-7b9d6bb69c-6fvz7 1/1 Running 1 82m
my-dep-02-7b9d6bb69c-dhjgr 1/1 Running 0 102m
my-dep-02-7b9d6bb69c-hzs8f 1/1 Running 0 115m
my-dep-02-7b9d6bb69c-6fvz7 1/1 Terminating 1 86m
4.3.5 滚动更新
将一个pod集群在正常提供服务时从V1版本升级成 V2版本
1、更新my-dep02的pod的镜像版本,--record
表示记录更新,
$ kubectl set image deployment/my-dep-02 nginx=nginx:1.16.1 --record
[root@k8s-mater ~]# kubectl set image deployment/my-dep-02 nginx=nginx:1.16.1 --record
deployment.apps/my-dep-02 image updated
过程是不断启动新的pod,然后去除旧的
$ kubectl rollout status deployment/my-dep-02
2、通过修改deployment配置文件实现更新
$ kubectl edit deployment/my-dep-02
4.3.6 版本回退
1、查看历史记录
$ kubectl rollout history deployment/my-dep-02
[root@k8s-mater ~]# kubectl rollout history deployment/my-dep-02
deployment.apps/my-dep-02
REVISION CHANGE-CAUSE
1 <none>
2 <none>
3 kubectl set image deployment/my-dep-02 nginx=nginx:1.16.1 --record=true
2、查看某个历史详情
$ kubectl rollout history deployment/my-dep-02 --revision=3
3、回滚到上次的版本
$ kubectl rollout undo deployment/my-dep-02
4、回滚到指定版本
$ kubectl rollout undo deployment/my-dep-02 --to-revision=1
[root@k8s-mater ~]# kubectl rollout undo deployment/my-dep-02 --to-revision=1
deployment.apps/my-dep-02 rolled back
5、查看deployment的配置文件来确定当前nginx的镜像版本
[root@k8s-mater ~]# kubectl get deployment/my-dep-02 -o yaml | grep imagef:imagePullPolicy: {}f:image: {}- image: nginximagePullPolicy: Always
4.3.7 Deployment等其他工作负载
工作中使用工作负载操作pod,使pod具有更强大的功能。
除了Deployment,k8s还有 StatefulSet
、DaemonSet
、Job
等 类型资源。我们都称为 工作负载
。
有状态应用使用 StatefulSet
部署,无状态应用使用 Deployment
部署
官方文档:工作负载资源 | Kubernetes
有状态应用部署:如redis中的数据不能丢失,所以要采用有状态应用部署
5、服务网络
5.1 Service(服务)
(Service 缩写:svc)
以上内容的pod中的容器我们在外网都无法访问,使用Service来解决(–type=NodePort)。
Service是 将一组 Pods 公开为网络服务的抽象方法。
pod的服务发现和负载均衡
负载均衡:请求分摊到多个 操作单元上(pod)进行执行;
服务发现:服务发现是指使用一个注册中心来记录分布式系统中的全部服务的信息,以便其他服务能够快速的找到这些已注册的服务。
服务发现示列:如果其中一个pod崩了Service也能及时发现,不将请求转发到该pod上,但pod恢复后,请求又可以转发到该pod。
1、修改3个pod中nginx容器的欢迎页
cd /usr/share/nginx/html;echo "nginx-01" > index.html
cd /usr/share/nginx/html;echo "nginx-02" > index.html
cd /usr/share/nginx/html;echo "nginx-03" > index.htmlcat index.html
2、测试
[root@k8s-mater ~]# kubectl get pods -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
my-dep-02-7b9d6bb69c-7cw2q 1/1 Running 0 108m 172.31.166.150 node1 <none> <none>
my-dep-02-7b9d6bb69c-qgqrh 1/1 Running 0 109m 172.31.166.149 node1 <none> <none>
my-dep-02-7b9d6bb69c-wjwkt 1/1 Running 0 108m 172.31.166.151 node1 <none> <none>
[root@k8s-mater ~]# curl 172.31.166.150
nginx-02
[root@k8s-mater ~]# curl 172.31.166.149
nginx-03
[root@k8s-mater ~]# curl 172.31.166.151
nginx-01
3、暴露deployment的服务和端口,进行端口映射,创建出具有ip地址的Service (pod的集群)
$ kubectl expose deployment my-dep-02 --port=8000 --target-port=80
- 查看集群ip(集群ip的网段范围在 初始化主节点时的
--service-cidr=10.96.0.0/16
配置了)
[root@k8s-mater ~]# kubectl get service
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
kubernetes ClusterIP 10.96.0.1 <none> 443/TCP 26h
my-dep-02 ClusterIP 10.96.171.182 <none> 8000/TCP 5m59s
- 访问集群访问(负载均衡,分摊请求的压力),k8s集群内都可访问(包括启动pod内部),但外网不行。
[root@k8s-mater ~]# curl 10.96.171.182:8000
nginx-02
[root@k8s-mater ~]# curl 10.96.171.182:8000
nginx-01
[root@k8s-mater ~]# curl 10.96.171.182:8000
nginx-03
4、查看pod的标签
$ kubectl get pod --show-labels
[root@k8s-mater ~]# kubectl get pod --show-labels
NAME READY STATUS RESTARTS AGE LABELS
my-dep-02-7b9d6bb69c-7cw2q 1/1 Running 0 126m app=my-dep-02,pod-template-hash=7b9d6bb69c
my-dep-02-7b9d6bb69c-qgqrh 1/1 Running 0 126m app=my-dep-02,pod-template-hash=7b9d6bb69c
my-dep-02-7b9d6bb69c-wjwkt 1/1 Running 0 126m app=my-dep-02,pod-template-hash=7b9d6bb69c
- 使用标签检索Pod
$ kubectl get pod -l app=my-dep-02
[root@k8s-mater ~]# kubectl get pod -l app=my-dep-02
NAME READY STATUS RESTARTS AGE
my-dep-02-7b9d6bb69c-7cw2q 1/1 Running 0 112m
my-dep-02-7b9d6bb69c-qgqrh 1/1 Running 0 113m
my-dep-02-7b9d6bb69c-wjwkt 1/1 Running 0 112m
5、查看service/my-dep-02 的yaml配置文件
$ kubectl get service/my-dep-02 -o yaml
apiVersion: v1
kind: Service
metadata:creationTimestamp: "2022-02-12T12:55:38Z"labels:app: my-dep-02# ...
spec:clusterIP: 10.96.171.182clusterIPs:- 10.96.171.182ports:- port: 8000protocol: TCPtargetPort: 80selector:app: my-dep-02sessionAffinity: Nonetype: ClusterIP
status:loadBalancer: {}
6、在pod内部域名访问Service集群
域名构成规则: 服务名.名称空间.svc
如:my-dep-02.default.svc
- 新建pod进行测试
root@my-tomcat-5987455b6b-npkr6:/usr/local/tomcat# curl my-dep-02.default.svc:8000
nginx-03
root@my-tomcat-5987455b6b-npkr6:/usr/local/tomcat# curl my-dep-02.default.svc:8000
nginx-02
root@my-tomcat-5987455b6b-npkr6:/usr/local/tomcat# curl my-dep-02.default.svc:8000
nginx-03
root@my-tomcat-5987455b6b-npkr6:/usr/local/tomcat# curl my-dep-02.default.svc:8000
nginx-01
这里测试 curl my-dep-02:8000
也可以(因为默认default,不加也行,要是别的空间,就必须跟上了)
root@my-tomcat-5987455b6b-npkr6:/usr/local/tomcat# curl my-dep-02:8000
nginx-03
root@my-tomcat-5987455b6b-npkr6:/usr/local/tomcat# curl my-dep-02:8000
nginx-02
root@my-tomcat-5987455b6b-npkr6:/usr/local/tomcat# curl my-dep-02:8000
nginx-02
7、删除Service
$ kubectl delete my-dep-02
ClusterIP
ClusterIP:集群ip,集群内访问
1、默认就是ClusterIP 等同于没有–type的
$ kubectl expose deployment my-dep-02 --port=8000 --target-port=80 --type=ClusterIP
NodePort
集群外可以访问
$ kubectl expose deployment my-dep-02 --port=8000 --target-port=80 --type=NodePort
1、查看服务
[root@k8s-mater ~]# kubectl get service
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
kubernetes ClusterIP 10.96.0.1 <none> 443/TCP 38h
my-dep-02 NodePort 10.96.241.166 <none> 8000:30670/TCP 57m
每个部署pod的机器都会开30670端口(NodePort范围在 30000-32767 之间)
2、集群内访问
[root@k8s-mater ~]# curl 10.96.241.166:8000
nginx-02
[root@k8s-mater ~]# curl 10.96.241.166:8000
nginx-01
[root@k8s-mater ~]# curl 10.96.241.166:8000
nginx-01
[root@k8s-mater ~]# curl 10.96.241.166:8000
nginx-03
3、集群外访问
ip+port映射: 集群外(mater、node1、node2的ip):30670
映射到 10.96.241.166:8000
如外网访问 http://192.168.64.128:30670/
5.2 Ingress(网关)
官网地址:https://kubernetes.github.io/ingress-nginx/
5.2.1 安装Ingress
Ingress:Service的统一网关入口(如百度的统一域名访问,统一Service层),Ingress是k8s机器集群的统一入口,请求流量先经过Ingress(入口)再进入集群内接受服务。
service是为一组pod服务提供一个统一集群内访问入口或外部访问的随机端口,而ingress做得是通过反射的形式对服务进行分发到对应的service上。
service一般是针对内部的,集群内部调用,而ingress应该是针对外部调用的
service只是开了端口,可以通过服务器IP:端口的方式去访问,但是服务器IP还是可变的,Ingress应该就是作为网关去转发
因为有很多服务,入口不统一,不方便管理
ingress rule相当于定义了路由规则,通过ingress controlle动态将各路由规则写到第三方的load balancer(比如nginx)
具体有第三方的load balancer做路由转发到对应的pods,ingress主要是实现动态将路由规则写到第三方的load balancer
安装Ingress
1、下载Ingress
wget https://raw.githubusercontent.com/kubernetes/ingress-nginx/controller-v0.47.0/deploy/static/provider/baremetal/deploy.yaml
2、修改配置文件中的镜像
vim deploy.yaml
#将image的值改为如下值:
registry.cn-hangzhou.aliyuncs.com/lfy_k8s_images/ingress-nginx-controller:v0.46.0
3、检查安装的结果
$ kubectl get pod,svc -n ingress-nginx
最后别忘记把svc暴露的端口要放行
4、如果下载不到,用以下文件
K8S的配置文件/deploy.yaml · 一个平凡de人/存储文件 - 码云 - 开源中国 (gitee.com)
5、应用 deploy.yaml
$ kubectl apply -f deploy.yaml
6、查看安装
[root@k8s-mater Downloads]# kubectl get pod -A | grep ingress
ingress-nginx ingress-nginx-admission-create-nnx47 0/1 Completed 0 68s
ingress-nginx ingress-nginx-admission-patch-r9xxb 0/1 Completed 0 68s
ingress-nginx ingress-nginx-controller-65bf56f7fc-njsmd 0/1 ContainerCreating 0 68s
新建了Service,以NodePort方式暴露了端口
[root@k8s-mater ~]# kubectl get service -A | grep ingress
ingress-nginx ingress-nginx-controller NodePort 10.96.105.233 <none> 80:30813/TCP,443:31761/TCP 27m
ingress-nginx ingress-nginx-controller-admission ClusterIP 10.96.129.25 <none> 443/TCP 27m
7、访问 服务器ip:30813 和 服务器ip:31761
映射:80:30813/TCP,443:31761/TCP
所有的服务器都开发了30813和31761的端口
- 端口30813 用于处理http请 (http的TCP端口是80)
端口31761用于处理https请求(https的TCP端口是443)
5.2.2 部署测试环境
Ingress就是用nginx作的
-
Ingresstest.yaml
K8S的配置文件/Ingresstest.yaml · 一个平凡de人/存储文件 - Gitee.com
-
应用配置文件,部署了2个Deployment,2个Service
$ kubectl apply -f Ingresstest.yaml
- 查看Swevice
[root@k8s-mater Downloads]# kubectl get service
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
hello-server ClusterIP 10.96.61.143 <none> 8000/TCP 2m48s
nginx-demo ClusterIP 10.96.252.133 <none> 8000/TCP 2m48s
# ...
[root@k8s-mater Downloads]# curl 10.96.61.143:8000
Hello World!
[root@k8s-mater Downloads]# curl 10.96.252.133
# ...
<h1>Welcome to nginx!</h1>
# ...
- 查看deployment
[root@k8s-mater Downloads]# kubectl get deployment -o wide
NAME READY UP-TO-DATE AVAILABLE AGE CONTAINERS IMAGES SELECTOR
hello-server 2/2 2 2 3m47s hello-server registry.cn*** app=hello-server
nginx-demo 2/2 2 2 3m47s nginx nginx app=nginx-demo
- 查看pod
[root@k8s-mater Downloads]# kubectl get pods -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
hello-server-6cbb679d85-pf7jx 1/1 Running 0 13m 172.31.166.158 node1 <none> <none>
hello-server-6cbb679d85-z7b65 1/1 Running 0 13m 172.31.166.159 node1 <none> <none>nginx-demo-7d56b74b84-2xjh4 1/1 Running 0 13m 172.31.166.160 node1 <none> <none>
nginx-demo-7d56b74b84-hskdx 1/1 Running 0 13m 172.31.104.24 node2 <none> <none>
5.2.3 域名访问
1、目标
- 访问 hello.test.com 的请求由 hello-server (Service)集群处理
- 访问 demo.test.com 的请求由 nginx-demo (Service)集群处理
- Ingress(网关)根据请求的域名分配对应的Service去处理
2、配置文件:ingresscom.yaml
apiVersion: networking.k8s.io/v1
kind: Ingress # 类型
metadata:name: ingress-host-bar
spec:ingressClassName: nginxrules:- host: "hello.test.com" #域名http:paths:- pathType: Prefix # 前缀path: "/"backend:service:name: hello-server # Service 名称port:number: 8000 # 端口- host: "demo.test.com"http:paths:- pathType: Prefixpath: "/nginx" # 把请求会转给下面的service,下面的service一定要能处理这个路径,不能处理就是404backend:service:name: nginx-demo # java,比如使用路径重写,去掉前缀nginxport:number: 8000
3、应用配置文件
$ kubectl apply -f ingresscom.yaml
[root@k8s-mater Downloads]# kubectl apply -f ingresscom.yaml
ingress.networking.k8s.io/ingress-host-bar created
4、查看网关(ingress)
[root@k8s-mater Downloads]# kubectl get ingress
NAME CLASS HOSTS ADDRESS PORTS AGE
ingress-host-bar nginx hello.test.com,demo.test.com 192.168.64.130 80 30s
5、windows 配置域名映射(域名映射文件地址:C:\Windows\System32\drivers\etc
)
192.168.64.128 hello.test.com
192.168.64.128 demo.test.com
或者使用utools 的hosts工具配置域名映射
映射:80:30813/TCP,443:31761/TCP
6、访问测试
- 访问 http://hello.test.com:30813/
- 访问 https://demo.test.com:31761/ ,nginx是由Ingress层返回的
- 访问 https://demo.test.com:31761/nginx ,nginx是由nginx-demo中的pod返回的
7、修改Ingress配置文件,将path: "/nginx"
改成path: "/nginx.html"
$ kubectl edit ingress ingress-host-bar
8、nginx-demo中的pod的nginx容器内推荐nginx文件
cd /usr/share/nginx/html;echo "<h1>Hello nginx2</h1>" > nginx.html;ls
5.2.4 路径重写
1、路径重写的环境搭建
- 修改配置文件 Ingresstest.yaml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:annotations: # 路径重写配置功能开启nginx.ingress.kubernetes.io/rewrite-target: /$2 name: ingress-host-bar
spec:ingressClassName: nginxrules:- host: "hello.test.com"http:paths:- pathType: Prefixpath: "/"backend:service:name: hello-serverport:number: 8000- host: "demo.test.com"http:paths:- pathType: Prefixpath: "/nginx(/|$)(.*)" # 配置忽略/nginxbackend:service:name: nginx-demo port:number: 8000
- 重新应用
$ kubectl apply -f Ingresstest.yaml
[root@k8s-mater Downloads]# kubectl apply -f Ingresstest.yaml
ingress.networking.k8s.io/ingress-host-bar configured
2、效果:
- 访问 https://demo.test.com:31761/nginx 相当于访问 https://demo.test.com:31761/
- 访问 https://demo.test.com:31761/nginx/ 也相当于访问 https://demo.test.com:31761/
- 访问 https://demo.test.com:31761/nginx/nginx.html 相当于访问 https://demo.test.com:31761/nginx.html
5.2.5 流量限制
1、配置文件:ingress-rule-2.yaml
apiVersion: networking.k8s.io/v1
kind: Ingress
metadata:name: ingress-limit-rateannotations:nginx.ingress.kubernetes.io/limit-rps: "1"
spec:ingressClassName: nginxrules:- host: "limit.test.com"http:paths:- pathType: Exactpath: "/"backend:service:name: nginx-demo # 同样作用于nginx-demo (Service)port:number: 8000
2、应用
$ kubectl apply -f ingress-rule-2.yaml
[root@k8s-mater Downloads]# kubectl apply -f ingress-rule-2.yaml
ingress.networking.k8s.io/ingress-limit-rate created
3、windows 添加域名映射 192.168.64.128 limit.test.com
4、访问测试
-
正常访问返回nginx的欢迎页面
-
连续访问 http://limit.test.com:30813/ n次后(流量过大),返回503
6、存储抽象
docker有目录挂载的功能,但直接挂载,挂载目录繁多,难以管理,同时一旦发生故障转移,转移后的pod在容器挂载目录在
转移后的主机上不存在。
k8s的解决方案是,将服务器用于挂载目录组成存储层,存储层中的挂载目录由k8s统一管理,存储层使用技术可自定义(Glusterfs,NFS,CephFS等)。
存储层技术
1、NFS技术:每个服务器都备份
6.1 搭建NFS网络文件系统环境
1、所有服务器(节点)安装NFS工具
yum install -y nfs-utils
2、主节点(mater)操作
(1) 暴露目录,开发权限
echo "/nfs/data/ *(insecure,rw,sync,no_root_squash)" > /etc/exports
(2) 创建目录
mkdir -p /nfs/data
(3) 启动rpc远程绑定
systemctl enable rpcbind --now
(4) 启动服务
systemctl enable nfs-server --now
(5) 使配置生效
exportfs -r
(6) 查看配置
[root@k8s-mater ~]# exportfs
/nfs/data <world>
3、从节点(node1、node2)操作
(1) 显示可用挂载点 showmount -e 主节点ip
showmount -e 192.168.64.128
[root@node1 ~]# showmount -e 192.168.64.128
Export list for 192.168.64.128:
/nfs/data *
(2) 创建目录
mkdir -p /nfs/data
(3) 挂载 (执行以下命令挂载 nfs 服务器上的共享目录到本机路径 /nfs/data)
mount -t nfs 192.168.64.128:/nfs/data /nfs/data
(4)写入一个测试文件,>
是覆盖写, >>
是追加
echo "hello nfs server" > /nfs/data/test.txt
(5)其他节点请看是否有测试文件,答案是有,文件数据并且同步更新
cat /nfs/data/test.txt
6.2 NFS(原生)方式数据挂载
1、创建目录(全部服务器)
mkdir /nfs/data/nginx-pv/
2、配置文件 mountnfs.yaml
容器路径 /usr/share/nginx/html 映射到 服务器路径 /nfs/data/nginx-pv
2个pod挂载同一路径
apiVersion: apps/v1
kind: Deployment
metadata:labels:app: nginx-pv-demoname: nginx-pv-demo
spec:replicas: 2 selector:matchLabels:app: nginx-pv-demotemplate:metadata:labels:app: nginx-pv-demospec:containers:- image: nginxname: nginxvolumeMounts:- name: htmlmountPath: /usr/share/nginx/htmlvolumes:- name: htmlnfs:server: 192.168.64.128path: /nfs/data/nginx-pv/
3、应用配置文件
$ kubectl apply -f mountnfs.yaml
4、测试,挂载成功
[root@k8s-mater Downloads]# cd /nfs/data/nginx-pv/
[root@k8s-mater nginx-pv]# echo "Hello Mount" > index.html
root@nginx-pv-demo-fc6c6dd8d-smhzx:/# cd /usr/share/nginx/html
root@nginx-pv-demo-fc6c6dd8d-smhzx:/usr/share/nginx/html# ls
index.html
root@nginx-pv-demo-fc6c6dd8d-smhzx:/usr/share/nginx/html# cat index.html
Hello Mount
[root@k8s-mater nginx-pv]# kubectl get pods -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
nginx-pv-demo-fc6c6dd8d-smhzx 1/1 Running 0 4m27s 172.31.166.166 node1 <none> <none>
nginx-pv-demo-fc6c6dd8d-vnwdc 1/1 Running 0 4m27s 172.31.166.165 node1 <none> <none>
[root@k8s-mater nginx-pv]# curl 172.31.166.166
Hello Mount
6.3 PV(持久卷)和PVC(持久卷申明)
NFS(原生)方式数据挂载存在一些问题:
- 目录要自己创建
- Deployment及其pod删除后,服务器目录数据依旧存在
- 挂载容量没有限制
PV&PVC
PV:持久卷(Persistent Volume),将应用需要持久化的数据保存到指定位置(存放持久化数据的目录就是持久卷)
PVC:持久卷申明(Persistent Volume Claim),申明需要使用的持久卷规格 (申请持久卷的申请书)
静态供应: 提取指定位置和空间大小
动态供应:位置和空间大小由pv自动创建
6.3.1 创建PV(持久卷)
1、创建pv池
nfs主节点(mater)操作
mkdir -p /nfs/data/01
mkdir -p /nfs/data/02
mkdir -p /nfs/data/03
2、创建三个 PV(持久卷)静态供应的方式,配置文件createPV.yaml
apiVersion: v1
kind: PersistentVolume # 类型
metadata:name: pv01-10m # 名称
spec:capacity:storage: 10M # 持久卷空间大小accessModes:- ReadWriteMany # 多节点可读可写storageClassName: nfs # 存储类名nfs:path: /nfs/data/01 # pc目录位置server: 192.168.64.128
---
apiVersion: v1
kind: PersistentVolume
metadata:name: pv02-1gi
spec:capacity:storage: 1Gi # 持久卷空间大小accessModes:- ReadWriteManystorageClassName: nfsnfs:path: /nfs/data/02 # pc目录位置server: 192.168.64.128
---
apiVersion: v1
kind: PersistentVolume
metadata:name: pv03-3gi
spec:capacity:storage: 3Gi # 持久卷空间大小accessModes:- ReadWriteManystorageClassName: nfsnfs:path: /nfs/data/03 # pc目录位置server: 192.168.64.128
- 应用
$ kubectl apply -f createPV.yaml
[root@k8s-mater Downloads]# kubectl apply -f createPV.yaml
persistentvolume/pv01-10m created
persistentvolume/pv02-1gi created
persistentvolume/pv03-3gi created
3、查看PV
[root@k8s-mater Downloads]# kubectl get persistentvolume
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
pv01-10m 10M RWX Retain Available nfs 26s
pv02-1gi 1Gi RWX Retain Available nfs 26s
pv03-3gi 3Gi RWX Retain Available nfs 26s
6.3.1 PVC(持久卷申明)创建与绑定
1、创建PVC
(1) createPVC.yaml
kind: PersistentVolumeClaim # 类型
apiVersion: v1
metadata:name: nginx-pvc # PVC名称
spec:accessModes:- ReadWriteManyresources:requests:storage: 200Mi # 需要空间storageClassName: nfs # 要对应PV的storageClassName
(2) 应用
[root@k8s-mater Downloads]# kubectl apply -f createPVC.yaml
persistentvolumeclaim/nginx-pvc created
(3) 查看PVC,挂载 pv02-1gi,挂载目录为 /nfs/data/02
[root@k8s-mater Downloads]# kubectl get persistentvolumeclaim
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
nginx-pvc Bound pv02-1gi 1Gi RWX nfs 17s
(4) 查看PC,状态Bound(绑定),说明已经被使用,绑定信息: default/nginx-pvc
=> 名称空间/PVC名称
(绑定空间选择最小且大小足够的)
[root@k8s-mater Downloads]# kubectl get pv
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
pv01-10m 10M RWX Retain Available nfs 14m
# 状态Bound(绑定)
pv02-1gi 1Gi RWX Retain Bound default/nginx-pvc nfs 14m
pv03-3gi 3Gi RWX Retain Available nfs 14m
2、创建Deployment ,让Deployment中的Pod绑定PVC
(1) 配置文件 boundPVC.yaml
apiVersion: apps/v1
kind: Deployment
metadata:labels:app: nginx-deploy-pvc # Deployment名称name: nginx-deploy-pvc
spec:replicas: 2 # pod数量selector:matchLabels:app: nginx-deploy-pvctemplate:metadata:labels:app: nginx-deploy-pvcspec:containers:- image: nginxname: nginxvolumeMounts:- name: htmlmountPath: /usr/share/nginx/html # 挂载目录volumes:- name: htmlpersistentVolumeClaim:claimName: nginx-pvc # pvc 的名称
(2)应用
[root@k8s-mater Downloads]# kubectl apply -f boundPVC.yaml
deployment.apps/nginx-deploy-pvc created
(3) 测试
- 向挂载目录
/nfs/data/02
写入测试文件
[root@k8s-mater Downloads]# cd /nfs/data/02
[root@k8s-mater 02]# echo "boundPVC test nginx" > index.html
- 访问成功
[root@k8s-mater 02]# kubectl get pod -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
nginx-deploy-pvc-79fc8558c7-26grh 1/1 Running 0 15m 172.31.166.168 node1 <none> <none>
nginx-deploy-pvc-79fc8558c7-2gz4d 1/1 Running 0 15m 172.31.166.169 node1 <none> <none>
[root@k8s-mater 02]# curl 172.31.166.168
boundPVC test nginx
6.4 ConfigMap(配置集)
ConfigMap 缩写为cm
ConfigMap(配置集):用于配置文件挂载,抽取应用配置,并且可以自动更新。
以redis为示例
1、创建 redis.conf
appendonly yes
2、把之前的配置文件创建为配置集
创建配置,redis保存到 k8s的etcd(k8s资料库)
$ kubectl create configmap redis-conf --from-file=redis.conf
[root@k8s-mater Downloads]# kubectl create configmap redis-conf --from-file=redis.conf
configmap/redis-conf created
3、查看ConfigMap(配置集)
[root@k8s-mater Downloads]# kubectl get configmap
NAME DATA AGE
kube-root-ca.crt 1 2d14h
redis-conf 1 31s
4、查看 redis-conf(配置集)的配置文件
$ kubectl get configmap redis-conf -o yaml
[root@k8s-mater Downloads]#
apiVersion: v1
data: # data是所有真正的数据,key:默认是文件名 value:配置文件的内容redis.conf: |appendonly yes
kind: ConfigMap # 类型
metadata:# ...name: redis-confnamespace: default# ...
5、创建Pod
配置文件 cm01.yaml
apiVersion: v1
kind: Pod # 类型
metadata:name: redis # pod名称
spec:containers:- name: redisimage: redis # 镜像command:- redis-server- "/redis-master/redis.conf" #指的是redis容器内部的位置ports:- containerPort: 6379 volumeMounts: # 配置卷挂载- mountPath: /data name: data # 卷挂载名称 对应 下面的 挂载卷 data- mountPath: /redis-mastername: config # 卷挂载名称 对应 下面的 挂载卷 configvolumes: # 挂载卷- name: data emptyDir: {} - name: config configMap: # 配置集name: redis-confitems:- key: redis.confpath: redis.conf
/redis-master
路径 挂载了 配置集 redis.conf
- 应用
$ kubectl apply -f cm01.yaml
6、检查默认配置
root@redis:/data# cat /redis-master/redis.conf
appendonly yes
7、修改 配置集redis.conf 的配置数据,增加 requirepass 123456
$ kubectl edit configmap redis-conf
8、检查配置是否更新,修改了cm,Pod里面的配置文件会跟着改变
root@redis:/data# cat /redis-master/redis.conf
appendonly yes
requirepass 123456
如果配置值未更改,因为需要重新启动 Pod 才能从关联的 ConfigMap 中获取更新的值。
原因:我们的Pod部署的中间件自己本身没有热更新能力
9、 进入pod内的Redis,查看配置
$ kubectl exec -it redis -- redis-cli
127.0.0.1:6379> CONFIG GET appendonly
1) "appendonly"
2) "yes"
127.0.0.1:6379> CONFIG GET requirepass
1) "requirepass"
2) ""
6.5 Secret保存敏感信息
Secret 对象类型用来保存敏感信息,例如密码、OAuth 令牌和 SSH 密钥。 将这些信息放在 secret 中比放在 Pod 的定义或者 容器镜像 中来说更加安全和灵活。原理同ConfigMap
1、Docker Hub 设置一个私有仓库dockerywl/mysql
2、使用私有仓库的镜像创建pod
配置文件 secret01.yaml
apiVersion: v1
kind: Pod
metadata:name: private-nginx # pod 名称
spec:containers:- name: private-nginximage: dockerywl/mysql # 私有镜像名称
3、应用
[root@k8s-mater Downloads]# kubectl apply -f secret01.yaml
pod/private-nginx created
# pull失败:不存在或可能需要'docker login': denied:请求的资源访问被拒绝
Failed to pull image "dockerywl/mysql": rpc error: code = Unknown desc = Error response from daemon: pull access denied for dockerywl/mysql, repository does not exist or may require 'docker login': denied: requested access to the resource is denied
4、创建 Secret
- 命令格式
kubectl create secret docker-registry 【Secret的名称】 \--docker-server=【你的镜像仓库服务器】 \--docker-username=【你的用户名】 \--docker-password=【你的密码】 \--docker-email=【你的邮箱地址】
5、查看Secret
[root@k8s-mater Downloads]# kubectl get secret
NAME TYPE DATA AGE
default-token-rhpvm kubernetes.io/service-account-token 3 2d16h
regcred kubernetes.io/dockerconfigjson 1 22s
6、查看对应的 Secret 的配置文件
$ kubectl get secret regcred -o yaml
data 的 docker配置信息已经被加密成密文
apiVersion: v1
data:.dockerconfigjson: eyJhdXRocyI6eyJkb2NrZXJ5d2wiOnsidXNlcm5hbWUiOiJkb2NrZXJ5d2wiLCJwYXNzd29yZCI6ImExNzgyNzgwMDI2NSIsImVtYWlsIjoiaWRfMDcyMjE2NjZAcXEuY29tIiwiYXV0aCI6IlpHOWphMlZ5ZVhkc09tRXhOemd5Tnpnd01ESTJOUT09In19fQ==
kind: Secret # 类型
metadata:
# ...name: regcrednamespace: default
# ...
7、修改配置文件 secret01.yaml,重新 pull 私有镜像
apiVersion: v1
kind: Pod
metadata:name: private-mysql02
spec:containers:- name: private-mysql02image: dockerywl/mysqlimagePullSecrets: - name: regcred # 指定secret的名称
- 应用
[root@k8s-mater Downloads]# kubectl apply -f secret01.yaml
pod/private-mysql created
- pull 私有镜像成功,pod创建成功
新能力
9、 进入pod内的Redis,查看配置
$ kubectl exec -it redis -- redis-cli
127.0.0.1:6379> CONFIG GET appendonly
1) "appendonly"
2) "yes"
127.0.0.1:6379> CONFIG GET requirepass
1) "requirepass"
2) ""
6.5 Secret保存敏感信息
Secret 对象类型用来保存敏感信息,例如密码、OAuth 令牌和 SSH 密钥。 将这些信息放在 secret 中比放在 Pod 的定义或者 容器镜像 中来说更加安全和灵活。原理同ConfigMap
1、Docker Hub 设置一个私有仓库dockerywl/mysql
[外链图片转存中…(img-RlSpJCvt-1644813182385)]
2、使用私有仓库的镜像创建pod
配置文件 secret01.yaml
apiVersion: v1
kind: Pod
metadata:name: private-nginx # pod 名称
spec:containers:- name: private-nginximage: dockerywl/mysql # 私有镜像名称
3、应用
[root@k8s-mater Downloads]# kubectl apply -f secret01.yaml
pod/private-nginx created
# pull失败:不存在或可能需要'docker login': denied:请求的资源访问被拒绝
Failed to pull image "dockerywl/mysql": rpc error: code = Unknown desc = Error response from daemon: pull access denied for dockerywl/mysql, repository does not exist or may require 'docker login': denied: requested access to the resource is denied
4、创建 Secret
- 命令格式
kubectl create secret docker-registry 【Secret的名称】 \--docker-server=【你的镜像仓库服务器】 \--docker-username=【你的用户名】 \--docker-password=【你的密码】 \--docker-email=【你的邮箱地址】
5、查看Secret
[root@k8s-mater Downloads]# kubectl get secret
NAME TYPE DATA AGE
default-token-rhpvm kubernetes.io/service-account-token 3 2d16h
regcred kubernetes.io/dockerconfigjson 1 22s
[外链图片转存中…(img-5E2CaBRc-1644813182386)]
6、查看对应的 Secret 的配置文件
$ kubectl get secret regcred -o yaml
data 的 docker配置信息已经被加密成密文
apiVersion: v1
data:.dockerconfigjson: eyJhdXRocyI6eyJkb2NrZXJ5d2wiOnsidXNlcm5hbWUiOiJkb2NrZXJ5d2wiLCJwYXNzd29yZCI6ImExNzgyNzgwMDI2NSIsImVtYWlsIjoiaWRfMDcyMjE2NjZAcXEuY29tIiwiYXV0aCI6IlpHOWphMlZ5ZVhkc09tRXhOemd5Tnpnd01ESTJOUT09In19fQ==
kind: Secret # 类型
metadata:
# ...name: regcrednamespace: default
# ...
7、修改配置文件 secret01.yaml,重新 pull 私有镜像
apiVersion: v1
kind: Pod
metadata:name: private-mysql02
spec:containers:- name: private-mysql02image: dockerywl/mysqlimagePullSecrets: - name: regcred # 指定secret的名称
- 应用
[root@k8s-mater Downloads]# kubectl apply -f secret01.yaml
pod/private-mysql created
- pull 私有镜像成功,pod创建成功
如若内容造成侵权/违法违规/事实不符,请联系编程学习网邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
相关文章
- 华为生成树上的一些其他配置
stp pathcost-standard [legacy | dot1t | dot1d-1998] :配置stp中的cost计算方法 stp timer [hello|forward|maxage] xxx: 配置计时器的时间间隔stp mode [stp|mstp|rstp] :配置stp的模式,默认是mstpstp [enable | disable ]:…...
2024/4/13 3:33:50 - 微软宣布即将停止对 Visual Studio 版本的支持
导语:微软宣布即将停止对 Visual Studio 2012、Visual Studio 2017 和 Visual Studio 2019 的支持,并建议用户及时使用最新版本。 作者 | Paul Krill 编译 | 张洁 责编 | 屠敏 2 月 10 日,微软发布了结束对 Visual Studio IDE 旧版本支持的…...
2024/4/27 4:48:26 - 汽车洒水器的全球与中国市场2022-2028年:技术、参与者、趋势、市场规模及占有率研究报告
报告页数: 120 图表数: 100 报告价格:16800 本文研究全球与中国市场汽车洒水器的发展现状及未来发展趋势,分别从生产和消费的角度分析汽车洒水器的主要生产地区、主要消费地区以及主要的生产商。重点分析全球与中国市场的主要厂商产品特点、产品规格、不…...
2024/5/1 6:40:49 - 海军舰艇保养的全球与中国市场2022-2028年:技术、参与者、趋势、市场规模及占有率研究报告
报告页数: 120 图表数: 100 报告价格:16800 本文研究全球与中国市场海军舰艇保养的发展现状及未来发展趋势,分别从生产和消费的角度分析海军舰艇保养的主要生产地区、主要消费地区以及主要的生产商。重点分析全球与中国市场的主要厂商产品特点、产品规格…...
2024/5/1 6:37:28 - Swift2.0(9)函数的使用(一)
函数的基本用法一个简单的函数,如下: func sayHello(personName:String) -> String { let s = "你好" + personName + "!" return s } let s = sayHello("iOS") print(s) func关键字:用于标示,这是一…...
2024/4/13 3:35:10 - 活塞杆的全球与中国市场2022-2028年:技术、参与者、趋势、市场规模及占有率研究报告
报告页数: 120 图表数: 100 报告价格:16800 本文研究全球与中国市场活塞杆的发展现状及未来发展趋势,分别从生产和消费的角度分析活塞杆的主要生产地区、主要消费地区以及主要的生产商。重点分析全球与中国市场的主要厂商产品特点、产品规格、不同规格产…...
2024/5/1 6:25:05 - 冰水机的全球与中国市场2022-2028年:技术、参与者、趋势、市场规模及占有率研究报告
报告页数: 120 图表数: 100 报告价格:16800 本文研究全球与中国市场冰水机的发展现状及未来发展趋势,分别从生产和消费的角度分析冰水机的主要生产地区、主要消费地区以及主要的生产商。重点分析全球与中国市场的主要厂商产品特点、产品规格、不同规格产…...
2024/5/1 6:05:41 - 可溶解缝线的全球与中国市场2022-2028年:技术、参与者、趋势、市场规模及占有率研究报告
报告页数: 120 图表数: 100 报告价格:16800 本文研究全球与中国市场可溶解缝线的发展现状及未来发展趋势,分别从生产和消费的角度分析可溶解缝线的主要生产地区、主要消费地区以及主要的生产商。重点分析全球与中国市场的主要厂商产品特点、产品规格、不…...
2024/4/20 16:57:33 - Redis INCR数值操作命令
Redis string 类型提供了一些专门操作数值的命令,比如 INCRBY(自增)、DECRBR(自减)、INCR(加1) 和 DECR(减1) 等命令。数值操作,同样有特定的应用场景&#x…...
2024/4/19 19:03:05 - 氮氧化物分析仪的全球与中国市场2022-2028年:技术、参与者、趋势、市场规模及占有率研究报告
报告页数: 120 图表数: 100 报告价格:16800 本文研究全球与中国市场氮氧化物分析仪的发展现状及未来发展趋势,分别从生产和消费的角度分析氮氧化物分析仪的主要生产地区、主要消费地区以及主要的生产商。重点分析全球与中国市场的主要厂商产品特点、产品…...
2024/5/1 5:57:46 - 考研路
回想整个考研过程,走过一些路会逐渐转变思维方式。 1.遇到问题主动寻求答案,其实绝大数答案网上都可以找到,不知道在哪里或者用什么方法找到就上知乎等论坛。 2.能逐渐跳脱已有环境的思维定式,不在别人说什么信什么,别…...
2024/4/13 3:34:50 - 【无标题】Java通过Mybatis操作Oracle的Clob和Blob
前段时间到客户现场出差,在现场遇到了base64和图片互相转换的问题,在现场肯定不如自己安安静静写代码的时候冷静,为了解决问题几乎浪费了一整天,所以这篇文章也是为了梳理一下Java通过Mybatis操作Oracle的Clob和Blob的解决方式和注…...
2024/4/19 11:28:43 - 有什么好看的电视剧战争片?好看的战争片推荐
1.埃德伯夫要塞 根据阿富汗战争中的真实事件改编,揭开了许多不为人所知的秘密。剧情挺紧凑的,有难得一见的美帝苏修正面较量的场景;严肃中不乏诙谐调侃以及互黑,但随着层层深入张力逐级体现。眼瞅着一个个鲜活的生命战死沙场&…...
2024/4/16 6:56:53 - 信奥海伦公式
描述 数学老师给出三个不超过 1000 的正整数,表示三条线段的长,问这三条线段是否可以围成一个三角形,如果可以则计算并输出该三角形的面积,否则就输出“error”。提示:已知三角形的三边也使用海伦公式求三角形的面积。…...
2024/4/19 11:33:53 - 《Vim实用技巧(第2版)》学习笔记:技巧52-用精确的文本对象选择区域
技巧52-用精确的文本对象选择区域 文本对象允许操作括号、被引用的文本、XML标签以及其它文本中常见结构。光标在{}内,想高亮{}内的内容: vi}选中由双引号括起来的字符范围: va"选中由双引号括起来的字符范围: vi"vi"和va"的区别是前者不包含…...
2024/4/13 3:34:50 - dp方案数
有一人前来买瓜。 “哥们儿,这瓜多少钱一斤呐” “两块钱一斤” “Whats up,这瓜皮是金子做的,还是瓜粒子是金子做的” 智乃来到水果摊前买瓜,水果摊上贩卖着N{N}N个不同的西瓜,第i{i}i个西瓜的重量为wiw_iwi。智乃对于每个瓜都可以选择买…...
2024/4/17 16:44:40 - 牙科电梯的全球与中国市场2022-2028年:技术、参与者、趋势、市场规模及占有率研究报告
报告页数: 120 图表数: 100 报告价格:16800 本文研究全球与中国市场牙科电梯的发展现状及未来发展趋势,分别从生产和消费的角度分析牙科电梯的主要生产地区、主要消费地区以及主要的生产商。重点分析全球与中国市场的主要厂商产品特点、产品规格、不同规…...
2024/4/19 20:15:26 - Vue 模块化[wepack][vue单文件][es6模块化][vue-cli]
一.Vue 模块化 1.es6模块化用法 1.1 默认导出 解释:这样里面的内容就可以供其调用,接受:import char from ./1.js,其中参数char就表示默认导出的所有内容即export default里面的内容 let a 5 let b 6 export default{a,b}1.…...
2024/4/13 3:34:40 - 第一天学习bootstrap框架 button按钮
加扣扣...
2024/4/18 23:27:28 - acwing git 删除项目
acwing gitlab 删除项目 在acwing学习Linux基础课时,使用git.acwing.com管理项目,由于能管理的项目数量有限所以需要及时清理项目。由于经常忘记在哪删除所以在此记录过程。 1.在网页中进入到自己想删除的项目 2.在设置中选择高级,在最下面…...
2024/4/30 22:28:03
最新文章
- Cesium 3dTileset 支持 uv 和 纹理贴图
原理: 使用自定义shader实现uv自动计算 贴图效果: uv效果:...
2024/5/1 6:47:05 - 梯度消失和梯度爆炸的一些处理方法
在这里是记录一下梯度消失或梯度爆炸的一些处理技巧。全当学习总结了如有错误还请留言,在此感激不尽。 权重和梯度的更新公式如下: w w − η ⋅ ∇ w w w - \eta \cdot \nabla w ww−η⋅∇w 个人通俗的理解梯度消失就是网络模型在反向求导的时候出…...
2024/3/20 10:50:27 - 【Java】假如把集合体系看作购物中心
购物中心入口:Java集合框架 “Java集合广场”的购物中心,这是一个集合了各种奇特商店的地方,每个商店都充满了不同的宝藏(数据结构)。 一楼:基础集合区 - Collection接口 一楼是基础集合区,这…...
2024/4/30 2:40:01 - 【超简单】基于PaddleSpeech搭建个人语音听写服务
一、【超简单】之基于PaddleSpeech搭建个人语音听写服务 1.需求分析 亲们,你们要写会议纪要嘛?亲们,你们要写会议纪要嘛?亲们,你们要写会议纪要嘛?当您面对成吨的会议录音,着急写会议纪要而不得不愚公移山、人海战术?听的头晕眼花,听的漏洞百出,听的怀疑人生,那么你…...
2024/4/30 2:37:24 - 【外汇早评】美通胀数据走低,美元调整
原标题:【外汇早评】美通胀数据走低,美元调整昨日美国方面公布了新一期的核心PCE物价指数数据,同比增长1.6%,低于前值和预期值的1.7%,距离美联储的通胀目标2%继续走低,通胀压力较低,且此前美国一季度GDP初值中的消费部分下滑明显,因此市场对美联储后续更可能降息的政策…...
2024/4/29 23:16:47 - 【原油贵金属周评】原油多头拥挤,价格调整
原标题:【原油贵金属周评】原油多头拥挤,价格调整本周国际劳动节,我们喜迎四天假期,但是整个金融市场确实流动性充沛,大事频发,各个商品波动剧烈。美国方面,在本周四凌晨公布5月份的利率决议和新闻发布会,维持联邦基金利率在2.25%-2.50%不变,符合市场预期。同时美联储…...
2024/4/30 18:14:14 - 【外汇周评】靓丽非农不及疲软通胀影响
原标题:【外汇周评】靓丽非农不及疲软通胀影响在刚结束的周五,美国方面公布了新一期的非农就业数据,大幅好于前值和预期,新增就业重新回到20万以上。具体数据: 美国4月非农就业人口变动 26.3万人,预期 19万人,前值 19.6万人。 美国4月失业率 3.6%,预期 3.8%,前值 3…...
2024/4/29 2:29:43 - 【原油贵金属早评】库存继续增加,油价收跌
原标题:【原油贵金属早评】库存继续增加,油价收跌周三清晨公布美国当周API原油库存数据,上周原油库存增加281万桶至4.692亿桶,增幅超过预期的74.4万桶。且有消息人士称,沙特阿美据悉将于6月向亚洲炼油厂额外出售更多原油,印度炼油商预计将每日获得至多20万桶的额外原油供…...
2024/4/30 18:21:48 - 【外汇早评】日本央行会议纪要不改日元强势
原标题:【外汇早评】日本央行会议纪要不改日元强势近两日日元大幅走强与近期市场风险情绪上升,避险资金回流日元有关,也与前一段时间的美日贸易谈判给日本缓冲期,日本方面对汇率问题也避免继续贬值有关。虽然今日早间日本央行公布的利率会议纪要仍然是支持宽松政策,但这符…...
2024/4/27 17:58:04 - 【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响
原标题:【原油贵金属早评】欧佩克稳定市场,填补伊朗问题的影响近日伊朗局势升温,导致市场担忧影响原油供给,油价试图反弹。此时OPEC表态稳定市场。据消息人士透露,沙特6月石油出口料将低于700万桶/日,沙特已经收到石油消费国提出的6月份扩大出口的“适度要求”,沙特将满…...
2024/4/27 14:22:49 - 【外汇早评】美欲与伊朗重谈协议
原标题:【外汇早评】美欲与伊朗重谈协议美国对伊朗的制裁遭到伊朗的抗议,昨日伊朗方面提出将部分退出伊核协议。而此行为又遭到欧洲方面对伊朗的谴责和警告,伊朗外长昨日回应称,欧洲国家履行它们的义务,伊核协议就能保证存续。据传闻伊朗的导弹已经对准了以色列和美国的航…...
2024/4/28 1:28:33 - 【原油贵金属早评】波动率飙升,市场情绪动荡
原标题:【原油贵金属早评】波动率飙升,市场情绪动荡因中美贸易谈判不安情绪影响,金融市场各资产品种出现明显的波动。随着美国与中方开启第十一轮谈判之际,美国按照既定计划向中国2000亿商品征收25%的关税,市场情绪有所平复,已经开始接受这一事实。虽然波动率-恐慌指数VI…...
2024/4/30 9:43:09 - 【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试
原标题:【原油贵金属周评】伊朗局势升温,黄金多头跃跃欲试美国和伊朗的局势继续升温,市场风险情绪上升,避险黄金有向上突破阻力的迹象。原油方面稍显平稳,近期美国和OPEC加大供给及市场需求回落的影响,伊朗局势并未推升油价走强。近期中美贸易谈判摩擦再度升级,美国对中…...
2024/4/27 17:59:30 - 【原油贵金属早评】市场情绪继续恶化,黄金上破
原标题:【原油贵金属早评】市场情绪继续恶化,黄金上破周初中国针对于美国加征关税的进行的反制措施引发市场情绪的大幅波动,人民币汇率出现大幅的贬值动能,金融市场受到非常明显的冲击。尤其是波动率起来之后,对于股市的表现尤其不安。隔夜美国股市出现明显的下行走势,这…...
2024/4/25 18:39:16 - 【外汇早评】美伊僵持,风险情绪继续升温
原标题:【外汇早评】美伊僵持,风险情绪继续升温昨日沙特两艘油轮再次发生爆炸事件,导致波斯湾局势进一步恶化,市场担忧美伊可能会出现摩擦生火,避险品种获得支撑,黄金和日元大幅走强。美指受中美贸易问题影响而在低位震荡。继5月12日,四艘商船在阿联酋领海附近的阿曼湾、…...
2024/4/28 1:34:08 - 【原油贵金属早评】贸易冲突导致需求低迷,油价弱势
原标题:【原油贵金属早评】贸易冲突导致需求低迷,油价弱势近日虽然伊朗局势升温,中东地区几起油船被袭击事件影响,但油价并未走高,而是出于调整结构中。由于市场预期局势失控的可能性较低,而中美贸易问题导致的全球经济衰退风险更大,需求会持续低迷,因此油价调整压力较…...
2024/4/26 19:03:37 - 氧生福地 玩美北湖(上)——为时光守候两千年
原标题:氧生福地 玩美北湖(上)——为时光守候两千年一次说走就走的旅行,只有一张高铁票的距离~ 所以,湖南郴州,我来了~ 从广州南站出发,一个半小时就到达郴州西站了。在动车上,同时改票的南风兄和我居然被分到了一个车厢,所以一路非常愉快地聊了过来。 挺好,最起…...
2024/4/29 20:46:55 - 氧生福地 玩美北湖(中)——永春梯田里的美与鲜
原标题:氧生福地 玩美北湖(中)——永春梯田里的美与鲜一觉醒来,因为大家太爱“美”照,在柳毅山庄去寻找龙女而错过了早餐时间。近十点,向导坏坏还是带着饥肠辘辘的我们去吃郴州最富有盛名的“鱼头粉”。说这是“十二分推荐”,到郴州必吃的美食之一。 哇塞!那个味美香甜…...
2024/4/30 22:21:04 - 氧生福地 玩美北湖(下)——奔跑吧骚年!
原标题:氧生福地 玩美北湖(下)——奔跑吧骚年!让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 让我们红尘做伴 活得潇潇洒洒 策马奔腾共享人世繁华 对酒当歌唱出心中喜悦 轰轰烈烈把握青春年华 啊……啊……啊 两…...
2024/5/1 4:32:01 - 扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!
原标题:扒开伪装医用面膜,翻六倍价格宰客,小姐姐注意了!扒开伪装医用面膜,翻六倍价格宰客!当行业里的某一品项火爆了,就会有很多商家蹭热度,装逼忽悠,最近火爆朋友圈的医用面膜,被沾上了污点,到底怎么回事呢? “比普通面膜安全、效果好!痘痘、痘印、敏感肌都能用…...
2024/4/27 23:24:42 - 「发现」铁皮石斛仙草之神奇功效用于医用面膜
原标题:「发现」铁皮石斛仙草之神奇功效用于医用面膜丽彦妆铁皮石斛医用面膜|石斛多糖无菌修护补水贴19大优势: 1、铁皮石斛:自唐宋以来,一直被列为皇室贡品,铁皮石斛生于海拔1600米的悬崖峭壁之上,繁殖力差,产量极低,所以古代仅供皇室、贵族享用 2、铁皮石斛自古民间…...
2024/4/28 5:48:52 - 丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者
原标题:丽彦妆\医用面膜\冷敷贴轻奢医学护肤引导者【公司简介】 广州华彬企业隶属香港华彬集团有限公司,专注美业21年,其旗下品牌: 「圣茵美」私密荷尔蒙抗衰,产后修复 「圣仪轩」私密荷尔蒙抗衰,产后修复 「花茵莳」私密荷尔蒙抗衰,产后修复 「丽彦妆」专注医学护…...
2024/4/30 9:42:22 - 广州械字号面膜生产厂家OEM/ODM4项须知!
原标题:广州械字号面膜生产厂家OEM/ODM4项须知!广州械字号面膜生产厂家OEM/ODM流程及注意事项解读: 械字号医用面膜,其实在我国并没有严格的定义,通常我们说的医美面膜指的应该是一种「医用敷料」,也就是说,医用面膜其实算作「医疗器械」的一种,又称「医用冷敷贴」。 …...
2024/4/30 9:43:22 - 械字号医用眼膜缓解用眼过度到底有无作用?
原标题:械字号医用眼膜缓解用眼过度到底有无作用?医用眼膜/械字号眼膜/医用冷敷眼贴 凝胶层为亲水高分子材料,含70%以上的水分。体表皮肤温度传导到本产品的凝胶层,热量被凝胶内水分子吸收,通过水分的蒸发带走大量的热量,可迅速地降低体表皮肤局部温度,减轻局部皮肤的灼…...
2024/4/30 9:42:49 - 配置失败还原请勿关闭计算机,电脑开机屏幕上面显示,配置失败还原更改 请勿关闭计算机 开不了机 这个问题怎么办...
解析如下:1、长按电脑电源键直至关机,然后再按一次电源健重启电脑,按F8健进入安全模式2、安全模式下进入Windows系统桌面后,按住“winR”打开运行窗口,输入“services.msc”打开服务设置3、在服务界面,选中…...
2022/11/19 21:17:18 - 错误使用 reshape要执行 RESHAPE,请勿更改元素数目。
%读入6幅图像(每一幅图像的大小是564*564) f1 imread(WashingtonDC_Band1_564.tif); subplot(3,2,1),imshow(f1); f2 imread(WashingtonDC_Band2_564.tif); subplot(3,2,2),imshow(f2); f3 imread(WashingtonDC_Band3_564.tif); subplot(3,2,3),imsho…...
2022/11/19 21:17:16 - 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机...
win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”问题的解决方法在win7系统关机时如果有升级系统的或者其他需要会直接进入一个 等待界面,在等待界面中我们需要等待操作结束才能关机,虽然这比较麻烦,但是对系统进行配置和升级…...
2022/11/19 21:17:15 - 台式电脑显示配置100%请勿关闭计算机,“准备配置windows 请勿关闭计算机”的解决方法...
有不少用户在重装Win7系统或更新系统后会遇到“准备配置windows,请勿关闭计算机”的提示,要过很久才能进入系统,有的用户甚至几个小时也无法进入,下面就教大家这个问题的解决方法。第一种方法:我们首先在左下角的“开始…...
2022/11/19 21:17:14 - win7 正在配置 请勿关闭计算机,怎么办Win7开机显示正在配置Windows Update请勿关机...
置信有很多用户都跟小编一样遇到过这样的问题,电脑时发现开机屏幕显现“正在配置Windows Update,请勿关机”(如下图所示),而且还需求等大约5分钟才干进入系统。这是怎样回事呢?一切都是正常操作的,为什么开时机呈现“正…...
2022/11/19 21:17:13 - 准备配置windows 请勿关闭计算机 蓝屏,Win7开机总是出现提示“配置Windows请勿关机”...
Win7系统开机启动时总是出现“配置Windows请勿关机”的提示,没过几秒后电脑自动重启,每次开机都这样无法进入系统,此时碰到这种现象的用户就可以使用以下5种方法解决问题。方法一:开机按下F8,在出现的Windows高级启动选…...
2022/11/19 21:17:12 - 准备windows请勿关闭计算机要多久,windows10系统提示正在准备windows请勿关闭计算机怎么办...
有不少windows10系统用户反映说碰到这样一个情况,就是电脑提示正在准备windows请勿关闭计算机,碰到这样的问题该怎么解决呢,现在小编就给大家分享一下windows10系统提示正在准备windows请勿关闭计算机的具体第一种方法:1、2、依次…...
2022/11/19 21:17:11 - 配置 已完成 请勿关闭计算机,win7系统关机提示“配置Windows Update已完成30%请勿关闭计算机”的解决方法...
今天和大家分享一下win7系统重装了Win7旗舰版系统后,每次关机的时候桌面上都会显示一个“配置Windows Update的界面,提示请勿关闭计算机”,每次停留好几分钟才能正常关机,导致什么情况引起的呢?出现配置Windows Update…...
2022/11/19 21:17:10 - 电脑桌面一直是清理请关闭计算机,windows7一直卡在清理 请勿关闭计算机-win7清理请勿关机,win7配置更新35%不动...
只能是等着,别无他法。说是卡着如果你看硬盘灯应该在读写。如果从 Win 10 无法正常回滚,只能是考虑备份数据后重装系统了。解决来方案一:管理员运行cmd:net stop WuAuServcd %windir%ren SoftwareDistribution SDoldnet start WuA…...
2022/11/19 21:17:09 - 计算机配置更新不起,电脑提示“配置Windows Update请勿关闭计算机”怎么办?
原标题:电脑提示“配置Windows Update请勿关闭计算机”怎么办?win7系统中在开机与关闭的时候总是显示“配置windows update请勿关闭计算机”相信有不少朋友都曾遇到过一次两次还能忍但经常遇到就叫人感到心烦了遇到这种问题怎么办呢?一般的方…...
2022/11/19 21:17:08 - 计算机正在配置无法关机,关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机...
关机提示 windows7 正在配置windows 请勿关闭计算机 ,然后等了一晚上也没有关掉。现在电脑无法正常关机以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!关机提示 windows7 正在配…...
2022/11/19 21:17:05 - 钉钉提示请勿通过开发者调试模式_钉钉请勿通过开发者调试模式是真的吗好不好用...
钉钉请勿通过开发者调试模式是真的吗好不好用 更新时间:2020-04-20 22:24:19 浏览次数:729次 区域: 南阳 > 卧龙 列举网提醒您:为保障您的权益,请不要提前支付任何费用! 虚拟位置外设器!!轨迹模拟&虚拟位置外设神器 专业用于:钉钉,外勤365,红圈通,企业微信和…...
2022/11/19 21:17:05 - 配置失败还原请勿关闭计算机怎么办,win7系统出现“配置windows update失败 还原更改 请勿关闭计算机”,长时间没反应,无法进入系统的解决方案...
前几天班里有位学生电脑(windows 7系统)出问题了,具体表现是开机时一直停留在“配置windows update失败 还原更改 请勿关闭计算机”这个界面,长时间没反应,无法进入系统。这个问题原来帮其他同学也解决过,网上搜了不少资料&#x…...
2022/11/19 21:17:04 - 一个电脑无法关闭计算机你应该怎么办,电脑显示“清理请勿关闭计算机”怎么办?...
本文为你提供了3个有效解决电脑显示“清理请勿关闭计算机”问题的方法,并在最后教给你1种保护系统安全的好方法,一起来看看!电脑出现“清理请勿关闭计算机”在Windows 7(SP1)和Windows Server 2008 R2 SP1中,添加了1个新功能在“磁…...
2022/11/19 21:17:03 - 请勿关闭计算机还原更改要多久,电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机怎么办...
许多用户在长期不使用电脑的时候,开启电脑发现电脑显示:配置windows更新失败,正在还原更改,请勿关闭计算机。。.这要怎么办呢?下面小编就带着大家一起看看吧!如果能够正常进入系统,建议您暂时移…...
2022/11/19 21:17:02 - 还原更改请勿关闭计算机 要多久,配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以...
配置windows update失败 还原更改 请勿关闭计算机,电脑开机后一直显示以以下文字资料是由(历史新知网www.lishixinzhi.com)小编为大家搜集整理后发布的内容,让我们赶快一起来看一下吧!配置windows update失败 还原更改 请勿关闭计算机&#x…...
2022/11/19 21:17:01 - 电脑配置中请勿关闭计算机怎么办,准备配置windows请勿关闭计算机一直显示怎么办【图解】...
不知道大家有没有遇到过这样的一个问题,就是我们的win7系统在关机的时候,总是喜欢显示“准备配置windows,请勿关机”这样的一个页面,没有什么大碍,但是如果一直等着的话就要两个小时甚至更久都关不了机,非常…...
2022/11/19 21:17:00 - 正在准备配置请勿关闭计算机,正在准备配置windows请勿关闭计算机时间长了解决教程...
当电脑出现正在准备配置windows请勿关闭计算机时,一般是您正对windows进行升级,但是这个要是长时间没有反应,我们不能再傻等下去了。可能是电脑出了别的问题了,来看看教程的说法。正在准备配置windows请勿关闭计算机时间长了方法一…...
2022/11/19 21:16:59 - 配置失败还原请勿关闭计算机,配置Windows Update失败,还原更改请勿关闭计算机...
我们使用电脑的过程中有时会遇到这种情况,当我们打开电脑之后,发现一直停留在一个界面:“配置Windows Update失败,还原更改请勿关闭计算机”,等了许久还是无法进入系统。如果我们遇到此类问题应该如何解决呢࿰…...
2022/11/19 21:16:58 - 如何在iPhone上关闭“请勿打扰”
Apple’s “Do Not Disturb While Driving” is a potentially lifesaving iPhone feature, but it doesn’t always turn on automatically at the appropriate time. For example, you might be a passenger in a moving car, but your iPhone may think you’re the one dri…...
2022/11/19 21:16:57