Kubernetes-1

学习Kubernetes第一天

  • k8s-1
    • 1、什么是Kubernetes
    • 2、配置Kubernetes
      • 2.1、准备三台全新的虚拟机
      • 2.2、关闭防火墙和SElinux
      • 2.3、修改主机名
      • 2.4、升级操作系统(三台一起操作)
      • 2.5、配置主机hosts文件,相互之间通过主机名互相访问
      • 2.6、配置master和node之间的免密通道
      • 2.7、关闭交换分区swap,提升性能(三台一起操作)
      • 2.8、为什么要关闭swap交换分区?
      • 2.9、修改机器内核参数(三台一起操作)
      • 2.10、配置阿里云的repo源(三台一起)
      • 2.11、配置时间同步(三台一起)
    • 3、安装docker服务(三台一起)
      • 3.1、安装docker的最新版本
      • 3.2、配置镜像加速器
    • 4、继续配置Kubernetes
      • 4.1、安装初始化k8s需要的软件包(三台一起)
      • 4.2、kubeadm初始化k8s集群
      • 4.3、基于kubeadm.yaml文件初始化k8s
      • 4.4、改一下node的角色为worker
      • 4.5、安装网络插件
    • 5、一些基本的命令
      • 5.1、kubectl get namespace (命名空间)
      • kubectl get node
      • 5.2、kubectl get pod
    • 6、pod是什么?
    • 7、k8s中的组件
      • 7.1、在master上跑哪些组件--->运行哪些程序
      • 7.2、在node上跑哪些组件--->运行哪些程序
    • 8、启动nginx的pod

k8s-1

1、什么是Kubernetes

Kubernetes, also known as K8s, is an open-source system for automating deployment, scaling, and management of containerized applications.

Kubernetes,也称为 K8s,是一个用于自动化部署扩展管理容器化应用程序的开源系统。

docker中也有一个容器编排工具: compose

2、配置Kubernetes

2.1、准备三台全新的虚拟机

控制节点master192.168.182.133
工作节点node1192.168.182.134
工作节点node2192.168.182.135

把ip地址都改为静态的

2.2、关闭防火墙和SElinux

[root@localhost ~]# sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/selinux/config
[root@localhost ~]# service firewalld stop
Redirecting to /bin/systemctl stop firewalld.service
[root@localhost ~]# systemctl disable firewalld
Removed symlink /etc/systemd/system/multi-user.target.wants/firewalld.service.
Removed symlink /etc/systemd/system/dbus-org.fedoraproject.FirewallD1.service.
[root@localhost ~]# reboot

2.3、修改主机名

[root@localhost ~]# hostnamectl set-hostname master && bash
[root@master ~]# 
[root@localhost ~]# hostnamectl set-hostname node-1 && bash
[root@node-1 ~]# 
[root@localhost ~]# hostnamectl set-hostname node-2 && bash
[root@node-2 ~]# 

2.4、升级操作系统(三台一起操作)

[root@master ~]# yum update -y

2.5、配置主机hosts文件,相互之间通过主机名互相访问

修改每台机器的/etc/hosts文件,增加如下三行:

192.168.182.133 master
192.168.182.134 node-1
192.168.182.135 node-2'看一下'
[root@master ~]# cat /etc/hosts
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.182.133 master
192.168.182.134 node-1
192.168.182.135 node-2
[root@master ~]# 

2.6、配置master和node之间的免密通道

ssh-keygen
cd /root/.ssh/
ssh-copy-id -i id_rsa.pub root@node-1
ssh-copy-id -i id_rsa.pub root@node-2
[root@master ~]# ssh-keygen   #生成密钥对,一路回车
Generating public/private rsa key pair.
Enter file in which to save the key (/root/.ssh/id_rsa): 
Created directory '/root/.ssh'.
Enter passphrase (empty for no passphrase): 
Enter same passphrase again: 
Your identification has been saved in /root/.ssh/id_rsa.
Your public key has been saved in /root/.ssh/id_rsa.pub.
The key fingerprint is:
SHA256:DoRBMmIAstd0QrtKG0QB2+VVkRAnppI35KRV4RQvQJc root@master
The key's randomart image is:
+---[RSA 2048]----+
|Oo==&.&B+o       |
|o* # #E+.        |
|o B X + .        |
| o o + .         |
|  o . . S        |
| . +   o         |
|  o     .        |
|                 |
|                 |
+----[SHA256]-----+[root@master ~]# cd /root/.ssh/	#进入 /root/.ssh/目录
[root@master .ssh]# ls
id_rsa  id_rsa.pub
[root@master .ssh]# ssh-copy-id -i id_rsa.pub root@node-1	
/usr/bin/ssh-copy-id: INFO: Source of key(s) to be installed: "id_rsa.pub"
The authenticity of host 'node-1 (192.168.182.134)' can't be established.
ECDSA key fingerprint is SHA256:VAXkY+ru3rBQHrgs94AB7LO819O7DBzXdUTGTLpNAak.
ECDSA key fingerprint is MD5:ab:bd:54:33:73:df:6b:16:48:59:15:05:c9:24:af:07.
Are you sure you want to continue connecting (yes/no)? yes
/usr/bin/ssh-copy-id: INFO: attempting to log in with the new key(s), to filter out any that are already installed
/usr/bin/ssh-copy-id: INFO: 1 key(s) remain to be installed -- if you are prompted now it is to install the new keys
root@node-1's password: Number of key(s) added: 1Now try logging into the machine, with:   "ssh 'root@node-1'"
and check to make sure that only the key(s) you wanted were added.[root@master .ssh]# ssh-copy-id -i id_rsa.pub root@node-2
/usr/bin/ssh-copy-id: INFO: Source of key(s) to be installed: "id_rsa.pub"
The authenticity of host 'node-2 (192.168.182.135)' can't be established.
ECDSA key fingerprint is SHA256:9MHFCfV2pm4w8bdJKG/bPKZ543YQ/LwQQAYMnEbGE18.
ECDSA key fingerprint is MD5:2a:e4:f6:73:8e:21:02:88:1b:6d:e3:e9:89:df:de:5f.
Are you sure you want to continue connecting (yes/no)? yes
/usr/bin/ssh-copy-id: INFO: attempting to log in with the new key(s), to filter out any that are already installed
/usr/bin/ssh-copy-id: INFO: 1 key(s) remain to be installed -- if you are prompted now it is to install the new keys
root@node-2's password: Number of key(s) added: 1Now try logging into the machine, with:   "ssh 'root@node-2'"
and check to make sure that only the key(s) you wanted were added.[root@master .ssh]# 

2.7、关闭交换分区swap,提升性能(三台一起操作)

[root@master .ssh]# swapoff -a

永久关闭:注释``swap挂载,给swap`这行开头加一下注释

[root@master .ssh]# vim /etc/fstab
#/dev/mapper/centos-swap swap      swap    defaults        0 0

2.8、为什么要关闭swap交换分区?

Swap是交换分区,如果机器内存不够,会使用swap分区,但是swap分区的性能较低,k8s设计的时候为了能提升性能,默认是不允许使用交换分区的。``Kubeadm`初始化的时候会检测swap是否关闭,如果没关闭,那就初始化失败。如果不想要关闭交换分区,安装k8s的时候可以指定–ignore-preflight-errors=Swap来解决。

2.9、修改机器内核参数(三台一起操作)

[root@master .ssh]# modprobe br_netfilter
[root@master .ssh]# echo "modprobe br_netfilter" >> /etc/profile
[root@master .ssh]# cat > /etc/sysctl.d/k8s.conf <<EOF
> net.bridge.bridge-nf-call-ip6tables = 1
> net.bridge.bridge-nf-call-iptables = 1
> net.ipv4.ip_forward = 1
> EOF
[root@master .ssh]# sysctl -p /etc/sysctl.d/k8s.conf
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
[root@master .ssh]# 

2.10、配置阿里云的repo源(三台一起)

yum install -y yum-utilsyum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repoyum install -y yum-utils device-mapper-persistent-data lvm2 wget net-tools nfs-utils lrzsz gcc gcc-c++ make cmake libxml2-devel openssl-devel curl curl-devel unzip sudo ntp libaio-devel wget vim ncurses-devel autoconf automake zlib-devel python-devel epel-release openssh-server socat ipvsadm conntrack ntpdate telnet ipvsadm配置安装k8s组件需要的阿里云的repo源vim  /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/
enabled=1
gpgcheck=0

2.11、配置时间同步(三台一起)

[root@master ~]# yum install ntpdate -y
[root@master ~]# ntpdate cn.pool.ntp.org3 Mar 10:15:12 ntpdate[73056]: adjust time server 84.16.67.12 offset 0.007718 sec
[root@master ~]# 

加入计划任务

[root@master ~]# crontab -e
no crontab for root - using an empty one
crontab: installing new crontab
[root@master ~]# crontab -l
* */1 * * * /usr/sbin/ntpdate   cn.pool.ntp.org
[root@master ~]# 
[root@master ~]# service crond restart
Redirecting to /bin/systemctl restart crond.service
[root@master ~]# 

3、安装docker服务(三台一起)

3.1、安装docker的最新版本

[root@master ~]# sudo yum install docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin -y
[root@master ~]# systemctl start docker && systemctl enable docker.service
Created symlink from /etc/systemd/system/multi-user.target.wants/docker.service to /usr/lib/systemd/system/docker.service.
您在 /var/spool/mail/root 中有新邮件
[root@master ~]# docker ps
CONTAINER ID   IMAGE     COMMAND   CREATED   STATUS    PORTS     NAMES
[root@master ~]# 

3.2、配置镜像加速器

[root@master ~]# vim  /etc/docker/daemon.json
{"registry-mirrors":["https://rsbud4vc.mirror.aliyuncs.com","https://registry.docker-cn.com","https://docker.mirrors.ustc.edu.cn","https://dockerhub.azk8s.cn","http://hub-mirror.c.163.com"],"exec-opts": ["native.cgroupdriver=systemd"]
} [root@master ~]# 
[root@master ~]# systemctl daemon-reload
您在 /var/spool/mail/root 中有新邮件
[root@master ~]# systemctl restart docker
[root@master ~]# docker ps
CONTAINER ID   IMAGE     COMMAND   CREATED   STATUS    PORTS     NAMES
[root@master ~]# 

4、继续配置Kubernetes

4.1、安装初始化k8s需要的软件包(三台一起)

k8s 1.24开始就不再使用``docker作为底层的容器运行时软件,采用containerd`作为底层的容器运行时软件

[root@master ~]# yum install -y kubelet-1.20.6 kubeadm-1.20.6 kubectl-1.20.6

Kubeadm: kubeadm是一个工具,用来初始化k8s集群的

kubelet: 安装在集群所有节点上,用于启动Pod的

kubectl: 通过kubectl可以部署和管理应用,查看各种资源,创建、删除和更新各种组件

[root@master ~]# systemctl enable kubelet
Created symlink from /etc/systemd/system/multi-user.target.wants/kubelet.service to /usr/lib/systemd/system/kubelet.service.
您在 /var/spool/mail/root 中有新邮件
[root@master ~]# 

4.2、kubeadm初始化k8s集群

把初始化k8s集群需要的离线镜像包上传到master、node-1、node-2机器上,手动解压

image-20240303105401715

利用xftp传到master上的root用户的家目录下

再利用``scp`传递到node-1和node-2上(之前建立过免密通道)

[root@master ~]# scp k8simage-1-20-6.tar.gz root@node-1:/root
k8simage-1-20-6.tar.gz                                100% 1033MB 129.0MB/s   00:08    
[root@master ~]# scp k8simage-1-20-6.tar.gz root@node-2:/root
k8simage-1-20-6.tar.gz                                100% 1033MB 141.8MB/s   00:07    
[root@master ~]# 

导入镜像(三台一起)

[root@master ~]# docker load -i k8simage-1-20-6.tar.gz

生成一个yml文件(在master上操作)

[root@master ~]# kubeadm config print init-defaults > kubeadm.yaml
您在 /var/spool/mail/root 中有新邮件
[root@master ~]# ls
anaconda-ks.cfg  k8simage-1-20-6.tar.gz  kubeadm.yaml
[root@master ~]# cat kubeadm.yaml 
apiVersion: kubeadm.k8s.io/v1beta2
bootstrapTokens:
- groups:- system:bootstrappers:kubeadm:default-node-tokentoken: abcdef.0123456789abcdefttl: 24h0m0susages:- signing- authentication
kind: InitConfiguration
localAPIEndpoint:advertiseAddress: 1.2.3.4bindPort: 6443
nodeRegistration:criSocket: /var/run/dockershim.sockname: mastertaints:- effect: NoSchedulekey: node-role.kubernetes.io/master
---
apiServer:timeoutForControlPlane: 4m0s
apiVersion: kubeadm.k8s.io/v1beta2
certificatesDir: /etc/kubernetes/pki
clusterName: kubernetes
controllerManager: {}
dns:type: CoreDNS
etcd:local:dataDir: /var/lib/etcd
imageRepository: k8s.gcr.io
kind: ClusterConfiguration
kubernetesVersion: v1.20.0
networking:dnsDomain: cluster.localserviceSubnet: 10.96.0.0/12
scheduler: {}
[root@master ~]# 
'修改内容'
[root@master ~]# cat kubeadm.yaml 
apiVersion: kubeadm.k8s.io/v1beta2
bootstrapTokens:
- groups:- system:bootstrappers:kubeadm:default-node-tokentoken: abcdef.0123456789abcdefttl: 24h0m0susages:- signing- authentication
kind: InitConfiguration
localAPIEndpoint:advertiseAddress: 192.168.182.133bindPort: 6443
nodeRegistration:criSocket: /var/run/dockershim.sockname: mastertaints:- effect: NoSchedulekey: node-role.kubernetes.io/master
---
apiServer:timeoutForControlPlane: 4m0s
apiVersion: kubeadm.k8s.io/v1beta2
certificatesDir: /etc/kubernetes/pki
clusterName: kubernetes
controllerManager: {}
dns:type: CoreDNS
etcd:local:dataDir: /var/lib/etcd
imageRepository: registry.aliyuncs.com/google_containers
kind: ClusterConfiguration
kubernetesVersion: v1.20.0
networking:dnsDomain: cluster.localserviceSubnet: 10.96.0.0/12podSubnet: 10.244.0.0/16
scheduler: {}
---
apiVersion: kubeproxy.config.k8s.io/v1alpha1
kind: KubeProxyConfiguration
mode: ipvs
---
apiVersion: kubelet.config.k8s.io/v1beta1
kind: KubeletConfiguration
cgroupDriver: systemd
[root@master ~]# 

4.3、基于kubeadm.yaml文件初始化k8s

[root@master ~]# kubeadm init --config=kubeadm.yaml --ignore-preflight-errors=SystemVerification
[root@master ~]# mkdir -p $HOME/.kube
您在 /var/spool/mail/root 中有新邮件
[root@master ~]# sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
[root@master ~]# sudo chown $(id -u):$(id -g) $HOME/.kube/config
[root@master ~]# 

接下来去node-1和node-2上去执行

[root@node-1 ~]# kubeadm join 192.168.182.133:6443 --token abcdef.0123456789abcdef     --discovery-token-ca-cert-hash sha256:a258f95963e807c99fd3c1fb6d6bea67c781406006db3e26e1575dbbe71b2736

去master上查看是否成功

[root@master ~]# kubectl get node
NAME     STATUS     ROLES                  AGE     VERSION
master   NotReady   control-plane,master   8m22s   v1.20.6
node-1   NotReady   <none>                 67s     v1.20.6
node-2   NotReady   <none>                 61s     v1.20.6
[root@master ~]# 

4.4、改一下node的角色为worker

[root@master ~]# kubectl label node node-1 node-role.kubernetes.io/worker=worker
node/node-1 labeled
[root@master ~]# kubectl label node node-2 node-role.kubernetes.io/worker=worker
node/node-2 labeled
[root@master ~]# kubectl get node
NAME     STATUS     ROLES                  AGE     VERSION
master   NotReady   control-plane,master   15m     v1.20.6
node-1   NotReady   worker                 8m12s   v1.20.6
node-2   NotReady   worker                 8m6s    v1.20.6
[root@master ~]# 

4.5、安装网络插件

先利用xftp上传文件:calico.yml到/root/

[root@master ~]# kubectl apply -f  calico.yaml
[root@master ~]# kubectl get node
NAME     STATUS   ROLES                  AGE   VERSION
master   Ready    control-plane,master   20m   v1.20.6
node-1   Ready    worker                 13m   v1.20.6
node-2   Ready    worker                 13m   v1.20.6
[root@master ~]# 

STATUS的状态变为:Ready —>成功了

5、一些基本的命令

5.1、kubectl get namespace (命名空间)

查看命名空间

[root@master ~]# kubectl get namespace
NAME              STATUS   AGE
default           Active   3h38m
kube-node-lease   Active   3h38m
kube-public       Active   3h38m
kube-system       Active   3h38m
[root@master ~]# 
  • kube-system 是k8s实现管理功能的命名空间 -->政府–>公务员–>实现整个k8s的管理职能
  • default 是默认的创建的业务容器运行的命名空间

k8s的核心思想:以容器治容器 —》以容器管理容器 —》以华治华

kubectl get node

查看node节点的状态

[root@master ~]# kubectl get node
NAME     STATUS   ROLES                  AGE     VERSION
master   Ready    control-plane,master   3h29m   v1.20.6
node-1   Ready    worker                 3h21m   v1.20.6
node-2   Ready    worker                 3h21m   v1.20.6

5.2、kubectl get pod

查看启动了哪些pod

[root@master ~]# kubectl get pod
[root@master ~]# kubectl get pod -n kube-system
NAME                                       READY   STATUS    RESTARTS   AGE
calico-kube-controllers-6949477b58-d457n   1/1     Running   0          3h28m
calico-node-48bw7                          1/1     Running   0          3h28m
calico-node-lwvsk                          1/1     Running   0          3h28m
calico-node-zjvg8                          1/1     Running   0          3h28m
coredns-7f89b7bc75-pncxv                   1/1     Running   0          3h47m
coredns-7f89b7bc75-qb966                   1/1     Running   0          3h47m
etcd-master                                1/1     Running   0          3h48m
kube-apiserver-master                      1/1     Running   1          3h48m
kube-controller-manager-master             1/1     Running   0          3h48m
kube-proxy-48lqm                           1/1     Running   0          3h40m
kube-proxy-7kfxj                           1/1     Running   0          3h47m
kube-proxy-lwlxq                           1/1     Running   0          3h40m
kube-scheduler-master                      1/1     Running   0          3h48m
[root@master ~]# 

这个 kubectl get pod -n kube-system 命令的含义是在 Kubernetes 集群中获取属于 kube-system 命名空间的所有 Pod。

解释如下:

  • kubectl: Kubernetes 命令行工具。
  • get pod: 获取 Pod 资源的信息。
  • -n kube-system: 指定命名空间为 kube-system

6、pod是什么?

Kubernetes(K8s)中,``Pod是最小的可部署单元。一个Pod可以包含一个或多个容器`,它们共享相同的网络命名空间、存储卷以及一些其他资源。Pod是Kubernetes中多个容器协同工作的基本单元,通常用于组织和管理紧密耦合的容器组。

Pod提供了一些重要的特性:

  1. 共享网络命名空间:Pod内的容器可以使用相同的IP地址和端口空间,容器之间可以通过localhost进行通信。

  2. 共享存储卷:Pod内的容器可以访问相同的存储卷,从而实现容器之间的数据共享。

  3. 共享进程空间:Pod内的容器运行在相同的Linux命名空间中,它们可以共享进程视图。

  4. 一个Pod中的容器共享生命周期:Pod中的所有容器将同时启动、停止和重新启动。

总体而言,Pod是Kubernetes中的基本构建块,用于组织和管理容器化应用程序。容器是Pod中的一个组成部分,但Pod提供了更高层次的抽象,用于协调和管理这些容器。

7、k8s中的组件

image-20240303152258427

7.1、在master上跑哪些组件—>运行哪些程序

  1. Kube API Server(API服务器)
    • 作用:作为Kubernetes系统的前端接口,接收来自用户和其他组件的API请求,并将这些请求转发给其他组件进行处理。监听6443端口
    • 重要特性:提供了RESTful API,是Kubernetes系统的唯一接口。
  2. etcd(分布式键值存储)
    • 作用:保存了Kubernetes集群的所有重要配置信息,包括集群状态、配置、元数据等。存储数据的。监听的端口: 2379,2380
    • 重要特性:保证高可用性和一致性,是Kubernetes的数据存储后端。
  3. Kube Controller Manager(控制器管理器)
    • 作用:负责运行控制器,监视集群的状态变化,并根据状态的变化进行相应的调整和控制。
    • 重要特性:包括节点控制器、副本控制器、服务控制器等。
  4. Kube Scheduler(调度器)
    • 作用: 负责监视新创建的、未指定运行节点(node)的 Pods, 并选择节点来让 Pod 在上面运行。
    • 重要特性:支持自定义调度器,具有插件式架构。
  5. cloud Controller Manager(云控制器管理器)
    • 作用: 对接云的,阿里,腾讯,亚马逊等

7.2、在node上跑哪些组件—>运行哪些程序

  1. Kubelet(节点代理)
    • 作用:负责在节点上运行和管理容器,监视与报告容器状态,并与控制平面的 Kube API Server 通信。—>调用docker帮我们启容器—>指挥docker去启动容器
    • 在Node上的运行:每个节点都有一个运行 Kubelet 的实例。
  2. Kube Proxy(代理)
    • 作用:负责维护节点上的网络规则,将服务暴露给集群内或集群外的其他服务。
    • 在Node上的运行:每个节点都有一个运行 Kube Proxy 的实例。

联想到:docker proxy

Docker代理(Docker Proxy)通常是指Docker守护进程中的HTTP代理或HTTPS代理设置,用于在Docker守护进程与Docker Hub或其他镜像仓库之间进行网络通信。这个代理在一些网络环境中是必要的,例如在使用代理服务器访问互联网时,或者在受限制的网络环境中。

8、启动nginx的pod

[root@master ~]# kubectl create deployment k8s-nginx  --image=nginx  -r 3
deployment.apps/k8s-nginx created
[root@master ~]# kubectl get pod
NAME                         READY   STATUS              RESTARTS   AGE
k8s-nginx-75f95db655-dxwc6   0/1     ContainerCreating   0          18s
k8s-nginx-75f95db655-f8cnx   0/1     ContainerCreating   0          18s
k8s-nginx-75f95db655-ww9mk   0/1     ContainerCreating   0          18s
[root@master ~]# 

该命令使用kubectl在Kubernetes集群中创建一个名为 k8s-nginx 的部署(Deployment),使用 Nginx 镜像,并指定副本数为 3。

具体解释如下:

  • kubectl create deployment k8s-nginx:创建一个名为 k8s-nginx 的部署。

  • --image=nginx:指定部署使用的容器镜像,这里是 Nginx 镜像。部署将会启动包含该镜像的 Pod。

  • -r 3:设置副本数为 3。这表示在集群中将有 3 个相同的 Pod 实例,每个 Pod 都运行着 Nginx 容器。副本数是部署控制的实例数,用于确保在集群中有指定数量的运行实例。

总结起来,这个命令的目的是在 Kubernetes 集群中创建一个部署,该部署会启动 3 个运行 Nginx 镜像的 Pod 实例。这是一个简单的部署示例,你可以根据实际需求进行更复杂的部署配置。

netes 集群中创建一个部署,该部署会启动 3 个运行 Nginx 镜像的 Pod 实例。这是一个简单的部署示例,你可以根据实际需求进行更复杂的部署配置。

查看启的容器在哪个node节点上

[root@master ~]# kubectl get pod -o wide
NAME                         READY   STATUS    RESTARTS   AGE   IP              NODE     NOMINATED NODE   READINESS GATES
k8s-nginx-75f95db655-dxwc6   1/1     Running   0          68s   10.244.84.130   node-1   <none>           <none>
k8s-nginx-75f95db655-f8cnx   1/1     Running   0          68s   10.244.84.131   node-1   <none>           <none>
k8s-nginx-75f95db655-ww9mk   1/1     Running   0          68s   10.244.247.3    node-2   <none>           <none>
[root@master ~]# 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/509806.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

SpringBootWeb快速入门

1.创建springboot工程&#xff0c;新建module 2.勾选web开发相关依赖 3.删除多余文件 4.新建类 5.启动类中运行main方法 6.启动 默认端口号8080 7.打开浏览器&#xff0c;地址栏输入 8.报错 9.原因&#xff0c;控制层位置放错&#xff0c;剪切controller层放进com.example …

情感分析(文本分类)数据集汇总

想在推荐前对评论做一些情感分析方面的工作,参考网上其它博主的博客大概整理了一下情感分析方面的数据集的内容&#xff0c;大致分为两类——多分类和二分类&#xff08;俺比较关注的&#xff09;&#xff0c;中英文的数据集都汇总整理了一下&#xff0c;后面会关注一下相关的比…

如何在飞书接入ChatGPT并结合内网穿透实现公网远程访问智能AI助手

文章目录 前言环境列表1.飞书设置2.克隆feishu-chatgpt项目3.配置config.yaml文件4.运行feishu-chatgpt项目5.安装cpolar内网穿透6.固定公网地址7.机器人权限配置8.创建版本9.创建测试企业10. 机器人测试 前言 在飞书中创建chatGPT机器人并且对话&#xff0c;在下面操作步骤中…

ViTMatte:Boosting image matting with pretrained plain vision transformers

自sora之后&#xff0c;我也要多思考&#xff0c;transformer的scaling law在各个子领域中是不是真的会产生智能&#xff0c;conv的叠加从resnet之后就讨论过&#xff0c;宽或者深都没有办法做到极限&#xff0c;大概sam这种思路是最好的实证。 1.introduction 引入了ViT adap…

C语言:指针(二)

目录 1.数组名的理解2.使用指针访问数组3.一维数组传参的本质4.二级指针5.指针数组6.字符指针变量7.数组指针变量8.二维数组传参的本质9.函数指针变量10.函数指针数组11.回调函数12.qsort函数13.使用回调函数模拟实现qsort函数 1.数组名的理解 int main() {int arr[] { 1,2,3…

ASCII码

ASCII码 概念 ASCII(American Standard Code for Information Interchange)的缩写&#xff08;美国标准信息交换代码&#xff09;&#xff0c;已被国际标准化组织ISO采纳&#xff0c;作为国际通用的信息交换标准代码。 诞生背景 计算机对数据的识别、运算和存储都建立在二进…

SpringBoot+Vue实现el-table表头筛选排序(附源码)

&#x1f468;‍&#x1f4bb;作者简介&#xff1a;在笑大学牲 &#x1f39f;️个人主页&#xff1a;无所谓^_^ ps&#xff1a;点赞是免费的&#xff0c;却可以让写博客的作者开心好几天&#x1f60e; 前言 后台系统对table组件的需求是最常见的&#xff0c;不过element-ui的el…

FPGA之加法逻辑运算

由于FPGA需要被反复烧写&#xff0c;它实现组合逻辑的基本结构不可能像ASIC 那样通过固定的与非门来完成&#xff0c;而只能采用一种易于反复配置的结构。查找表可以很好地满足这一要求&#xff0c;目前主流FPGA都采用了基于SRAM 工艺的查找表结构。LUT本质上就是一个RAM。它把…

sparse transformer 常见稀疏注意力

参考&#xff1a; https://zhuanlan.zhihu.com/p/259591644 主要就是降低transformer自注意力模块的复杂度 复杂度主要就是 Q K^T影响的&#xff0c;稀疏注意力就是在Q点乘K的转置这模块做文章 下列式一些sparse transformer稀疏注意力方法 a、transformer原始的 &#xff0…

【Python实战】——Python+Opencv是实现车牌自动识别

&#x1f349;CSDN小墨&晓末:https://blog.csdn.net/jd1813346972 个人介绍: 研一&#xff5c;统计学&#xff5c;干货分享          擅长Python、Matlab、R等主流编程软件          累计十余项国家级比赛奖项&#xff0c;参与研究经费10w、40w级横向 文…

MYSQL---日志

1.日志的概述 日志是MySQL数据库的重要组成部分。日志文件中记录着MySQL数据库运行期间发生的变化&#xff1b;也就是说用来记录MySQL数据库的客户端连接状况、SQL语句的执行情况和错误信息等。当数据库遭到意外的损坏时&#xff0c;可以通过日志查看文件出错的原因&#xff0…

Ambari动态给YARN分配计算节点

1.前言 YARN可用的计算节点数量并不总是等于 Hadoop集群节点数量&#xff0c;可以根据业务需求分配 YARN计算节点数量。 这里首先介绍一些前置知识&#xff1a; YARN中 ResourceManager 和 NodeManager是两个核心组件&#xff0c;其中 ResourceManager负责集群资源的统一管理…