Redis 高可用【主从复制 哨兵 集群】

  • 主从复制:主从复制是高可用Redis的基础,哨兵和集群都是在主从复制基础上实现高可用的。主从复制主要实现了数据的多机备份,以及对于读操作的负载均衡和简单的故障恢复。缺陷:故障恢复无法自动化;写操作无法负载均衡;存储能力受到单机的限制。

  • 哨兵:在主从复制的基础上,哨兵实现了自动化的故障恢复。缺陷:写操作无法负载均衡;存储能力受到单机的限制;哨兵无法对从节点进行自动故障转移,在读写分离场景下,从节点故障会导致读服务不可用,需要对从节点做额外的监控、切换操作。

  • 集群:通过集群,Redis实现了写操作负载均衡,以及存储能力不受单机限制的问题,实现了较为完善的高可用方案。


---------------------- Redis 主从复制 ----------------------------------------

主从复制,是指将一台Redis服务器的数据,复制到其他的Redis服务器。前者称为主节点(Master),后者称为从节点(Slave);数据的复制是单向的,只能由主节点到从节点。

默认情况下,每台Redis服务器都是主节点;且一个主节点可以有多个从节点(或没有从节点),但一个从节点只能有一个主节点。

主从复制的作用

  • 数据冗余:主从复制实现了数据的热备份,是持久化之外的一种数据冗余方式。
  • 故障恢复:当主节点出现问题时,可以由从节点提供服务,实现快速的故障恢复;实际上是一种服务的冗余。(需要人工切换)
  • 负载均衡:在主从复制的基础上,配合读写分离,可以由主节点提供写服务,由从节点提供读服务(即写Redis数据时应用连接主节点,读Redis数据时应用连接从节点),分担服务器负载;尤其是在写少读多的场景下,通过多个从节点分担读负载,可以大大提高Redis服务器的并发量。
  • 高可用基石:除了上述作用以外,主从复制还是哨兵和集群能够实施的基础,因此说主从复制是Redis高可用的基础。

主从复制流程

  1. [多个]从节点Redis开启/重启后向主服务器发送同步连接请求
  2. 主服务器启动子进程进行RDB持久化,将内存快照数据保存至RDB文件发送给从节点
  3. 从节点收到RDB数据后保存到硬盘,加载到内存中
  4. 第一次同步通过RDB文件全量复制,后续的同步则只需要发送新增的写入操作。

主从复制不一致怎么办?[面试题]

Redis主从复制与MySQL主从复制有所不同,如果出现主从复制不一致的问题,只需要重启slave即可,重启后从节点会自动与主服务器重新同步。


---------------------- 搭建Redis 主从复制 ----------------------------------------

Master节点:192.168.80.11
Slave1节点:192.168.80.12
Slave2节点:192.168.80.13


-----全部安装 Redis-----

环境准备

systemctl stop firewalld
systemctl disable firewalld
setenforce 0
sed -i 's/enforcing/disabled/' /etc/selinux/config

修改内核参数

vim /etc/sysctl.confvm.overcommit_memory = 1
net.core.somaxconn = 10240
sysctl -p

安装redis

yum install -y gcc gcc-c++ maketar zxvf /opt/redis-7.0.9.tar.gz -C /opt/
cd /opt/redis-7.0.9
make
make PREFIX=/usr/local/redis install

#由于Redis源码包中直接提供了 Makefile 文件,所以在解压完软件包后,不用先执行 ./configure 进行配置,可直接执行 make 与 make install 命令进行安装。

创建redis工作目录

mkdir /usr/local/redis/{conf,log,data}
cp /opt/redis-7.0.9/redis.conf /usr/local/redis/conf/useradd -M -s /sbin/nologin redis
chown -R redis.redis /usr/local/redis/

环境变量

vim /etc/profilePATH=$PATH:/usr/local/redis/bin
#增加一行
source /etc/profile

定义systemd服务管理脚本

vim /usr/lib/systemd/system/redis-server.service[Unit]
Description=Redis Server
After=network.target[Service]
User=redis
Group=redis
Type=forking
TimeoutSec=0
PIDFile=/usr/local/redis/log/redis_6379.pid
ExecStart=/usr/local/redis/bin/redis-server /usr/local/redis/conf/redis.conf
ExecReload=/bin/kill -s HUP $MAINPID
ExecStop=/bin/kill -s QUIT $MAINPID
PrivateTmp=true[Install]
WantedBy=multi-user.target

-----修改 Redis 配置文件(Master节点操作)-----

vim /usr/local/redis/conf/redis.confbind 0.0.0.0                                     #87行,修改监听地址为0.0.0.0
protected-mode no                                #111行,将本机访问保护模式设置no
port 6379                                        #138行,Redis默认的监听6379端口
tcp-backlog=10240                         #队列长度,设置与内核最大连接数[net.core.somaxconn = 10240]和内核最大文件打开数[ulimit -a open files项]一致
daemonize yes                                    #309行,设置为守护进程,后台启动
pidfile /usr/local/redis/log/redis_6379.pid      #341行,指定 PID 文件
logfile "/usr/local/redis/log/redis_6379.log"    #354行,指定日志文件
dir /usr/local/redis/data                        #504行,指定持久化文件所在目录
#requirepass abc123                              #1037行,可选,设置redis密码
appendonly yes                                   #1380行,开启AOF
systemctl restart redis-server.service

-----修改 Redis 配置文件(Slave节点操作)-----

vim /usr/local/redis/conf/redis.confbind 0.0.0.0                                      #87行,修改监听地址为0.0.0.0
protected-mode no                                 #111行,将本机访问保护模式设置no
port 6379                                         #138行,Redis默认的监听6379端口
tcp-backlog=10240                         #队列长度,设置与内核最大连接数[net.core.somaxconn = 10240]和内核最大文件打开数[ulimit -a open files项]一致
daemonize yes                                     #309行,设置为守护进程,后台启动
pidfile /usr/local/redis/log/redis_6379.pid       #341行,指定 PID 文件
logfile "/usr/local/redis/log/redis_6379.log"     #354行,指定日志文件
dir /usr/local/redis/data                         #504行,指定持久化文件所在目录
#requirepass abc123                               #1037行,可选,设置redis密码
appendonly yes                                    #1380行,开启AOFreplicaof 192.168.80.11 6379                      #✨528行,指定要同步的Master节点IP和端口
#masterauth abc123                                #✨535行,可选,指定Master节点的密码,仅在Master节点设置了requirepass
systemctl restart redis-server.service

-----验证主从效果-----

在Master节点上看日志:

tail -f /usr/local/redis/log/redis_6379.log9062:M 02 Jul 2023 19:57:45.001 * Delay next BGSAVE for diskless SYNC
9062:M 02 Jul 2023 19:57:49.127 * Starting BGSAVE for SYNC with target: replicas sockets
9062:M 02 Jul 2023 19:57:49.168 * Background RDB transfer started by pid 9096
9096:C 02 Jul 2023 19:57:49.169 * Fork CoW for RDB: current 2 MB, peak 2 MB, average 2 MB
9062:M 02 Jul 2023 19:57:49.169 # Diskless rdb transfer, done reading from pipe, 2 replicas still up.
9062:M 02 Jul 2023 19:57:49.172 * Background RDB transfer terminated with success
9062:M 02 Jul 2023 19:57:49.173 * Streamed RDB transfer with replica 192.168.80.12:6379 succeeded (socket). Waiting for REPLCONF ACK from slave to enable streaming
9062:M 02 Jul 2023 19:57:49.173 * Synchronization with replica 192.168.80.12:6379 succeeded
9062:M 02 Jul 2023 19:57:49.173 * Streamed RDB transfer with replica 192.168.80.13:6379 succeeded (socket). Waiting for REPLCONF ACK from slave to enable streaming
9062:M 02 Jul 2023 19:57:49.173 * Synchronization with replica 192.168.80.13:6379 succeeded

在Master节点上验证从节点:

redis-cli info replication# Replication
role:master
connected_slaves:2
slave0:ip=192.168.80.12,port=6379,state=online,offset=294,lag=0
slave1:ip=192.168.80.13,port=6379,state=online,offset=294,lag=0
master_failover_state:no-failover
master_replid:53ad9b8b9d1c2ce6a8723944edee7884e9d09212
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:294
second_repl_offset:-1
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:1
repl_backlog_histlen:294

 

 

主从复制延迟怎么看?(面试题)

info replication
当前主从复制偏移量 master-repl-offset




---------------------- Redis 哨兵模式 ----------------------------------------

主从切换技术的方法是:当服务器宕机后,需要手动一台从机切换为主机,这需要人工干预,不仅费时费力而且还会造成一段时间内服务不可用。为了解决主从复制的缺点,就有了哨兵机制。

哨兵的核心功能:在主从复制的基础上,哨兵引入了主节点的自动故障转移

哨兵模式的作用

  • 监控:哨兵会不断地检查主节点和从节点是否运作正常。
  • 自动故障转移:当主节点不能正常工作时,哨兵会开始自动故障转移操作,它会将失效主节点的其中一个从节点升级为新的主节点,并让其它从节点改为复制新的主节点。(和MySQL MHA高可用很像)
  • 通知(提醒):哨兵可以将故障转移的结果发送给客户端。

哨兵结构由两部分组成,哨兵节点和数据节点

  • 哨兵节点:哨兵系统由一个或多个哨兵节点组成,哨兵节点是特殊的redis节点,不存储数据(端口26379)
  • 数据节点:主节点和从节点都是数据节点。(端口6379)

故障转移机制

  1. 哨兵节点定期监控发现主节点是否出现了故障
    1. 每个哨兵节点每隔1秒会向主节点、从节点及其它哨兵节点发送一次ping命令做一次心跳检测。
    2. 如果主节点在一定时间范围内不回复或者是回复一个错误消息,那么这个哨兵就会认为这个主节点主观下线了(单方面的)。
    3. 超过一定数量的哨兵节点认为该主节点主观下线了,这样就客观下线了。
  2. 当主节点出现故障,此时哨兵节点会通过Raft算法(选举算法)实现选举机制共同选举出一个哨兵节点为leader(其余是follower),来负责处理主节点的故障转移和通知。所以整个运行哨兵的集群的数量不得少于3个节点。
  3. 由leader哨兵节点执行故障转移,过程如下:
    1. 将某一个从节点升级为新的主节点,让其它从节点指向新的主节点做主从复制;
    2. 原主节点恢复也变成从节点,并指向新的主节点做主从复制;
    3. 通知客户端主节点已经更换。

需要特别注意的是,客观下线是主节点才有的概念;

如果从节点和哨兵节点发生故障,被哨兵主观下线后,不会再有后续的客观下线和故障转移操作(反正不是主节点,死了就死了)

主节点的选举

  1. 过滤掉不健康的(已下线的),没有回复哨兵 ping 响应的从节点。
  2. 选择配置文件中从节点优先级配置最高的。(replica-priority,默认值为100)
  3. 选择复制偏移量最大,也就是复制最完整的从节点。

---------------------- 搭建Redis 哨兵模式 ----------------------------------------

哨兵的启动依赖于主从复制模式,所以须把主从模式安装好的情况下再去做哨兵模式

Master节点:192.168.80.11
Slave1节点:192.168.80.12
Slave2节点:192.168.80.13

systemctl stop firewalld
setenforce 0

-----修改 Redis 哨兵模式的配置文件(所有哨兵节点操作【哨兵节点可以单独部署在物理机上,实验为了方便在每一台Redis上部署一套哨兵节点共3台】)-----

cp /opt/redis-7.0.9/sentinel.conf /usr/local/redis/conf/
chown redis.redis /usr/local/redis/conf/sentinel.conf
vim /usr/local/redis/conf/sentinel.confprotected-mode no                                     #6行,关闭保护模式
port 26379                                            #10行,Redis哨兵默认的监听端口
daemonize yes                                         #15行,指定sentinel为后台启动
pidfile /usr/local/redis/log/redis-sentinel.pid       #20行,指定 PID 文件
logfile "/usr/local/redis/log/sentinel.log"           #25行,指定日志存放路径
dir /usr/local/redis/data                             #54行,指定数据库存放路径
sentinel monitor mymaster 192.168.80.11 6379 2        #73行,修改 指定该哨兵节点监控192.168.80.11:6379这个主节点,该主节点的名称是mymaster,最后的2的含义与主节点的故障判定有关:至少需要2个哨兵节点同意,才能判定主节点故障并进行故障转移
#sentinel auth-pass mymaster abc123                   #76行,可选,指定Master节点的密码,仅在Master节点设置了requirepass
sentinel down-after-milliseconds mymaster 3000        #114行,判定服务器down掉的时间周期,默认30000毫秒(30秒无响应认为下线)
sentinel failover-timeout mymaster 180000             #214行,同一个sentinel对同一个master两次failover之间的间隔时间(两次故障转移间隔180秒,不让切换太频繁)

将编辑好的哨兵配置文件传输给每一台哨兵服务器

#scp sentinel.conf 192.168.80.11:`pwd` 本机scp sentinel.conf 192.168.80.12:`pwd`
scp sentinel.conf 192.168.80.13:`pwd`


-----启动哨兵模式(每台哨兵服务器)-----

先启master,再启slave

cd /usr/local/redis/conf/
redis-sentinel sentinel.conf &


-----查看哨兵信息-----

redis-cli -h 192.168.80.11 -p 26379 info Sentinel# Sentinel
sentinel_masters:1
sentinel_tilt:0
sentinel_tilt_since_seconds:-1
sentinel_running_scripts:0
sentinel_scripts_queue_length:0
sentinel_simulate_failure_flags:0
master0:name=mymaster,status=ok,address=192.168.80.11:6379,slaves=2,sentinels=3

 

 

-----故障模拟----- 

查看redis-server进程号

ps -ef | grep redisredis      9062      1  0 19:54 ?        00:00:02 /usr/local/redis/bin/redis-server 0.0.0.0:6379
root       9351      1  0 20:13 ?        00:00:00 redis-sentinel *:26379 [sentinel]
root       9375   4263  0 20:15 pts/1    00:00:00 grep --color=auto redis

杀死 Master 节点上redis-server的进程号

kill -9 9062#Master节点上redis-server的进程号

验证结果 查看哨兵日志

tail -f /usr/local/redis/log/sentinel.log9351:X 02 Jul 2023 20:16:39.310 # +sdown master mymaster 192.168.80.11 6379
9351:X 02 Jul 2023 20:16:39.372 * Sentinel new configuration saved on disk
9351:X 02 Jul 2023 20:16:39.372 # +new-epoch 1
9351:X 02 Jul 2023 20:16:39.376 * Sentinel new configuration saved on disk
9351:X 02 Jul 2023 20:16:39.376 # +vote-for-leader fdd711c0ae563e519b318f68469352a32cc31dcf 1
9351:X 02 Jul 2023 20:16:39.376 # +odown master mymaster 192.168.80.11 6379 #quorum 3/2
9351:X 02 Jul 2023 20:16:39.376 # Next failover delay: I will not start a failover before Sun Jul  2 20:22:40 2023
9351:X 02 Jul 2023 20:16:40.638 # +config-update-from sentinel fdd711c0ae563e519b318f68469352a32cc31dcf 192.168.80.13 26379 @ mymaster 192.168.80.11 6379
9351:X 02 Jul 2023 20:16:40.638 # +switch-master mymaster 192.168.80.11 6379 192.168.80.12 6379
9351:X 02 Jul 2023 20:16:40.639 * +slave slave 192.168.80.13:6379 192.168.80.13 6379 @ mymaster 192.168.80.12 6379
9351:X 02 Jul 2023 20:16:40.639 * +slave slave 192.168.80.11:6379 192.168.80.11 6379 @ mymaster 192.168.80.12 6379
9351:X 02 Jul 2023 20:16:40.640 * Sentinel new configuration saved on disk
9351:X 02 Jul 2023 20:17:10.716 # +sdown slave 192.168.80.11:6379 192.168.80.11 6379 @ mymaster 192.168.80.12 6379

 

查看哨兵信息

redis-cli -h 192.168.80.11 -p 26379 info Sentinel# Sentinel
sentinel_masters:1
sentinel_tilt:0
sentinel_tilt_since_seconds:-1
sentinel_running_scripts:0
sentinel_scripts_queue_length:0
sentinel_simulate_failure_flags:0
master0:name=mymaster,status=ok,address=192.168.80.12:6379,slaves=2,sentinels=3

 

并且Redis配置中的主服务器地址也被修改(在slave上看)

vim /usr/local/redis/conf/redis.confreplicaof 192.168.80.12 6379 #527行

哨兵监控配置也被更改(在任意一个哨兵节点上看)

vim /usr/local/redis/conf/sentinel.confsentinel monitor mymaster 192.168.80.12 6379 2 #73行




---------------------- Redis 群集模式 ----------------------------------------

集群,即Redis Cluster,是Redis 3.0开始引入的分布式存储方案。

集群由多组节点(Node)组成,Redis的数据分布在这些节点中。集群中的节点分为主节点和从节点:只有主节点负责读写请求和集群信息的维护从节点只进行主节点数据和状态信息的复制

集群的作用,可以归纳为两点
(1)数据分区:数据分区(或称数据分片)是集群最核心的功能。
集群将数据分散到多个节点,一方面突破了Redis单机内存大小的限制,存储容量大大增加;另一方面每个主节点都可以对外提供读服务和写服务,大大提高了集群的响应能力。
Redis单机内存大小受限问题,在介绍持久化和主从复制时都有提及;例如,如果单机内存太大,bgsave和bgrewriteaof的fork操作可能导致主进程阻塞,主从环境下主机切换时可能导致从节点长时间无法提供服务,全量复制阶段主节点的复制缓冲区可能溢出。

(2)高可用:集群支持主从复制和主节点的自动故障转移(与哨兵类似);当任一节点发生故障时,集群仍然可以对外提供服务。

Redis集群的数据分片
Redis集群引入了哈希槽的概念
Redis集群有16384个哈希槽(编号0-16383)
集群的每组节点负责一部分哈希槽
每个Key通过CRC16校验后对16384取余来决定放置哪个哈希槽,通过这个值,去找到对应的插槽所对应的节点,然后直接自动跳转到这个对应的节点上进行存取操作

以3个节点组成的集群为例
节点A包含0到5460号哈希槽
节点B包含5461到10922号哈希槽
节点C包含10923到16383号哈希槽

 Redis集群工作原理?怎么做数据分片?(面试题)

先对键进行CRC16换算,将得到的数字除以16384取余,得到hash槽位置,据此找到是哪一个节点,跳转到这个节点上进行存取操作。

Redis集群的主从复制模型
集群中具有A、B、C三个节点,如果节点B失败了,整个集群就会因缺少5461-10922这个范围的槽而不可以用。
为每个节点添加一个从节点A1、B1、C1整个集群便有三个Master节点和三个slave节点组成,在节点B失败后,集群选举B1位为的主节点继续服务。当B和B1都失败后,集群将不可用。(主坏了从顶替,若负责同一hash槽的主从都坏了就寄

Redis集群至少是三主三从架构主节点做读写操作,从节点只做主从复制       


---------------------- 搭建Redis 群集模式 ----------------------------------------

redis的集群至少需要6个节点,3主3从。方便起见,这里所有节点在同一台服务器上模拟:
以端口号进行区分:3个主节点端口号:6001/6002/6003,对应的从节点端口号:6004/6005/6006。

复制conf,cli,server三个文件到不同实例文件夹中 

cd /usr/local/redis/
mkdir -p redis-cluster/redis600{1..6}for i in {1..6}
do
cp /opt/redis-7.0.9/redis.conf /usr/local/redis/redis-cluster/redis600$i
cp /opt/redis-7.0.9/src/redis-cli /opt/redis-7.0.9/src/redis-server /usr/local/redis/redis-cluster/redis600$i
done

开启群集功能

#其他5个文件夹的配置文件以此类推修改,注意6个端口都要不一样。

cd /usr/local/redis/redis-cluster/redis6001
vim redis.conf#bind 127.0.0.1                                  #87行,注释掉bind项,默认监听所有网卡
protected-mode no                                #111行,关闭保护模式
port 6001                                        #✨138行,修改redis监听端口 6001-6006
daemonize yes                                    #309行,设置为守护进程,后台启动
pidfile /usr/local/redis/log/redis_6001.pid      #✨341行,指定 PID 文件
logfile "/usr/local/redis/log/redis_6001.log"    #✨354行,指定日志文件
dir ./                                           #504行,指定持久化文件所在目录
appendonly yes                                   #1379行,开启AOFcluster-enabled yes                              #✨1576行,取消注释,开启群集功能
cluster-config-file nodes-6001.conf              #✨1584行,取消注释,群集配置文件
cluster-node-timeout 15000                       #✨1590行,取消注释,群集超时时间

复制6001中配置文件到6002-6006

for i in {6002..6006}
do
\cp -f /usr/local/redis/redis-cluster/redis6001/redis.conf /usr/local/redis/redis-cluster/redis$i
done

 然后去每个文件夹中修改相应的 监听端口 pid 日志文件 集群配置文件的6001为600X

#vim内快速替换命令
:% s/6001/6002
#sed快速替换命令
sed -n '/6001/p' redis.conf     #查看哪几行包含6001
sed -i 's/6001/6002' redis.conf #替换6001为600X整合为脚本一键执行
for i in {6002..6006}
do
\sed -i 's/6001/'$i'/' /usr/local/redis/redis-cluster/redis$i/redis.conf
done

启动redis节点

分别进入那六个文件夹,执行命令:redis-server redis.conf ,来启动redis节点

#cd /usr/local/redis/redis-cluster/redis6001
#redis-server redis.conf直接整合为脚本
for d in {1..6} 
do
cd /usr/local/redis/redis-cluster/redis600$d
./redis-server redis.conf
done
ps -ef | grep redis

 

 

启动集群

redis-cli --cluster create 127.0.0.1:6001 127.0.0.1:6002 127.0.0.1:6003 127.0.0.1:6004 127.0.0.1:6005 127.0.0.1:6006 --cluster-replicas 1

--replicas 1 表示每个主节点有1个从节点。 

六个实例分为三组,每组一主一从,前面的做主节点,后面的做从节点。下面交互的时候 需要输入 yes 才可以创建。

 

测试群集

redis-cli -p 6001 -c
redis-cli -h 127.0.0.1 -p 6001 -c     #加-c参数,节点之间就可以互相跳转(hash槽分布在不同节点)
127.0.0.1:6001> cluster slots            查看节点的哈希槽编号范围1) 1) (integer) 02) (integer) 5460                                      #哈希槽编号范围3) 1) "127.0.0.1"2) (integer) 6001                                   #主节点IP和端口号3) "a11bbcf3fa85f84bdb73def11cde2bab57cb2c3b"4) (empty array)4) 1) "127.0.0.1"2) (integer) 6005                                   #从节点IP和端口号3) "642959be91e890d7553616b02e7b3103c0063457"4) (empty array)
2) 1) (integer) 54612) (integer) 109223) 1) "127.0.0.1"2) (integer) 60023) "99c71944c7e065a11400eec9144fa5f024e6b180"4) (empty array)4) 1) "127.0.0.1"2) (integer) 60063) "b1250c3fd1c9123bb24462446af214fb419b1d42"4) (empty array)
3) 1) (integer) 109232) (integer) 163833) 1) "127.0.0.1"2) (integer) 60033) "07a85a75c44e6c5349f4c0f5c7b67a5889c6a8ae"4) (empty array)4) 1) "127.0.0.1"2) (integer) 60043) "cc6d9112b867be5c2298ccd1d660c0dc40f55730"4) (empty array)
127.0.0.1:6001> cluster nodes             查看集群所有节点状态(主从信息)
redis-cli -p 6001 -c cluster nodesb1250c3fd1c9123bb24462446af214fb419b1d42 127.0.0.1:6006@16006 slave 99c71944c7e065a11400eec9144fa5f024e6b180 0 1688302916857 2 connected
642959be91e890d7553616b02e7b3103c0063457 127.0.0.1:6005@16005 slave a11bbcf3fa85f84bdb73def11cde2bab57cb2c3b 0 1688302914845 1 connected
a11bbcf3fa85f84bdb73def11cde2bab57cb2c3b 127.0.0.1:6001@16001 myself,master - 0 1688302915000 1 connected 0-5460
07a85a75c44e6c5349f4c0f5c7b67a5889c6a8ae 127.0.0.1:6003@16003 master - 0 1688302913000 3 connected 10923-16383
cc6d9112b867be5c2298ccd1d660c0dc40f55730 127.0.0.1:6004@16004 slave 07a85a75c44e6c5349f4c0f5c7b67a5889c6a8ae 0 1688302915850 3 connected
99c71944c7e065a11400eec9144fa5f024e6b180 127.0.0.1:6002@16002 master - 0 1688302914000 2 connected 5461-10922

 

 

 插入数据验证

127.0.0.1:6001> set name zhangsan
-> Redirected to slot [5798] located at 127.0.0.1:6002     #根据hash槽写入6002
OK
127.0.0.1:6001> cluster keyslot name             #查看name键的槽编号(integer) 5798
redis-cli -p 6002 -c
127.0.0.1:6002> keys *                #master节点有这条数据
1) "name"redis-cli -p 6006 -c
127.0.0.1:6006> keys *                #对应的slave节点也有这条数据
1) "name"
127.0.0.1:6006> get name              #由于主做读写,从只做复制,在从上获取键仍然会跳转到主上读取
-> Redirected to slot [5798] located at 127.0.0.1:6002
"zhangsan"redis-cli -p 6003 -c
127.0.0.1:6003> keys *                #但是别的节点没有
(empty array)

Cluster 集群增加节点动态扩容

redis 5的集群支持在有负载的情况下增加节点动态扩容。

已有集群为6个节点127.0.0.1:6001 - 127.0.0.1:6006,3组主从节点。现要增加第4组主从节点127.0.0.1:6007,127.0.0.1:6008

注意,集群增加节点必须成组方式,例如之前三主三从,就得加一主一从。若是三组六从,就得加一主二从。

创建新节点实例,更改配置文件并启动

 准备新增的6007 6008服务器配置文件

拷贝6001配置文件到新增的服务器6007 6008
cd /usr/local/redis/redis-cluster/
cp -r redis6001 redis6007
cp -r redis6001 redis6008修改新增的6007主服务器配置文件
cd /usr/local/redis/redis-cluster/redis6007
rm -rf appendonlydir/ nodes-6001.conf #刚刚运行节点6001产生的配置,一并拷贝过来了,不需要,删除。留下redis-cli redis.conf redis-server三个文件即可
sed -i 's/6001/6007/' redis.conf #替换6001配置为6007
sed -n '/6007/p' redis.conf #检查是否修改修改新增的6008从服务器配置文件
cd /usr/local/redis/redis-cluster/redis6008
rm -rf appendonlydir/ nodes-6001.conf
sed -i 's/6001/6008/' redis.conf
sed -n '/6008/p' redis.conf

 启动6007 6008 Redis节点

for i in {6007..6008}
do
cd /usr/local/redis/redis-cluster/redis$i
./redis-server redis.conf
done
ps aux | grep redis

 

 

 将新节点加入集群

1.创建一个新的主节点127.0.0.1:6007。命令里需要指定一个已有节点以便于获取集群信息,本例是指定的127.0.0.1:6001

redis-cli -h 127.0.0.1 -p 6001 --cluster add-node 127.0.0.1:6007 127.0.0.1:6001或redis-cli -p 6001
cluster meet 127.0.0.1 6007
cluster meet 127.0.0.1 6008

2.将127.0.0.1:6008创建为127.0.0.1:6007的从节点。命令里需要指定一个已有节点以便于获取集群信息和主节点的node ID

cluster nodes 
#查看节点IDb1250c3fd1c9123bb24462446af214fb419b1d42 127.0.0.1:6006@16006 slave 99c71944c7e065a11400eec9144fa5f024e6b180 0 1688303412029 2 connected
7b8708fc597998d68ef245fb08cf813fd148f016 127.0.0.1:6007@16007 master - 0 1688303414041 0 connected
642959be91e890d7553616b02e7b3103c0063457 127.0.0.1:6005@16005 slave a11bbcf3fa85f84bdb73def11cde2bab57cb2c3b 0 1688303412000 1 connected
a11bbcf3fa85f84bdb73def11cde2bab57cb2c3b 127.0.0.1:6001@16001 myself,master - 0 1688303411000 1 connected 0-5460
07a85a75c44e6c5349f4c0f5c7b67a5889c6a8ae 127.0.0.1:6003@16003 master - 0 1688303413000 3 connected 10923-16383
cc6d9112b867be5c2298ccd1d660c0dc40f55730 127.0.0.1:6004@16004 slave 07a85a75c44e6c5349f4c0f5c7b67a5889c6a8ae 0 1688303413035 3 connected
99c71944c7e065a11400eec9144fa5f024e6b180 127.0.0.1:6002@16002 master - 0 1688303415046 2 connected 5461-10922

redis-cli -p 6001 --cluster add-node 127.0.0.1:6008 127.0.0.1:6001 --cluster-slave --cluster-master-id 7b8708fc597998d68ef245fb08cf813fd148f016 #主6007的ID或redis-cli -p 6008
cluster replicate 7b8708fc597998d68ef245fb08cf813fd148f016 #主6007的ID

 

 

3.新加入的主节点是没有槽数的,只有初始化集群的时候,才会根据主的数据分配好,如新增的主节点,需要手动分配

redis-cli -p 6007 --cluster reshard 127.0.0.1:6001 --cluster-from a11bbcf3fa85f84bdb73def11cde2bab57cb2c3b --cluster-to 7b8708fc597998d68ef245fb08cf813fd148f016 --cluster-slots 1000 --cluster-yes
#--cluster-from 6001的ID --cluster-to 6007的ID //从6001分hash槽给6007或redis-cli -p 6007 --cluster reshard 127.0.0.1:6001
How many slots do you want to move (from 1 to 16384)? 1000                    #指定转移槽的数量
What is the receiving node ID? 7b8708fc597998d68ef245fb08cf813fd148f016       #指定接收hash槽的主节点node ID(分hash槽给6007)
Please enter all the source node IDs.
Type 'all' to use all the nodes as source nodes for the hash slots. #all:所有节点都给1000个hash槽
Type 'done' once you entered all the source nodes IDs. #done:输入IDs,指定哪几个节点给1000个hash槽,输入end结束
Source node #1: a11bbcf3fa85f84bdb73def11cde2bab57cb2c3b      #指定分配hash槽主节点node ID(从6001分hash槽)
Source node #2: done                                          #输入完毕,开始转移

 

 

4.查看集群状态

​cluster nodes 
redis-cli -p 6001 cluster nodes#查看节点hash槽 6007也被分配了hash槽
b1250c3fd1c9123bb24462446af214fb419b1d42 127.0.0.1:6006@16006 slave 99c71944c7e065a11400eec9144fa5f024e6b180 0 1688303752210 2 connected
7b8708fc597998d68ef245fb08cf813fd148f016 127.0.0.1:6007@16007 master - 0 1688303753000 7 connected 0-999
642959be91e890d7553616b02e7b3103c0063457 127.0.0.1:6005@16005 slave a11bbcf3fa85f84bdb73def11cde2bab57cb2c3b 0 1688303753216 1 connected
a11bbcf3fa85f84bdb73def11cde2bab57cb2c3b 127.0.0.1:6001@16001 myself,master - 0 1688303751000 1 connected 1000-5460
07a85a75c44e6c5349f4c0f5c7b67a5889c6a8ae 127.0.0.1:6003@16003 master - 0 1688303751201 3 connected 10923-16383
dd31d6c40b5983a08a0f2f5aadfc93990abbce69 127.0.0.1:6008@16008 slave 7b8708fc597998d68ef245fb08cf813fd148f016 0 1688303752000 7 connected
cc6d9112b867be5c2298ccd1d660c0dc40f55730 127.0.0.1:6004@16004 slave 07a85a75c44e6c5349f4c0f5c7b67a5889c6a8ae 0 1688303752000 3 connected
99c71944c7e065a11400eec9144fa5f024e6b180 127.0.0.1:6002@16002 master - 0 1688303754222 2 connected 5461-10922

故障排查 waiting for the cluster to join

在生产环境中由于只会开放部分端口,若没有开启16379集群总线端口(集群中所有节点都需要打开),会出现这种错误

 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/5048.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【深度学习推荐系统 工程篇】二、从TF-Serving看生产环境的模型推理服务

前言 模型训练完成后,到在线部署是其所必须要做的一步,伴随模型结构复杂/算力增加,打造低延时/低资源占用的模型预测服务是模型上线的关键; tensorflow 很早就开源了tf-serving(代码连接:https://github.…

1.1.1 Qt信号槽之connect与disconnect介绍

关于Qt信号槽中connect与disconnect介绍 首先我们要知道,如果想要使用Qt中的信号槽机制, 那么必须继承QObject类,因为QObject类中包含了信号槽的一系列操作,今天我们来讲解的是信号与槽怎么建立连接以及断开连接。 一、connect …

JSP原理以及基本语法

1、JSP原理 什么是JSP? Java Server Pages:Java服务器页面,和Servlet一样是动态Web技术! 和HTML的区别? HTML是静态页面。在JSP页面中可以嵌入Java代码,为用户提供动态的数据。 JSP 和 Servlet 的关系…

前后端分离,通用分页js处理模板

功能 **可实现一个页面多个ajax无刷新分页列表** **可解决页面数量非常多的问题** 效果&#xff1a; 截图&#xff1a; 步骤&#xff1a; 第一步&#xff1a;创建一个index.html引入 <script src"./jquery-3.7.0.js"></script><link rel"st…

华为云GaussDB,能否成为数据库国产化替代的“更优选择”?

没有一个行业比数据库更需要长期主义&#xff0c;而在践行长期主义的道路上&#xff0c;国内数据库厂商中华为是不可忽视的存在。 近日&#xff0c;Gartner Peer Insights《Voice of the Customer for Cloud Database Management Systems&#xff0c;2023》报告发布&#xff0…

JMeter HTTP请求的详细指南,还不知道的快来看

目录 JMeter HTTP请求简介 什么是JMeter HTTP请求&#xff1f; 如何使用JMeter的HTTP请求&#xff1f; JMeter HTTP请求配置 创建JMeter HTTP请求 JMeter HTTP请求实例 结论 JMeter HTTP请求简介 在JMeter中&#xff0c;服务器名称和它的路径对于检查请求是否到达了正确…

10W+前端面试题面试资料八股文

点击下方链接获取全部内容文档题目及其答案: 10W前端面试题&面试资料&八股文题目及其答案 https://m.tb.cn/h.5a7v237?tkQeVPdsoKwr4 CZ3457 部分题目如下&#xff1a; 1. call丶apply丶bind区别及源码实现&#xff08;手写&#xff09; 不同点&#xff1a; call…

(二)线程的六种状态及上下文切换

&#xff08;二&#xff09;线程的六种状态及上下文切换 2.1 操作系统中线程的状态及切换2.2 Java 中线程的六种状态01、NEW&#xff08;线程尚未启动&#xff09;02、RUNNABLE&#xff08;运行中&#xff09;03、BLOCKED&#xff08;阻塞状态&#xff09;04、WAITING&#xff…

Linux--共同访问的公共目录不允许a用户删除b用户目录或文件:粘滞位 -t

情景&#xff1a; ①当多个用户共享同一个目录&#xff0c;需要在该目录下&#xff0c;进行读写、创建文件 ②但是自己只能删除自己的&#xff0c;而不能删除别人的&#xff08;w:可以互删的&#xff0c;但是不满足条件&#xff09; 语法&#xff1a; chmod t 目录名 注意…

Java(六):Eureka项目搭建、数据请求

Eureka项目搭建、数据请求 Eureka简介Eureka项目创建1、新建Maven项目2、只保留Maven项目的依赖文件3、创建子模块&#xff08;Eureka服务模块&#xff09;4、修改pom.xml5、创建并修改配置文件6、添加Eureka注解7、运行8、创建其他服务9、修改pom.xml10、创建并修改配置文件11…

Docker-compose的使用

目录 Docker-compose 简介 docker-compose的安装 docker-compose.yaml文件说明 compose的常用命令 总结 Docker-compose 简介 Docker-compose 是用于定义和运行多容器的 Docker 应用程序的工具。可以使用YAML文件来配置应用程序的服务。&#xff08;通俗讲是可以通过yml文…

【Spring Cloud系列】- Eureka使用详解

【Spring Cloud系列】- Eureka使用详解 文章目录 【Spring Cloud系列】- Eureka使用详解一、概述二、Eureka简介三、Eureka结构与作用Eureka结构图Eureka采用CS&#xff08;Client/Server,客户端/服务器&#xff09;架构&#xff0c;它包括以下两大组件 四、Eureka集群及与应用…