redis cluster 添加 删除 重分配 节点

张映 发表于 2015-05-04

分类目录: nosql

标签:, , , ,

这篇文章是接着上一篇来的,看本文前最好先看一下上篇文章。

redis cluster配置好,并运行一段时间后,我们想添加节点,或者删除节点,该怎么办呢。

一,redis cluster命令行

//集群(cluster)
CLUSTER INFO 打印集群的信息
CLUSTER NODES 列出集群当前已知的所有节点(node),以及这些节点的相关信息。 

//节点(node)
CLUSTER MEET <ip> <port> 将 ip 和 port 所指定的节点添加到集群当中,让它成为集群的一份子。
CLUSTER FORGET <node_id> 从集群中移除 node_id 指定的节点。
CLUSTER REPLICATE <node_id> 将当前节点设置为 node_id 指定的节点的从节点。
CLUSTER SAVECONFIG 将节点的配置文件保存到硬盘里面。 

//槽(slot)
CLUSTER ADDSLOTS <slot> [slot ...] 将一个或多个槽(slot)指派(assign)给当前节点。
CLUSTER DELSLOTS <slot> [slot ...] 移除一个或多个槽对当前节点的指派。
CLUSTER FLUSHSLOTS 移除指派给当前节点的所有槽,让当前节点变成一个没有指派任何槽的节点。
CLUSTER SETSLOT <slot> NODE <node_id> 将槽 slot 指派给 node_id 指定的节点,如果槽已经指派给另一个节点,那么先让另一个节点删除该槽>,然后再进行指派。
CLUSTER SETSLOT <slot> MIGRATING <node_id> 将本节点的槽 slot 迁移到 node_id 指定的节点中。
CLUSTER SETSLOT <slot> IMPORTING <node_id> 从 node_id 指定的节点中导入槽 slot 到本节点。
CLUSTER SETSLOT <slot> STABLE 取消对槽 slot 的导入(import)或者迁移(migrate)。 

//键 (key)
CLUSTER KEYSLOT <key> 计算键 key 应该被放置在哪个槽上。
CLUSTER COUNTKEYSINSLOT <slot> 返回槽 slot 目前包含的键值对数量。
CLUSTER GETKEYSINSLOT <slot> <count> 返回 count 个 slot 槽中的键。

这些命令是集群所独有的。执行上述命令要先登录

[root@manage redis]# redis-cli -c -p 6382 -h 192.168.10.220    //登录
192.168.10.220:6382> cluster info   //查看集群情况
cluster_state:ok
cluster_slots_assigned:16384
cluster_slots_ok:16384
cluster_slots_pfail:0
cluster_slots_fail:0
cluster_known_nodes:6
cluster_size:3
cluster_current_epoch:8
cluster_my_epoch:4
cluster_stats_messages_sent:82753
cluster_stats_messages_received:82754

二,添加节点

1,新配置二个测试节点

# cd /etc/redis

//新增配置
# cp redis-6379.conf redis-6378.conf && sed -i "s/6379/6378/g" redis-6378.conf
# cp redis-6382.conf redis-6385.conf && sed -i "s/6382/6385/g" redis-6385.conf

//启动
# redis-server /etc/redis/redis-6385.conf > /var/log/redis/redis-6385.log 2>&1 &
# redis-server /etc/redis/redis-6378.conf > /var/log/redis/redis-6378.log 2>&1 &

2,添加主节点

# redis-trib.rb add-node 192.168.10.219:6378 192.168.10.219:6379

注释:

192.168.10.219:6378是新增的节点

192.168.10.219:6379集群任一个旧节点

3,添加从节点

# redis-trib.rb add-node --slave --master-id 03ccad2ba5dd1e062464bc7590400441fafb63f2 192.168.10.220:6385 192.168.10.219:6379

注释:

--slave,表示添加的是从节点

--master-id 03ccad2ba5dd1e062464bc7590400441fafb63f2,主节点的node id,在这里是前面新添加的6378的node id

192.168.10.220:6385,新节点

192.168.10.219:6379集群任一个旧节点

4,重新分配slot

# redis-trib.rb reshard 192.168.10.219:6378 //下面是主要过程

How many slots do you want to move (from 1 to 16384)? 1000 //设置slot数1000
What is the receiving node ID? 03ccad2ba5dd1e062464bc7590400441fafb63f2 //新节点node id
Please enter all the source node IDs.
 Type 'all' to use all the nodes as source nodes for the hash slots.
 Type 'done' once you entered all the source nodes IDs.
Source node #1:all //表示全部节点重新洗牌
Do you want to proceed with the proposed reshard plan (yes/no)? yes //确认重新分

新增加的主节点,是没有slots的,

M: 03ccad2ba5dd1e062464bc7590400441fafb63f2 192.168.10.219:6378
slots:0-332,5461-5794,10923-11255 (0 slots) master

主节点如果没有slots的话,存取数据就都不会被选中。

可以把分配的过程理解成打扑克牌,all表示大家重新洗牌;输入某个主节点的node id,然后在输入done的话,就好比从某个节点,抽牌。

5,查看一下,集群情况

[root@slave2 redis]# redis-trib.rb check 192.168.10.219:6379
Connecting to node 192.168.10.219:6379: OK
Connecting to node 192.168.10.220:6385: OK
Connecting to node 192.168.10.219:6378: OK
Connecting to node 192.168.10.220:6382: OK
Connecting to node 192.168.10.220:6383: OK
Connecting to node 192.168.10.219:6380: OK
Connecting to node 192.168.10.219:6381: OK
Connecting to node 192.168.10.220:6384: OK
>>> Performing Cluster Check (using node 192.168.10.219:6379)
M: 5d8ef5a7fbd72ac586bef04fa6de8a88c0671052 192.168.10.219:6379
 slots:5795-10922 (5128 slots) master
 1 additional replica(s)
S: 9c240333476469e8e2c8e80b089c48f389827265 192.168.10.220:6385
 slots: (0 slots) slave
 replicates 03ccad2ba5dd1e062464bc7590400441fafb63f2
M: 03ccad2ba5dd1e062464bc7590400441fafb63f2 192.168.10.219:6378
 slots:0-332,5461-5794,10923-11255 (1000 slots) master
 1 additional replica(s)
M: 19b042c17d2918fade18a4ad2efc75aa81fd2422 192.168.10.220:6382
 slots:333-5460 (5128 slots) master
 1 additional replica(s)
M: b2c50113db7bd685e316a16b423c9b8abc3ba0b7 192.168.10.220:6383
 slots:11256-16383 (5128 slots) master
 1 additional replica(s)
S: 6475e4c8b5e0c0ea27547ff7695d05e9af0c5ccb 192.168.10.219:6380
 slots: (0 slots) slave
 replicates 19b042c17d2918fade18a4ad2efc75aa81fd2422
S: 1ee01fe95bcfb688a50825d54248eea1e6133cdc 192.168.10.219:6381
 slots: (0 slots) slave
 replicates b2c50113db7bd685e316a16b423c9b8abc3ba0b7
S: 9a2a1d75b8eb47e05eee1198f81a9edd88db5aa1 192.168.10.220:6384
 slots: (0 slots) slave
 replicates 5d8ef5a7fbd72ac586bef04fa6de8a88c0671052
[OK] All nodes agree about slots configuration.
>>> Check for open slots...
>>> Check slots coverage...
[OK] All 16384 slots covered.

三,改变从节点的master

//查看一下6378的从节点
# redis-cli -p 6378 cluster nodes | grep slave | grep 03ccad2ba5dd1e062464bc7590400441fafb63f2

//将6385加入到新的master
# redis-cli -c -p 6385 -h 192.168.10.220
192.168.10.220:6385> cluster replicate 5d8ef5a7fbd72ac586bef04fa6de8a88c0671052  //新master的node id
OK
192.168.10.220:6385> quit

//查看新master的slave
# redis-cli -p 6379 cluster nodes | grep slave | grep 5d8ef5a7fbd72ac586bef04fa6de8a88c0671052

四,删除节点

1,删除从节点

# redis-trib.rb del-node 192.168.10.220:6385 '9c240333476469e8e2c8e80b089c48f389827265'

2,删除主节点

如果主节点有从节点,将从节点转移到其他主节点

如果主节点有slot,去掉分配的slot,然后在删除主节点

# redis-trib.rb reshard 192.168.10.219:6378 //取消分配的slot,下面是主要过程

How many slots do you want to move (from 1 to 16384)? 1000 //被删除master的所有slot数量
What is the receiving node ID? 5d8ef5a7fbd72ac586bef04fa6de8a88c0671052 //接收6378节点slot的master
Please enter all the source node IDs.
 Type 'all' to use all the nodes as source nodes for the hash slots.
 Type 'done' once you entered all the source nodes IDs.
Source node #1:03ccad2ba5dd1e062464bc7590400441fafb63f2 //被删除master的node-id
Source node #2:done 

Do you want to proceed with the proposed reshard plan (yes/no)? yes //取消slot后,reshard

新增master节点后,也进行了这一步操作,当时是分配,现在去掉。反着的。

# redis-trib.rb del-node 192.168.10.219:6378 '03ccad2ba5dd1e062464bc7590400441fafb63f2'

新的master节点被删除了,这样就回到了,就是这篇文章开头,还没有添加节点的状态

 



转载请注明
作者:海底苍鹰
地址:http://blog.51yip.com/nosql/1726.html/comment-page-1

6 条评论

  1. lu 留言

    比如现有cluster分别拥有A、B、C 三个master节点,对应的slave节点分别为A1、B1、C1,假如需要加机器为节点D、D1分别为master和slave,已经将D、D1分别加入cluster中,那redis会自动将A、B、C中部分的槽均匀迁移到D上吗?还是需要自己手动去迁移?验证了一下槽是要自己去迁移的,但是我再还没迁移之前能在节点D上插入键值(key-value),这个又是怎么回事呢?

  2. 张映 留言

    用# redis-cli -c -p 6381 -h 192.168.10.219,对集群中的任何一点进行连接,包括新增节点,然后set,试了差不多十几次,没有一次值能存到新节点,槽为0的节点。

    如果是用telnet 到新节点的话,肯定是可以的,但是这已脱离了集群。

  3. jack 留言

    一个正常运行的集群(三主三从),我测试的过程中,我想踢掉一个从节点,使用命令
    “cluster forget 从节点id”,提示成功。这个时候从节点的进程是还存在的,查看集群的状态,从节点确实不在集群中了,可是过了1分钟左右,发现集群又把这个从节点加进来了,很奇怪?

    但是我使用redis-trib.rb del-node 是可以直接踢出从节点的,这个时候从节点的进程是死的.

  4. 姣姣 留言

    “cluster forget 从节点id”,提示成功。还需要去各个机器的配置文件nodes6379.conf将这一行删了,重启redis

  5. zhm 留言

    现状:
    A: 192.168.15.44 7379\7380\7381
    B: 192.168.15.45 7379\7380\7381

    准备在C机器:192.168.15.53 添加主从节点
    主节点:192.168.85.53:7382
    从节点:192.168.85.53:7383

    添加成功,并没问题,但是查看集群状态时,发看不到新加的节点
    # redis-trib.rb check 192.168.15.44:7380
    Connecting to node 192.168.15.44:7380: OK
    Connecting to node 192.168.15.44:7379: OK
    Connecting to node 192.168.15.44:7381: OK
    Connecting to node 192.168.15.45:7380: OK
    Connecting to node 192.168.15.45:7381: OK
    Connecting to node 192.168.15.45:7379: OK

    但如果这样看,便可看到,请问这是什么原因?

    # redis-trib.rb check 192.168.15.53:7382
    Connecting to node 192.168.15.53:7382: OK
    Connecting to node 192.168.15.45:7381: OK
    Connecting to node 192.168.15.44:7380: OK
    Connecting to node 192.168.15.45:7379: OK
    Connecting to node 192.168.15.44:7381: OK
    Connecting to node 192.168.15.45:7380: OK
    Connecting to node 192.168.15.44:7379: OK

  6. 乐灬乐 留言

    非常感谢,我在添加从节点时,总是失败,用你这方法直接成功了