字典结构
Redis中的字典由dict.h/dict结构表示:
typedef struct dict (
//类型特定函数
dictType *type;
//私有数据
void "privdata;
//哈希表
dictht ht[2];
//rehash索引
//当rehash不在进行时,值为-1
in trehashidx;
} dict;
Redis字典所使用的哈希表由dict.h/dictht 结构定义:
typedef struct dictht {
//哈希表数组
dictEntry **table;
// 哈希表大小
unsigned long size;
//哈希表大小掩码,用于计算索引值,hashmap也是用 (n-1) & hash 计算索引值
//总是等于size-1
unsigned long sizemask;
//该哈希表已有节点的数量
unsigned long used;
} dictht;
哈希表节点使用 dictEntry 结构表示,每个 dictEntry 结构都保存着一个键值对:
typedef struct dictEntry {
//键
void *key;
//值
union{
void *val;
uint64 tu64;
int64 ts64;
}v;
//指向下个哈希表节点,形成链表
struct dictEntry *next;
} dictEntry;
Hash算法
当要将一个新的键值对添加到字典里面时,程序需要先根据键值对的键计算出哈希值和索引值,然后再根据索引值,将包含新键值对的哈希表节点放到哈希表数组的指定索引上面。
Redis计算哈希值和索引值的方法如下:
#使用字典设置的哈希函数,计算键key的哈希值
hash:dict->type->hashFunction(key);
#使用哈希表的sizemask属性和哈希值,计算出索引值
#根据情况不同,ht[x]可以是ht[0]或者ht[1]
index = hash & dict->ht[x].sizemask;
当字典被用作数据库的底层实现,或者哈希键的底层实现时,Redis使用MurmurHash2算法来计算键的哈希值。
MurmurHash算法最初由AustinAppleby于2008年发明,这种算法的优点在于,即使输人的键是有规律的,算法仍能给出一个很好的随机分布性,并且算法的计算速度也非常快。MurmurHash 算法目前的最新版本为 MurmurHash3,而Redis 使用的是 MurmurHash2,关于 MurmurHash 算法的更多信息可以参考该算法的主页:http://code.google.com/p/smhasher/。
解决冲突
当有两个或以上数量的键被分配到了哈希表数组的同一个索引上面时,我们称这些键发生了冲突(collision)。
Redis的哈希表使用链地址法(separate chaining)来解决键冲突,每个哈希表节点都有一个next指针,多个哈希表节点可以用next指针构成一个单向链表,被分配到同一个索引上的多个节点可以用这个单向链表连接起来,这就解决了键冲突的问题。
rehash
随着操作的不断执行,哈希表保存的键值对会逐渐地增多或者减少,为了让哈希表的负载因子(load factor)维持在一个合理的范围之内,当哈希表保存的键值对数量太多或者太少时,程序需要对哈希表的大小进行相应的扩展或者收缩。
拓展和收缩的时机(负载因子):
当以下条件中的任意一个被满足时,程序会自动开始对哈希表执行扩展操作:
服务器目前没有在执行BGSAVE命令或者BGREWRITEAOF命令,并且哈希表的负载因子大于等于1。
服务器目前正在执行BGSAVE命令或者BGREWRITEAOF命令,并且哈希表的负载因子大于等于5。
其中哈希表的负载因子可以通过公式计算得出:
#负载因子=哈希表已保存节点数量/哈希表大小
load factor=ht[0].used /ht[0].size
例如,对于一个大小为4,包含4个键值对的哈希表来说,这个哈希表的负载因子为:
load factor=4/4=1
又例如,对于一个大小为512,包含256个键值对的哈希表来说,这个哈希表的负载因子为:
load factor=256/512=0.5
根据BGSAVE命令或BGREWRITEAOF命令是否正在执行,服务器执行扩展操作所需的负载因子并不相同,这是因为在执行BGSAVE命令或BGREWRITEAOF命令的过程中,Redis需要创建当前服务器进程的子进程,而大多数操作系统都采用写时复制(copy-on-write)技术来优化子进程的使用效率,所以在子进程存在期间,服务器会提高执行扩展操作所需的负载因子,从而尽可能地避免在子进程存在期间进行哈希表扩展操作,这可以避免不必要的内存写人操作,最大限度地节约内存。
另一方面,当哈希表的负载因子小于0.1时,程序自动开始对哈希表执行收缩操作。
拓展和收缩基本步骤
扩展和收缩哈希表的工作可以通过执行rehash(重新散列)操作来完成,Redis对字典的哈希表执行 rehash 的步骤如下:
为字典的 ht[1]哈希表分配空间,这个哈希表的空间大小取决于要执行的操作,以及ht[0]当前包含的键值对数量(也即是ht[0].used属性的值):
如果执行的是扩展操作,那么ht[1]的大小为 第一个大于等于 ht[0].used*2的2n(2的n次方幂)。
如果执行的是收缩操作,那么 ht[1]的大小为 第一个大于等于 ht[0].used 的 2n(2的n次方幂)。
将保存在 ht[0]中的所有键值对 rehash 到ht[1]上面: rehash指的是重新计算键的哈希值和索引值,然后将键值对放置到ht[1]哈希表的指定位置上。
当ht[0]包含的所有键值对都迁移到了ht[1]之后(ht[0]变为空表),释放ht[0],将ht[1]设置为ht[0],并在ht[1]新创建一个空白哈希表,为下一次 rehash 做准备。
渐进式 rehash
上一节说过,扩展或收缩哈希表需要将ht[0]里面的所有键值对rehash到ht[1]里面,但是,这个rehash动作并不是一次性、集中式地完成的,而是分多次、渐进式地完成的。
这样做的原因在于,如果ht[0]里只保存着四个键值对,那么服务器可以在瞬间就将这些键值对全部rehash 到ht[1]; 但是,如果哈希表里保存的键值对数量不是四个,而是四百万、四千万甚至四亿个键值对,那么要一次性将这些键值对全部rehash到ht[11的话庞大的计算量可能会导致服务器在一段时间内停止服务。
因此,为了避免rehash对服务器性能造成影响,服务器不是一次性将ht[0]里面的所有键值对全部rehash 到 ht[1],而是分多次、渐进式地将ht[0]里面的键值对慢慢地rehash到 ht[1]。
以下是哈希表渐进式rehash的详细步骤:
为ht[1]分配空间,让字典同时持有ht[0]和ht[1]两个哈希表。
在字典中维持一个索引计数器变量 rehashidx,并将它的值设置为0,表示rehash工作正式开始。
在rehash进行期间,每次对字典执行添加、删除、查找或者更新操作时,程序除了执行指定的操作以外,还会顺带将ht[0]哈希表在rehashidx 索引上的所有键值对 rehash 到 ht[1],当rehash工作完成之后,程序将 rehashidx 属性的值加1。
随着字典操作的不断执行,最终在某个时间点上,ht[0]的所有键值对都会被rehash 至 ht[1],这时程序将rehashidx属性的值设为 -1,表示rehash 操作已完成。
渐进式rehash的好处在于它采取分而治之的方式,将rehash键值对所需的计算工作均摊到对字典的每个添加、删除、查找和更新操作上,从而避免了集中式rehash 而带来的庞大计算量。
渐进式 rehash 期间的哈希表操作
读操作:Rehash状态时,先在
ht[0]
查找,如果未找到,则在ht[1]
查找。写操作:直接写入
ht[1]
(无论是否在 Rehash)。删除操作:同时在
ht[0]
和ht[1]
中删除。更新操作:Rehash状态时,首先尝试在旧表中查找目标键。如果找到,直接在旧表中更新该键的值。如果旧表中未找到键,则在新表中查找并更新。
这一措施保证了ht[0]包含的键值对数量会只减不增,并随着rehash操作的执行而最终变成空表。
感谢
《Redis设计与实现》 黄健宏 著