哈希桶(闭散列开散列)模拟实现

发布于:2022-12-20 ⋅ 阅读:(305) ⋅ 点赞:(0)

1.哈希概念

顺序结构以及平衡树中,元素关键码与其存储位置之间没有对应的关系,因此在查找一个元素时,必须要经过关键码的多次比较。顺序查找时间复杂度为O(N),平衡树中为树的高度,即O( ),搜索的效率取决于搜索过程中元素的比较次数。
理想的搜索方法:可以不经过任何比较,一次直接从表中得到要搜索的元素。 如果构造一种存储结构,通过某种函数(hashFunc)使元素的存储位置与它的关键码之间能够建立一一映射的关系,那么在查找时通过该函数可以很快找到该元素。

2…直接建立映射关系的问题

1.数据范围分布很广,不集中
这个就要用到除留余数法
设散列表中允许的地址数为m,取一个不大于m,但最接近或者等于m的质数p作为除数,按照哈希函数:Hash(key) = key% p(p<=m),将关键码转换成哈希地址

2.我们要插入的数据key可能不是整数,可能是字符串,也可能是自定义类型

这个可以用仿函数来解决,建立不同的比较方式

3.哈希冲突

这个就是上面除留余数法造成的后遗症了
不同关键字通过相同哈希哈数计算出相同的哈希地址,该种现象称为哈希冲突或哈希碰撞

而为了解决这个问题,给了二种方式

1.闭散列

闭散列:也叫开放定址法,当发生哈希冲突时,如果哈希表未被装满,说明在哈希表中必然还有空位置,那么可以把key存放到冲突位置中的“下一个” 空位置中去,它这个又分了线性探测和二次探测

在这里插入图片描述
公式:hash(key)% n + i i从0开始增长
但是有个问题,比如要插入30有没有映射1这个的位置已经被人占了,为什么因为公式是key要%数组的大小n+i,那么就会我占你的,你占他的,形成拥堵
二次探测
公式 hash(key)% n + i ^ 2 因为是二次所以i = 1,这种算法,跳跃的距离比较远,没那么容易拥堵
在这里插入图片描述
但是上面的查找有问题,比如查找
在这里插入图片描述
这样子看起来没问题,但是如果我们这里先删除10在找60呢?
因为找到空就停止,10后面的数都没看就直接是找到空停止了,而这个就要加个状态值来解决

2.开散式

开散列法又叫链地址法(开链法),首先对关键码集合用散列函数计算散列地址,具有相同地址的关键码归于同一子集合,每一个子集合称为一个桶,各个桶中的元素通过一个单链表链接起来,各链表的头结点存储在哈希表中

4.哈希闭散列实现模拟

1.insert函数

这个insert是没写完的,首先上面了解到第一次探测的公式key的值%上数组大小+i,但是我们下面的%为什么不%capacity,因为opeartor[ ]有检测,超过size位置的会报错,所以不是能%capacity
而至于枚举这个状态,也是因为上面讲过的,删除了一个数在查找的问题,下面代码插入代码其实没写完,因为没有考虑扩容问题

#pragma once
#include<vector>


enum State
{
	EMPTY,
	EXITS,
	DELETE
};

template<class K, class V>
struct HashData
{
	pair<K, V> _kv;
	State _state = EMPTY;

};

template<class K,class V>
class HashTable
{
	typedef HashData<K, V> Data;
public:
	bool Insert(const pair<K, V>& kv)
	{
		size_t starti = kv.first;
		starti %= _tables.size();//不用capacity的原因是,operator[]有越界检测,超过size位置的会保错

		size_t hashi = starti;
		size_t i = 1;

		//线性探测或二次探测,确定插入位置
		while (_tables[hashi]._state == EXITS)
		{
			hashi = hashi + i;
			++i;
			hashi %= _tables.size();
		}
		//插入
		_tables[hashi]._kv = kv;
		_tables[hashi]._state = EXITS;
		_n++;
		return true;
	}

private:
	vector<Data> _tables;
	size_t _n = 0;//存储关键字个数
};

这里我们就要考虑扩容的问题了关于这个扩容问题,扩容提出了一个负载因子的概念,意思是不要满了扩,也不要一开始扩,那么什么时候扩呢?
a = 表中以填入的个数 / 表的长度
a的负载因子应控制在0.7到0.8之间,一旦超过这个数产生冲突的可能性会更高,但是负载因子越小能容纳的个数也少,所以就把负载定成了0.7到0.8之间

	typedef HashData<K, V> Data;
public:
	bool Insert(const pair<K, V>& kv)
	{
		// 负载因子到0.7及以上,就扩容
		if (_tables.size() == 0 || _n * 10 / _tables.size() >= 7)//如果size == 0 会出现除0错误,所以要单独处理
		{
			size_t newSize = _tables.size() == 0 ? 10 : _tables.size() * 2;

			//扩容过后,需要重新映射
			HashTable<K,V> newHT;
			newHT._tables.resize(newSize);
			//遍历旧表,插入如newHT
			for (auto& e : _tables)
			{
				if (e._state == EXITS)
				{
					newHT.Insert(e._kv);
				}
			}
			newHT._tables.swap(_tables);
		}


		size_t starti = kv.first;
		starti %= _tables.size();//不用capacity的原因是,operator[]有越界检测,超过size位置的会保错

		size_t hashi = starti;
		size_t i = 1;

		//线性探测或二次探测,确定插入位置
		while (_tables[hashi]._state == EXITS)
		{
			hashi = starti + i;
			++i;
			hashi %= _tables.size();
		}
		//插入
		_tables[hashi]._kv = kv;
		_tables[hashi]._state = EXITS;
		_n++;
		return true;
	}

上面的插入其实还有一个问题,数据冗余没处理,相同的值没有区别,可能会因为插入相同的值而扩容,解决办法也简单,写个find函数,找到了就return false
在这里插入图片描述

2.find函数实现

为什么返回用Data*返回 不用引用呢?
因为找不到,就处理不了,引用返回空指针,虽然也有办法解决,就是不返回空指针,返回异常

	Data* Find(const K& key)
	{
		if (_tables.size() == 0)
		{
			return nullptr;
		}

		size_t starti = key;
		starti %= _tables.size();

		size_t hashi = starti;
		size_t i = 1;
		while (_tables[hashi]._state != EMPTY)
		{
			if (_tables[hashi]._state != DELETE && _tables[hashi]._kv.first == key)
			{
				return &_tables[hashi];
			}

			hashi = starti + i;
			++i;
			hashi %= _tables.size();
		}

		return nullptr;
	}

3.Erase函数实现

这种是伪删除法,就像不是有种行业是干数据恢复的吗?就是误删除资料,然后把他找回来
和我们这个差不多的情况,之前的数据不被覆盖就能找回之前的数据

bool Erase(const K& key)
		{
			Data* ret = Find(key);
			if (ret)
			{
				ret->_state = DELETE;
				--_n;
				return true;
			}
			else
			{
				return false;
			}
		}

4.数组类型是string的类型的使用

我们把插入删除查找都实现了,那么下面代码按正常的哈希来讲是可以的

void TestHT2()
{
	string arr[] = { "苹果", "西瓜", "苹果", "西瓜", "苹果", "苹果", "西瓜", "苹果", "香蕉", "苹果", "香蕉" };

	HashTable<string, int> countHT;

	for (auto& str : arr)
	{
		auto ret = countHT.Find(str);
		if (ret)
		{
			ret->_kv.second++;
		}
		else
		{
			countHT.Insert(make_pair(str, 1));
		}
	}
}

但是看到这里的报错,这里的报错就是strring不能强转成size_t,这里想要解决就要用仿函数了,在传过去的参数多加一个仿函数
在这里插入图片描述
写一个默认的和一个专门针对string的仿函数
strring的转换,可以利用ascii码相加一起做比较,不过有人做了实验通过乘除或者加减一些数可以加快效率,所以我这里就选择了成131,因为冲突问题

template<class K>
struct DefaultHash
{
	size_t operator()(const K& key)
	{
		return (size_t)key;
	}
};


template<>
struct DefaultHash<string>
{
	size_t operator()(const string& key)
	{
		size_t hash = 0;
		for (auto ch : key)
		{
			hash = hash * 131 + ch;
		}

		return hash;
	}
};

这里面的意思就是,如果你调用的是string的,那个它就会特化sting的转换方式
在这里插入图片描述
当然,如果你是自定义结构体的话,比如日期内这些,那么你使用这个,就要自己实现一个仿函数了,毕竟闭散式的哈希是不支持,日期内之类的比较,而日期内的转化, 你可以年月日相加,在分别乘以一定的数,这样来转换一个数,这样可以减少冲突的概率
运行结果
在这里插入图片描述

5.闭散列全部代码

hashing全部代码
下面代码是有测试案例的,就是测试每个函数的用例
对了上面代码的构造和析构和拷贝函数都不需要写,因为默认的拷贝构造就用了,因为它们都是内置类型,而拷贝函数,自定义类型会调用自定义类型的拷贝,而我们的是vector拷贝,所以没有问题

#pragma once
#include<vector>


enum State
{
	EMPTY,
	EXITS,
	DELETE
};

template<class K, class V>
struct HashData
{
	pair<K, V> _kv;
	State _state = EMPTY;

};

template<class K>
struct DefaultHash
{
	size_t operator()(const K& key)
	{
		return (size_t)key;
	}
};


template<>
struct DefaultHash<string>
{
	size_t operator()(const string& key)
	{
		size_t hash = 0;
		for (auto ch : key)
		{
			hash = hash * 131 + ch;
		}

		return hash;
	}
};



template<class K,class V,class HashFunc = DefaultHash<K>>
class HashTable
{
	typedef HashData<K, V> Data;
public:
	bool Insert(const pair<K, V>& kv)
	{
		if (Find(kv.first))
		{
			return false;
		}

		// 负载因子到0.7及以上,就扩容
		if (_tables.size() == 0 || _n * 10 / _tables.size() >= 7)//如果size == 0 会出现除0错误,所以要单独处理
		{
			size_t newSize = _tables.size() == 0 ? 10 : _tables.size() * 2;

			//扩容过后,需要重新映射
			HashTable<K,V, HashFunc> newHT;
			newHT._tables.resize(newSize);
			//遍历旧表,插入如newHT
			for (auto& e : _tables)
			{
				if (e._state == EXITS)
				{
					newHT.Insert(e._kv);
				}
			}
			newHT._tables.swap(_tables);
		}

		HashFunc hf;
		size_t starti = hf(kv.first);
		starti %= _tables.size();//不用capacity的原因是,operator[]有越界检测,超过size位置的会保错

		size_t hashi = starti;
		size_t i = 1;

		//线性探测或二次探测,确定插入位置
		while (_tables[hashi]._state == EXITS)
		{
			hashi = starti + i;
			++i;
			hashi %= _tables.size();
		}
		//插入
		_tables[hashi]._kv = kv;
		_tables[hashi]._state = EXITS;
		_n++;
		return true;
	}

	Data* Find(const K& key)
	{
		if (_tables.size() == 0)
		{
			return nullptr;
		}
		HashFunc hf;
		size_t starti = hf(key);
		starti %= _tables.size();

		size_t hashi = starti;
		size_t i = 1;
		while (_tables[hashi]._state != EMPTY)
		{
			if (_tables[hashi]._state != DELETE && _tables[hashi]._kv.first == key)
			{
				return &_tables[hashi];
			}

			hashi = starti + i;
			++i;
			hashi %= _tables.size();
		}

		return nullptr;
	}

	bool Erase(const K& key)
	{
		Data* ret = Find(key);
		if (ret)
		{
			ret->_state = DELETE;
			--_n;
			return true;
		}
		else
		{
			return false;
		}
	}

private:
	vector<Data> _tables;
	size_t _n = 0;//存储关键字个数
};

void TestHT1()
{
	int a[] = { 20, 5, 8, 99999, 10, 30, 50 };
	//HashTable<int, int, DefaultHash<int>> ht;
	HashTable<int, int> ht;

	for (auto e : a)
	{
		ht.Insert(make_pair(e, e));
	}

	 测试扩容
	//ht.Insert(make_pair(15, 15));
	//ht.Insert(make_pair(5, 5));
	//ht.Insert(make_pair(15, 15));

	if (ht.Find(50))
	{
		cout << "找到了50" << endl;
	}

	if (ht.Find(10))
	{
		cout << "找到了10" << endl;
	}

	ht.Erase(10);
	ht.Erase(10);

	if (ht.Find(50))
	{
		cout << "找到了50" << endl;
	}

	if (ht.Find(10))
	{
		cout << "找到了10" << endl;
	}
}

void TestHT2()
{
	string arr[] = { "苹果", "西瓜", "苹果", "西瓜", "苹果", "苹果", "西瓜", "苹果", "香蕉", "苹果", "香蕉" };

	HashTable<string, int> countHT;

	for (auto& str : arr)
	{
		auto ret = countHT.Find(str);
		if (ret)
		{
			ret->_kv.second++;
		}
		else
		{
			countHT.Insert(make_pair(str, 1));
		}
	}
}

5.哈希开散列实现模拟

1.Insert实现模拟

插入节点,按下面图为例
1.插入的数组位置已经有节点了
如果数组6的位置有节点16了,那么就先让新插入的节点newnode->next指向旧节点16,再把newnode的地址给数组6的位置,这样子就完成了头插,至于为什么先指向旧节点16,是因为如果不先指向,而是把newnode的地址给数组6的位置,那么旧节点的值会被覆盖
2.插入的数组位置没有有节点了
和上面一样的,先把newnode->next指向null,再让newnode的地址给数组4的位置

在这里插入图片描述
为什么下面要写析构呢?
虽然vector有析构函数,但是他里面的节点没有,需要我们自己析构

namespace Bucket
{
	template<class K, class V>
	struct HashNode
	{
		pair<K, V> _kv;
		HashNode<K, V>* _next;

		HashNode(const pair<K, V>& kv)
			:_kv(kv)
			, _next(nullptr)
		{}
	};

	template<class K, class V>
	class HashTable
	{
		typedef HashNode<K, V> Node;
	public:
       ~HashTable()
		{
			for (size_t i = 0; i < _tables.size(); ++i)
			{
				Node* cur = _tables[i];
				while (cur)
				{
					Node* next = cur->_next;
					delete cur;
					cur = next;
				}

				_tables[i] = nullptr;
			}
		}
		bool Insert(const pair<K, V>& kv)
		{
			if (Find(kv.first))
			{
				return false;
			}

             //负载因子是等于1扩容
			if (_tables.size() == _n)
			{
				size_t newSize = _tables.size() == 0 ? 10 : _tables.size() * 2;
				vector<Node*> newTable;
				newTable.resize(newSize, nullptr);
				for (size_t i = 0; i < _tables.size(); ++i)
				{
					Node* cur = _tables[i];
					while (cur)
					{
						Node* next = cur->_next;

						size_t hashi = cur->_kv.first % newSize;
						cur->_next = newTable[hashi];
						newTable[hashi] = cur;

						cur = next;
					}

					_tables[i] = nullptr;
				}

				newTable.swap(_tables);
			}

			size_t hashi = kv.first;
			hashi %= _tables.size();

			//头插到对应的桶中
			Node* newnode = new Node(kv);
			newnode->_next = _tables[hashi];
			_tables[hashi] = newnode;

			++_n;

			return true;
		}

	private:
		// 指针数组
		vector<Node*> _tables;
		size_t _n = 0;
	};
}

2.find实现模拟

		Node* Find(const K& key)
		{

			if (_tables.size() == 0)
			{
				return nullptr;
			}

			size_t hashi = key;
			hashi %= _tables.size();
			Node* cur = _tables[hashi];
			while (cur)
			{
				if (cur->_kv.first == key)
				{
					return cur;
				}

				cur = cur->_next;
			}

			return nullptr;
		}

3.erase实现模拟

如果cur的值等于key,并且prev等于空那么就是头删了,如果不是那就让prev的next指向cur的next,再释放cur

		bool Erase(const K& key)
		{
			if (_tables.size() == 0)
			{
				return false;
			}

			size_t hashi = key;
			hashi %= _tables.size();

			Node* prev = nullptr;
			Node* cur = _tables[hashi];

			while (cur)
			{
				if (cur->_kv.first == key)
				{
					if (prev == nullptr)
					{
						_tables[hashi] = cur->_next;
					}
					else
					{
						prev->_next = cur->_next;
					}
					delete cur;

					return true;
				}

				prev = cur;
				cur = cur->_next;
			}
			return false;
		}

4.开散式实装string之类的比较,加开散式全部代码有测试案例

namespace Bucket
{
	template<class K>
	struct DefaultHash
	{
		size_t operator()(const K& key)
		{
			return (size_t)key;
		}
	};


	template<>
	struct DefaultHash<string>
	{
		size_t operator()(const string& key)
		{
			// BKDR
			size_t hash = 0;
			for (auto ch : key)
			{
				hash = hash * 131 + ch;
			}

			return hash;
		}
	};

	template<class K, class V>
	struct HashNode
	{
		pair<K, V> _kv;
		HashNode<K, V>* _next;

		HashNode(const pair<K, V>& kv)
			:_kv(kv)
			, _next(nullptr)
		{}
	};

	template<class K, class V,class HashFunc = DefaultHash<K>>
	class HashTable
	{
		typedef HashNode<K, V> Node;
	public:
		~HashTable()
		{
			for (size_t i = 0; i < _tables.size(); ++i)
			{
				Node* cur = _tables[i];
				while (cur)
				{
					Node* next = cur->_next;
					delete cur;
					cur = next;
				}

				_tables[i] = nullptr;
			}
		}

		bool Insert(const pair<K, V>& kv)
		{
			if (Find(kv.first))
			{
				return false;
			}

			HashFunc hf;


			//负载因子是等于1扩容
			if (_tables.size() == _n)
			{
				size_t newSize = _tables.size() == 0 ? 10 : _tables.size() * 2;
				vector<Node*> newTable;
				newTable.resize(newSize, nullptr);
				for (size_t i = 0; i < _tables.size(); ++i)
				{
					Node* cur = _tables[i];
					while (cur)
					{
						Node* next = cur->_next;

						size_t hashi = hf(cur->_kv.first) % newSize;
						cur->_next = newTable[hashi];
						newTable[hashi] = cur;

						cur = next;
					}

					_tables[i] = nullptr;
				}

				newTable.swap(_tables);
			}

			size_t hashi = hf(kv.first);
			hashi %= _tables.size();

			//头插到对应的桶中
			Node* newnode = new Node(kv);
			newnode->_next = _tables[hashi];
			_tables[hashi] = newnode;

			++_n;

			return true;
		}

		Node* Find(const K& key)
		{

			if (_tables.size() == 0)
			{
				return nullptr;
			}

			HashFunc hf;


			size_t hashi = hf(key);
			hashi %= _tables.size();
			Node* cur = _tables[hashi];
			while (cur)
			{
				if (cur->_kv.first == key)
				{
					return cur;
				}

				cur = cur->_next;
			}

			return nullptr;
		}

		bool Erase(const K& key)
		{
			if (_tables.size() == 0)
			{
				return false;
			}

			HashFunc hf;


			size_t hashi = hf(key);
			hashi %= _tables.size();

			Node* prev = nullptr;
			Node* cur = _tables[hashi];

			while (cur)
			{
				if (cur->_kv.first == key)
				{
					if (prev == nullptr)
					{
						_tables[hashi] = cur->_next;
					}
					else
					{
						prev->_next = cur->_next;
					}
					delete cur;

					return true;
				}

				prev = cur;
				cur = cur->_next;
			}
			return false;
		}

	private:
		// 指针数组
		vector<Node*> _tables;
		size_t _n = 0;
	};

	void TestHT1()
	{
		int a[] = { 20, 5, 8, 99999, 10, 30, 50 };
		//HashTable<int, int, DefaultHash<int>> ht;
		HashTable<int, int> ht;

		for (auto e : a)
		{
			ht.Insert(make_pair(e, e));
		}

		// 测试扩容
		ht.Insert(make_pair(15, 15));
		ht.Insert(make_pair(5, 5));
		ht.Insert(make_pair(15, 15));
		ht.Insert(make_pair(25, 15));
		ht.Insert(make_pair(35, 15));
		ht.Insert(make_pair(45, 15));

		ht.Erase(20);
		//ht.Erase(10);
		ht.Erase(30);
		ht.Erase(50);

		if (ht.Find(10))
		{
			cout << "找到了10" << endl;
		}
	}

	void TestHT2()
	{
		string arr[] = { "苹果", "西瓜", "苹果", "西瓜", "苹果", "苹果", "西瓜", "苹果", "香蕉", "苹果", "香蕉" };

		//HashTable<string, int, StringHash> countHT;
		HashTable<string, int> countHT;

		for (auto& str : arr)
		{
			auto ret = countHT.Find(str);
			if (ret)
			{
				ret->_kv.second++;
			}
			else
			{
				countHT.Insert(make_pair(str, 1));
			}
		}
	}
}

6.封装unordered_set和unordered_map代码

Hashtable头文件

template<class K>
struct DefaultHash
{
	size_t operator()(const K& key)
	{
		return (size_t)key;
	}
};


template<>
struct DefaultHash<string>
{
	size_t operator()(const string& key)
	{
		// BKDR
		size_t hash = 0;
		for (auto ch : key)
		{
			hash = hash * 131 + ch;
		}

		return hash;
	}
};


namespace Bucket
{
	template<class T>
	struct HashNode
	{

		T _data;
		HashNode<T>* _next;

		HashNode(const T& data)
			:_data(data)
			, _next(nullptr)
		{}
	};

	template<class K, class T, class KeyOfT, class HashFunc>
	class HashTable;

	template<class K, class T, class KeyOfT, class HashFunc>
	class __HTIterator
	{
		typedef HashNode<T> Node;
		typedef __HTIterator<K, T, KeyOfT, HashFunc> Self;
	public:
		Node* _node;
		HashTable<K, T, KeyOfT, HashFunc>* _pht;

		__HTIterator() {}

		__HTIterator(Node* node, HashTable<K, T, KeyOfT, HashFunc>* pht)
			:_node(node)
			, _pht(pht)
		{}


		Self& operator++()
		{
			if (_node->_next)
			{
				_node = _node->_next;
			}
			else
			{
				KeyOfT kot;
				HashFunc hf;
				size_t hashi = hf(kot(_node->_data)) % _pht->_tables.size();
				++hashi;
				//找下一个不为空的桶
				for (; hashi < _pht->_tables.size(); ++hashi)
				{
					if (_pht->_tables[hashi])
					{
						_node = _pht->_tables[hashi];
						break;
					}
				}

				// 没有找到不为空的桶,用nullptr去做end标识
				if (hashi == _pht->_tables.size())
				{
					_node = nullptr;
				}
			}

			return *this;
		}

		T& operator*()
		{
			return _node->_data;
		}

		T* operator->()
		{
			return &_node->_data;
		}

		bool operator!=(const Self& s) const
		{
			return _node != s._node;
		}

		bool operator==(const Self& s) const
		{
			return _node == s._node;
		}
	};




	template<class K, class T, class KeyOfT, class HashFunc>
	class HashTable
	{
		template<class K, class T, class KeyOfT, class HashFunc>
		friend class __HTIterator;

		typedef HashNode<T> Node;
	public:
		typedef __HTIterator<K, T, KeyOfT, HashFunc> iterator;

		iterator begin()
		{
			for (size_t i = 0; i < _tables.size(); ++i)
			{
				Node* cur = _tables[i];
				if (cur)
				{
					return iterator(cur, this);
				}
			}

			return end();
		}

		iterator end()
		{
			return iterator(nullptr, this);
		}


		~HashTable()
		{
			for (size_t i = 0; i < _tables.size(); ++i)
			{
				Node* cur = _tables[i];
				while (cur)
				{
					Node* next = cur->_next;
					delete cur;
					cur = next;
				}

				_tables[i] = nullptr;
			}
		}


		size_t GetNextPrime(size_t prime)
		{
			const int PRIMECOUNT = 28;
			static const size_t primeList[PRIMECOUNT] =
			{
				53ul, 97ul, 193ul, 389ul, 769ul,
				1543ul, 3079ul, 6151ul, 12289ul, 24593ul,
				49157ul, 98317ul, 196613ul, 393241ul, 786433ul,
				1572869ul, 3145739ul, 6291469ul, 12582917ul, 25165843ul,
				50331653ul, 100663319ul, 201326611ul, 402653189ul, 805306457ul,
				1610612741ul, 3221225473ul, 4294967291ul
			};

			// 获取比prime大那一个素数
			size_t i = 0;
			for (; i < PRIMECOUNT; ++i)
			{
				if (primeList[i] > prime)
					return primeList[i];
			}

			return primeList[i];
		}

		pair<iterator, bool> Insert(const T& data)
		{
			HashFunc hf;
			KeyOfT kot;

			iterator pos = Find(kot(data));
			if (pos != end())
			{
				return make_pair(pos, false);
			}

			// 负载因子 == 1 扩容
			if (_tables.size() == _n)
			{
				//size_t newSize = _tables.size() == 0 ? 11 : _tables.size() * 2;
				size_t newSize = GetNextPrime(_tables.size());
				if (newSize != _tables.size())
				{
					vector<Node*> newTable;
					newTable.resize(newSize, nullptr);
					for (size_t i = 0; i < _tables.size(); ++i)
					{
						Node* cur = _tables[i];
						while (cur)
						{
							Node* next = cur->_next;

							size_t hashi = hf(kot(cur->_data)) % newSize;
							cur->_next = newTable[hashi];
							newTable[hashi] = cur;

							cur = next;
						}

						_tables[i] = nullptr;
					}

					newTable.swap(_tables);
				}
			}

			size_t hashi = hf(kot(data));
			hashi %= _tables.size();

			// 头插到对应的桶即可
			Node* newnode = new Node(data);
			newnode->_next = _tables[hashi];
			_tables[hashi] = newnode;

			++_n;

			return make_pair(iterator(newnode, this), false);;
		}


		iterator Find(const K& key)
		{
			if (_tables.size() == 0)
			{
				return iterator(nullptr, this);
			}

			KeyOfT kot;
			HashFunc hf;
			size_t hashi = hf(key);
			//size_t hashi = HashFunc()(key);

			hashi %= _tables.size();
			Node* cur = _tables[hashi];
			while (cur)
			{
				if (kot(cur->_data) == key)
				{
					return iterator(cur, this);
				}

				cur = cur->_next;
			}

			return iterator(nullptr, this);
		}

		bool Erase(const K& key)
		{
			if (_tables.size() == 0)
			{
				return false;
			}
			KeyOfT kot;
			HashFunc hf;


			size_t hashi = hf(key);
			hashi %= _tables.size();

			Node* prev = nullptr;
			Node* cur = _tables[hashi];

			while (cur)
			{
				if ( kot(cur->_data) == key)
				{
					if (prev == nullptr)
					{
						_tables[hashi] = cur->_next;
					}
					else
					{
						prev->_next = cur->_next;
					}
					delete cur;

					return true;
				}

				prev = cur;
				cur = cur->_next;
			}
			return false;
		}

	private:
		// 指针数组
		vector<Node*> _tables;
		size_t _n = 0;
	};
}

unorderedset代码

#include"HashTable.h"

namespace li
{


	template<class K, class HashFunc = DefaultHash<K>>
	class unordered_set
	{
		struct SetKeyOfT
		{
			const K& operator()(const K& key)
			{
				return key;
			}
		};
	public:
		typedef typename Bucket::HashTable<K, K, SetKeyOfT, HashFunc>::iterator iterator;

		iterator begin()
		{
			return _ht.begin();
		}

		iterator end()
		{
			return _ht.end();
		}

		pair<iterator, bool> insert(const K& key)
		{
			return _ht.Insert(key);
		}


		iterator find(const K& key)
		{
			return _ht.Find(key);
		}

		bool erase(const K& key)
		{
			return _ht.Erase(key);
		}

	private:
		Bucket::HashTable<K, K, SetKeyOfT, HashFunc> _ht;
	};

	struct Date
	{
		Date(int year = 1, int month = 1, int day = 1)
			:_year(year)
			, _month(month)
			, _day(day)
		{}

		bool operator==(const Date& d) const
		{
			return _year == d._year
				&& _month == d._month
				&& _day == d._day;
		}

		int _year;
		int _month;
		int _day;
	};

	struct DateHash
	{
		size_t operator()(const Date& d)
		{
			//return d._year + d._month + d._day;
			size_t hash = 0;
			hash += d._year;
			hash *= 131;
			hash += d._month;
			hash *= 1313;
			hash += d._day;
			cout << hash << endl;

		    return hash;
		}
	};


	void test_set()
	{
		unordered_set<int> s;
		//set<int> s;
		s.insert(2);
		s.insert(3);
		s.insert(1);
		s.insert(2);
		s.insert(5);
		s.insert(12);

		unordered_set<int>::iterator it = s.begin();
		//auto it = s.begin();
		while (it != s.end())
		{
			cout << *it << " ";
			++it;
		}
		cout << endl;


		for (auto e : s)
		{
			cout << e << " ";
		}
		cout << endl;

		unordered_set<Date, DateHash> sd;
		//sd.insert(Date(2022, 3, 4));
		//sd.insert(Date(2022, 4, 3));
		
	}
}

unordered_map代码

#pragma once

#include"HashTable.h"

namespace li
{
	template<class K, class V ,class HashFunc = DefaultHash<K>>
	class unordered_map
	{
		struct MapKeyOfT
		{
			const K& operator()(const pair<K, V>& kv)
			{
				return kv.first;
			}
		};
	public:
		typedef typename Bucket::HashTable<K, pair<K, V>, MapKeyOfT, HashFunc>::iterator iterator;
		iterator begin()
		{
			return _ht.begin();
		}

		iterator end()
		{
			return _ht.end();
		}

		pair<iterator, bool> insert(const pair<K, V>& kv)
		{
			return _ht.Insert(kv);
		}

		iterator find(const K& key)
		{
			return _ht.Find(key);
		}

		bool erase(const K& key)
		{
			return _ht.Erase(key);
		}

		V& operator[](const K& key)
		{
			pair<iterator, bool> ret = insert(make_pair(key, V()));
			return ret.first->second;
		}



	private:
		Bucket::HashTable<K, pair<K, V>, MapKeyOfT, HashFunc> _ht;
	};

	void test_map()
	{
		unordered_map<string, string> dict;
		dict.insert(make_pair("sort", "排序"));
		dict.insert(make_pair("left", "左边"));
		dict.insert(make_pair("left", "剩余"));
		dict["string"];
		dict["left"] = "剩余";
		dict["string"] = "字符串";

		unordered_map<string, string>::iterator it = dict.begin();
		while (it != dict.end())
		{
			cout << it->first << " " << it->second << endl;
			++it;
		}

		cout << endl;

		for (auto& kv : dict)
		{
			cout << kv.first << " " << kv.second << endl;
		}
	}
}
本文含有隐藏内容,请 开通VIP 后查看