这几天看了几遍一致性哈希的文章,但是都没有比较完整的实现,因此试着实现了一下,这里我就不讲一致性哈希的原理了,网上很多,以一致性哈希用在负载均衡的实例来说,一致性哈希就是先把主机ip从小大到全部放到一个环内,然后客户端ip来连接的时候,把客户端ip连接到大小最接近客户端ip且大于客户端ip的主机。当然,这里的ip一般都是要先hash一下的。
看结果可知:一开始添加到9个客户端,连接到主机s1,s2,s3,s4的客户端分别有3,3,3,0个,经过删除主机s2,添加主机s5,最后9个客户端分别连接到主机s1,s2,s3,s4,s5的个数为4,0,1,2,2.这里要说明一下删除主机s2的情况,hash尾号为9995的客户端先连接到s2,再连接到s1,为什么会出现这种情况呢?因为每一个真实主机有n个虚拟主机,删除s2却打印“hash(7274050343425899995)改变到->s2-192.168.1.2”是因为删除了s2的其中一个虚拟主机,跳转到另一个虚拟主机,但还是在s2上,当然,这里是打印中间情况,以便了解,真实的环境是删除了s2后,所有他的虚拟节点都会马上被删除,虚拟节点上的连接也会重新连接到另一个主机的虚拟节点,不会存在这种中间情况。
以下给出所有的实现代码,大家共同学习:
public class Shard<Node> { // S类封装了机器节点的信息 ,如name、password、ip、port等
static private TreeMap<Long, Node> nodes; // 虚拟节点到真实节点的映射
static private TreeMap<Long,Node> treeKey; //key到真实节点的映射
static private List<Node> shards = new ArrayList<Node>(); // 真实机器节点
private final int NODE_NUM = 100; // 每个机器节点关联的虚拟节点个数
boolean flag = false;
public Shard(List<Node> shards) {
super();
this.shards = shards;
init();
}
public static void main(String[] args) {
// System.out.println(hash("w222o1d"));
// System.out.println(Long.MIN_VALUE);
// System.out.println(Long.MAX_VALUE);
Node s1 = new Node("s1", "192.168.1.1");
Node s2 = new Node("s2", "192.168.1.2");
Node s3 = new Node("s3", "192.168.1.3");
Node s4 = new Node("s4", "192.168.1.4");
Node s5 = new Node("s5","192.168.1.5");
shards.add(s1);
shards.add(s2);
shards.add(s3);
shards.add(s4);
Shard<Node> sh = new Shard<Shard.Node>(shards);
System.out.println("添加客户端,一开始有4个主机,分别为s1,s2,s3,s4,每个主机有100个虚拟主机:");
sh.keyToNode("101客户端");
sh.keyToNode("102客户端");
sh.keyToNode("103客户端");
sh.keyToNode("104客户端");
sh.keyToNode("105客户端");
sh.keyToNode("106客户端");
sh.keyToNode("107客户端");
sh.keyToNode("108客户端");
sh.keyToNode("109客户端");
sh.deleteS(s2);
sh.addS(s5);
System.out.println("最后的客户端到主机的映射为:");
printKeyTree();
}
public static void printKeyTree(){
for(Iterator<Long> it = treeKey.keySet().iterator();it.hasNext();){
Long lo = it.next();
System.out.println("hash("+lo+")连接到主机->"+treeKey.get(lo));
}
}
private void init() { // 初始化一致性hash环
nodes = new TreeMap<Long, Node>();
treeKey = new TreeMap<Long, Node>();
for (int i = 0; i != shards.size(); ++i) { // 每个真实机器节点都需要关联虚拟节点
final Node shardInfo = shards.get(i);
for (int n = 0; n < NODE_NUM; n++)
// 一个真实机器节点关联NODE_NUM个虚拟节点
nodes.put(hash("SHARD-" + shardInfo.name + "-NODE-" + n), shardInfo);
}
}
//增加一个主机
private void addS(Node s) {
System.out.println("增加主机"+s+"的变化:");
for (int n = 0; n < NODE_NUM; n++)
addS(hash("SHARD-" + s.name + "-NODE-" + n), s);
}
//添加一个虚拟节点进环形结构,lg为虚拟节点的hash值
public void addS(Long lg,Node s){
SortedMap<Long, Node> tail = nodes.tailMap(lg);
SortedMap<Long,Node> head = nodes.headMap(lg);
Long begin = 0L;
Long end = 0L;
SortedMap<Long, Node> between;
if(head.size()==0){
between = treeKey.tailMap(nodes.lastKey());
flag = true;
}else{
begin = head.lastKey();
between = treeKey.subMap(begin, lg);
flag = false;
}
nodes.put(lg, s);
for(Iterator<Long> it=between.keySet().iterator();it.hasNext();){
Long lo = it.next();
if(flag){
treeKey.put(lo, nodes.get(lg));
System.out.println("hash("+lo+")改变到->"+tail.get(tail.firstKey()));
}else{
treeKey.put(lo, nodes.get(lg));
System.out.println("hash("+lo+")改变到->"+tail.get(tail.firstKey()));
}
}
}
//删除真实节点是s
public void deleteS(Node s){
if(s==null){
return;
}
System.out.println("删除主机"+s+"的变化:");
for(int i=0;i<NODE_NUM;i++){
//定位s节点的第i的虚拟节点的位置
SortedMap<Long, Node> tail = nodes.tailMap(hash("SHARD-" + s.name + "-NODE-" + i));
SortedMap<Long,Node> head = nodes.headMap(hash("SHARD-" + s.name + "-NODE-" + i));
Long begin = 0L;
Long end = 0L;
SortedMap<Long, Node> between;
if(head.size()==0){
between = treeKey.tailMap(nodes.lastKey());
end = tail.firstKey();
tail.remove(tail.firstKey());
nodes.remove(tail.firstKey());//从nodes中删除s节点的第i个虚拟节点
flag = true;
}else{
begin = head.lastKey();
end = tail.firstKey();
tail.remove(tail.firstKey());
between = treeKey.subMap(begin, end);//在s节点的第i个虚拟节点的所有key的集合
flag = false;
}
for(Iterator<Long> it = between.keySet().iterator();it.hasNext();){
Long lo = it.next();
if(flag){
treeKey.put(lo, tail.get(tail.firstKey()));
System.out.println("hash("+lo+")改变到->"+tail.get(tail.firstKey()));
}else{
treeKey.put(lo, tail.get(tail.firstKey()));
System.out.println("hash("+lo+")改变到->"+tail.get(tail.firstKey()));
}
}
}
}
//映射key到真实节点
public void keyToNode(String key){
SortedMap<Long, Node> tail = nodes.tailMap(hash(key)); // 沿环的顺时针找到一个虚拟节点
if (tail.size() == 0) {
return;
}
treeKey.put(hash(key), tail.get(tail.firstKey()));
System.out.println(key+"(hash:"+hash(key)+")连接到主机->"+tail.get(tail.firstKey()));
}
/**
* MurMurHash算法,是非加密HASH算法,性能很高,
* 比传统的CRC32,MD5,SHA-1(这两个算法都是加密HASH算法,复杂度本身就很高,带来的性能上的损害也不可避免)
* 等HASH算法要快很多,而且据说这个算法的碰撞率很低.
* http://murmurhash.googlepages.com/
*/
private static Long hash(String key) {
ByteBuffer buf = ByteBuffer.wrap(key.getBytes());
int seed = 0x1234ABCD;
ByteOrder byteOrder = buf.order();
buf.order(ByteOrder.LITTLE_ENDIAN);
long m = 0xc6a4a7935bd1e995L;
int r = 47;
long h = seed ^ (buf.remaining() * m);
long k;
while (buf.remaining() >= 8) {
k = buf.getLong();
k *= m;
k ^= k >>> r;
k *= m;
h ^= k;
h *= m;
}
if (buf.remaining() > 0) {
ByteBuffer finish = ByteBuffer.allocate(8).order(
ByteOrder.LITTLE_ENDIAN);
// for big-endian version, do this first:
// finish.position(8-buf.remaining());
finish.put(buf).rewind();
h ^= finish.getLong();
h *= m;
}
h ^= h >>> r;
h *= m;
h ^= h >>> r;
buf.order(byteOrder);
return h;
}
static class Node{
String name;
String ip;
public Node(String name,String ip) {
this.name = name;
this.ip = ip;
}
@Override
public String toString() {
return this.name+"-"+this.ip;
}
}
}
分享到:
相关推荐
一致性哈希算法,广泛应用于分布式计算,C版实现,属于分布式服务器管理的核心算法。
一致性哈希算法
24一致性哈希:如何高效地均衡负载?1
对已有的负载平衡的改进算法,通过一致性哈希算法,负载平衡更加的有效。
一致性哈希算法的php版,希望能帮到phper了解一致性哈希
一致性哈希和有界负载的一致性哈希的Golang实现。 一致的哈希示例 package main import ( "log" "github.com/lafikl/consistent" ) func main () { c := consistent . New () // adds the hosts to the ring ...
一致性哈希,consistent hashing。 算法入门必备 清晰版本,非扫描。
哈希表java代码
本文将会从实际应用场景出发,介绍一致性哈希算法(Consistent Hashing)及 其在分布式系统中的应用。首先本文会描述一个在日常开发中经常会遇到的问题 场景,借此介绍一致性哈希算法以及这个算法如何解决此问题;接...
运行平台:VS 2019 一致性哈希算法演示项目,演示新增节点key分布情况;移除节点key分布情况! C#,C#,C#.......
基于动态转移的分布式缓存系统一致性哈希算法改进,张昊,张永军,近年来,随着大数据与分布式集群的广泛应用,一致性哈希算法在分布式缓存系统的负载均衡中得到了广泛的应用。一致性哈希算法虽然
基于贪心算法的一致性哈希负载均衡优化
一致性哈希算法应用及优化(最简洁明了的教程)
#资源达人分享计划#
社交网络和其他云应用程序应该能对从数据中心发出的请求作出快速响应,实现...仿真结果表明,相比于一致性哈希,缓存服务器上的负载可改善24%,网络上的负载可改善7%,策略能够使资源利用更合理,获得更好的用户体验。
这个是java版的哈希表演示程序,里面用到的散列函数及处理冲突的方法都相对简单,但是可以加深大家对哈希表的认识。
Ketama算法是一致性hash算法的一个优秀实现。增删节点后数据命中率及均分率都很高。
Mycat一致性哈希分片算法.zip Mycat一致性哈希分片算法.zip Mycat一致性哈希分片算法.zip Mycat一致性哈希分片算法.zip Mycat一致性哈希分片算法.zip
NULL 博文链接:https://blackbeans.iteye.com/blog/1129256
12-一致性哈希分布式算法原理与实现.wmv