Python Counting Bloom Filter原理与实现详细介绍

2022-10-22,,,,

前言

标准的 bloom filter 是一种比较简单的数据结构,只支持插入和查找两种操作。在所要表达的集合是静态集合的时候,标准 bloom filter 可以很好地工作,但是如果要表达的集合经常变动,标准bloom filter的弊端就显现出来了,因为它不支持删除操作。这就引出来了本文要谈的 counting bloom filter,后文简写为 cbf。

原理

一、bf 为什么不支持删除

bf 为什么不能删除元素?我们可以举一个例子来说明。

比如要删除集合中的成员 dantezhao,那么就会先用 k 个哈希函数对其计算,因为 dantezhao 已经是集合成员,那么在位数组的对应位置一定是 1,我们如要要删除这个成员 dantezhao,就需要把计算出来的所有位置上的 1 置为 0,即将 5 和 16 两位置为 0 即可。

问题来了!现在,先假设 yyj 本身是属于集合的元素,如果需要查询 yyj 是否在集合中,通过哈希函数计算后,我们会去判断第 16 和 第 26 位是否为 1, 这时候就得到了第 16 位为 0 的结果,即 yyj 不属于集合。 显然这里是误判的。

二、什么是 counting bloom filter

counting bloom filter 的出现,解决了上述问题,它将标准 bloom filter 位数组的每一位扩展为一个小的计数器(counter),在插入元素时给对应的 k (k 为哈希函数个数)个 counter 的值分别加 1,删除元素时给对应的 k 个 counter 的值分别减 1。counting bloom filter 通过多占用几倍的存储空间的代价, 给 bloom filter 增加了删除操作。基本原理是不是很简单?看下图就能明白它和 bloom filter 的区别在哪。

三、counter 大小的选择

cbf 和 bf 的一个主要的不同就是 cbf 用一个 counter 取代了 bf 中的一位,那么 counter 到底取多大才比较合适呢?这里就要考虑到空间利用率的问题了,从使用的角度来看,当然是越大越好,因为 counter 越大就能表示越多的信息。但是越大的 counter 就意味着更多的资源占用,而且在很多时候会造成极大的空间浪费。

因此,我们在选择 counter 的时候,可以看 counter 取值的范围多小就可以满足需求。

根据论文中描述,某一个 counter 的值大于或等于 i 的概率可以通过如下公式描述,其中 n 为集合的大小,m 为 counter 的数量,k 为 哈希函数的个数。

在之前的文章《bloom filter 的数学背景》中已经得出,k 的最佳取值为 k = m/n * ln2,将其带入公式后可得。

如果每个 counter 分配 4 位,那么当 counter 的值达到 16 时就会溢出。这个概率如下,这个值足够小,因此对于大多数应用程序来说,4位就足够了。

关于 cbf 中 counter 大小的选择,主要参考这篇论文:《summary cache: a scalable wide-area web cache sharing protocol》,在论文的第 6、7 两页专门对其做了一番阐述。这里不再推导细节,只给出一个大概的说明,感兴趣的童鞋可以参考原论文。

简单的实现

还是实现一个简单的程序来熟悉 cbf 的原理,这里和 bf 的区别有两个:

  • 一个是我们没有用 bitarray 提供的位数组,而是使用了 bytearray 提供的一个 byte数组,因此每一个 counter 的取值范围在 0~255。
  • 另一个是多了一个 remove 方法来删除集合中的元素。

代码很简单,只是为了理解概念,实际中使用的库会有很大差别。

import mmh3
class countingbloomfilter:
    def __init__(self, size, hash_num):
        self.size = size
        self.hash_num = hash_num
        self.byte_array = bytearray(size)
    def add(self, s):
        for seed in range(self.hash_num):
            result = mmh3.hash(s, seed) % self.size
            if self.bit_array[result] < 256:
                self.bit_array[result] += 1
    def lookup(self, s):
        for seed in range(self.hash_num):
            result = mmh3.hash(s, seed) % self.size
            if self.bit_array[result] == 0:
                return "nope"
        return "probably"
    def remove(self, s):
        for seed in range(self.hash_num):
            result = mmh3.hash(s, seed) % self.size
            if self.bit_array[result] > 0:
                self.bit_array[result] -= 1
cbf = countingbloomfilter(500000, 7)
cbf.add("dantezhao")
cbf.add("yyj")
cbf.remove("dantezhao")
print (cbf.lookup("dantezhao"))
print (cbf.lookup("yyj"))

总结

cbf 虽说解决了 bf 的不能删除元素的问题,但是自身仍有不少的缺陷有待完善,比如 counter 的引入就会带来很大的资源浪费,cbf 的 fp 还有很大可以降低的空间, 因此在实际的使用场景中会有很多 cbf 的升级版。

比如 sbf(spectral bloom filter)在 cbf 的基础上提出了元素出现频率查询的概念,将cbf的应用扩展到了 multi-set 的领域;dlcbf(d-left counting bloom filter)利用 d-left hashing 的方法存储 fingerprint,解决哈希表的负载平衡问题;acbf(accurate counting bloom filter)通过 offset indexing 的方式将 counter 数组划分成多个层级,来降低误判率。这些内容,有机会再分享。

到此这篇关于python counting bloom filter原理与实现详细介绍的文章就介绍到这了,更多相关python counting bloom filter内容请搜索以前的文章或继续浏览下面的相关文章希望大家以后多多支持!

《Python Counting Bloom Filter原理与实现详细介绍.doc》

下载本文的Word格式文档,以方便收藏与打印。