大家好,欢迎来到IT知识分享网。
1.简介
BM25(Best Matching 25)是一种经典的信息检索算法,是基于 TF-IDF算法的改进版本,旨在解决、TF-IDF算法的一些不足之处。其被广泛应用于信息检索领域的排名函数,用于估计文档D与用户查询Q之间的相关性。它是一种基于概率检索框架的改进,特别是在处理长文档和短查询时表现出色。BM25的核心思想是基于词频(TF)和逆文档频率(IDF)来,同时还引入了文档的长度信息来计算文档D和查询Q之间的相关性。目前被广泛运用的搜索引擎ES就内置了BM25算法进行全文检索。
BM25算法的基本公式
- Score(D,Q) 是文档 D 与查询 Q 的相关性得分。
- qi 是查询中的第 i 个词。
- f(qi, D)是词 qi 在文档 D 中的频率。
- IDF(qi) 是词qi 的逆文档频率。
- |D| 是文档 D的长度。
- avgdl是所有文档的平均长度。
- k1 和 b 是可调的参数,通常 k1 在1.2到2之间, b通常设为0.75。
IDF计算方法
- N 是文档集合中的文档总数
- n(q1)是包含词q1的文档数量
- 词频 (f(qi, D)): 这是查询中的词 q_i在文档 D 中出现的频率。词频是衡量一个词在文档中重要性的基本指标。词频越高,这个词在文档中的重要性通常越大。
- 逆文档频率 (IDF(qi)): 逆文档频率是衡量一个词对于整个文档集合的独特性或信息量的指标。它是由整个文档集合中包含该词的文档数量决定的。一个词在很多文档中出现,其IDF值就会低,反之则高。这意味着罕见的词通常有更高的IDF值,从而在相关性评分中拥有更大的权重。
- 文档长度 (|D|): 这是文档D 中的词汇数量。文档长度用于调整词频的影响,因为较长的文档可能仅因为它们的长度就有更高的词频。
- 平均文档长度 (avgdl): 这是整个文档集合中所有文档长度的平均值。它用于标准化不同文档的长度,以便可以公平比较不同长度的文档。
- 可调参数 (k1 和 b):
- k1 是一个正系数,用于控制词频的饱和度。较高的 k1 值意味着词频对评分的影响更大。
- b 是用于控制文档长度对评分的影响的参数,取值在0到1之间。当 b=1 时,文档长度的影响最大;当b = 0 时,文档长度不影响评分。
2. 主要流程
1 数据预处理
- 首先需要将文档进行数据预处理,包括分词、去除停用词、词干提取和标准化等步骤。
2 计算文档和查询条件中各个项的得分函数
- 该步骤计算每个文档和查询条件中各个项的得分函数,并将其存储在倒排索引中。
3 计算文档与查询条件之间的匹配程度
- 计算文档与查询条件之间的匹配程度得分。该步骤会计算所有匹配的文档的得分值,并按照得分值的大小对文档进行排序。
4 返回最匹配的文档
- 返回最匹配的文档。
3. python 简单实现
import math from collections import Counter class BM25: def __init__(self, docs, k1=1.5, b=0.75): """ BM25算法的构造器 :param docs: 分词后的文档列表,每个文档是一个包含词汇的列表 :param k1: BM25算法中的调节参数k1 :param b: BM25算法中的调节参数b """ self.docs = docs self.k1 = k1 self.b = b self.doc_len = [len(doc) for doc in docs] # 计算每个文档的长度 self.avgdl = sum(self.doc_len) / len(docs) # 计算所有文档的平均长度 self.doc_freqs = [] # 存储每个文档的词频 self.idf = {
} # 存储每个词的逆文档频率 self.initialize() def initialize(self): """ 初始化方法,计算所有词的逆文档频率 """ df = {
} # 用于存储每个词在多少不同文档中出现 for doc in self.docs: # 为每个文档创建一个词频统计 self.doc_freqs.append(Counter(doc)) # 更新df值 for word in set(doc): df[word] = df.get(word, 0) + 1 # 计算每个词的IDF值 for word, freq in df.items(): self.idf[word] = math.log((len(self.docs) - freq + 0.5) / (freq + 0.5) + 1) def score(self, doc, query): """ 计算文档与查询的BM25得分 :param doc: 文档的索引 :param query: 查询词列表 :return: 该文档与查询的相关性得分 """ score = 0.0 for word in query: if word in self.doc_freqs[doc]: freq = self.doc_freqs[doc][word] # 词在文档中的频率 # 应用BM25计算公式 score += (self.idf[word] * freq * (self.k1 + 1)) / (freq + self.k1 * (1 - self.b + self.b * self.doc_len[doc] / self.avgdl)) return score # 示例文档集和查询 docs = [["the", "quick", "brown", "fox"], ["the", "lazy", "dog"], ["the", "quick", "dog"], ["the", "quick", "brown", "brown", "fox"]] query = ["quick", "brown"] # 初始化BM25模型并计算得分 bm25 = BM25(docs) scores = [bm25.score(i, query) for i in range(len(docs))] query和文档的相关性得分: sores = [1.06774, 0.0, 0.47609, 1.11414]
在这个例子中,我们使用了四个文档和一个查询来计算相关性得分。查询是 [“quick”, “brown”]。得分如下:
- 文档 1 (“the quick brown fox”): 得分约为 1.02
- 文档 2 (“the lazy dog”): 得分为 0.0(因为它不包含查询中的任何单词)
- 文档 3 (“the quick dog”): 得分约为 0.39
- 文档 4 (“the quick brown brown fox”): 得分约为 1.20
这些得分反映了每个文档与查询之间的相关性。得分越高,表示文档与查询的相关性越强。在这个例子中,文档 4 与查询的相关性最高,其次是文档 1,文档 3 的相关性较低,而文档 2 与查询没有相关性。
4. 调用gensim实现
一般流程(对于中文)
- 构建corpus
1.1 构建停用词词表(可加入部分高频词)
1.2 分词
1.3 去除停用词
from gensim.summarization import bm25 def test_gensim_bm25(): corpus = [ ['来', '问', '几', '个', '问题', '第1', '个', '就', '是', '60', '岁', '60', '岁', '的', '时候', '退休', '是', '时间', '到', '了', '一定', '要', '退休', '还是', '觉得', '应该', '差', '不', '多'], ['第1', '个', '是', '应该', '第2', '个', '是'], ['不', '对', '应该', '就是', '差', '不', '多'], ['所以', '是', '应该', '差', '不', '多', '还是', '一定', '要', '退', '60', '岁']] bm25Model = bm25.BM25(corpus) test_strs = [ ['所以', '是', '应该', '差', '不', '多', '还是', '一定', '要', '退', '60', '岁'], ['所以', '是', '应该', '差', '不', '多', '还是', '一定', '要', '退', '60', '岁', '问题', '第1', '个'], ['所以', '是', '应该', '差', '不', '多', '还是', '一定', '要', '退', '60', '岁', '问题', '第1', '个','来', '问', '几', '个', '问题'], ['应该', '差', '不', '多', '一定', '要', '退', '60', '岁'], ['差', '不', '多', '一定', '要', '退'], ['一定', '要', '差', '不', '多', '退'], ['一定', '要', '退'], ['一定', '差', '不', '多'], ] for test_str in test_strs: scores = bm25Model.get_scores(test_str) print('测试句子:', test_str) for i, j in zip(scores, corpus): print('分值:{},原句:{}'.format(i, j)) print('\n') if __name__ == '__main__': test_gensim_bm25()
运行结果:
测试句子: ['所以', '是', '应该', '差', '不', '多', '还是', '一定', '要', '退', '60', '岁'] 分值:0.45471,原句:['来', '问', '几', '个', '问题', '第1', '个', '就', '是', '60', '岁', '60', '岁', '的', '时候', '退休', '是', '时间', '到', '了', '一定', '要', '退休', '还是', '觉得', '应该', '差', '不', '多'] 分值:0.2966,原句:['第1', '个', '是', '应该', '第2', '个', '是'] 分值:0.,原句:['不', '对', '应该', '就是', '差', '不', '多'] 分值:2.88233,原句:['所以', '是', '应该', '差', '不', '多', '还是', '一定', '要', '退', '60', '岁'] 测试句子: ['应该', '差', '不', '多', '一定', '要', '退', '60', '岁'] 分值:0.4139,原句:['来', '问', '几', '个', '问题', '第1', '个', '就', '是', '60', '岁', '60', '岁', '的', '时候', '退休', '是', '时间', '到', '了', '一定', '要', '退休', '还是', '觉得', '应该', '差', '不', '多'] 分值:0.085916,原句:['第1', '个', '是', '应该', '第2', '个', '是'] 分值:0.,原句:['不', '对', '应该', '就是', '差', '不', '多'] 分值:1.59779,原句:['所以', '是', '应该', '差', '不', '多', '还是', '一定', '要', '退', '60', '岁'] 测试句子: ['差', '不', '多', '一定', '要', '退'] 分值:0.,原句:['来', '问', '几', '个', '问题', '第1', '个', '就', '是', '60', '岁', '60', '岁', '的', '时候', '退休', '是', '时间', '到', '了', '一定', '要', '退休', '还是', '觉得', '应该', '差', '不', '多'] 分值:0,原句:['第1', '个', '是', '应该', '第2', '个', '是'] 分值:0.38252,原句:['不', '对', '应该', '就是', '差', '不', '多'] 分值:1.82669,原句:['所以', '是', '应该', '差', '不', '多', '还是', '一定', '要', '退', '60', '岁'] 测试句子: ['一定', '要', '差', '不', '多', '退'] 分值:0.,原句:['来', '问', '几', '个', '问题', '第1', '个', '就', '是', '60', '岁', '60', '岁', '的', '时候', '退休', '是', '时间', '到', '了', '一定', '要', '退休', '还是', '觉得', '应该', '差', '不', '多'] 分值:0,原句:['第1', '个', '是', '应该', '第2', '个', '是'] 分值:0.38252,原句:['不', '对', '应该', '就是', '差', '不', '多'] 分值:1.82669,原句:['所以', '是', '应该', '差', '不', '多', '还是', '一定', '要', '退', '60', '岁'] 测试句子: ['一定', '要', '退'] 分值:0.0,原句:['来', '问', '几', '个', '问题', '第1', '个', '就', '是', '60', '岁', '60', '岁', '的', '时候', '退休', '是', '时间', '到', '了', '一定', '要', '退休', '还是', '觉得', '应该', '差', '不', '多'] 分值:0,原句:['第1', '个', '是', '应该', '第2', '个', '是'] 分值:0,原句:['不', '对', '应该', '就是', '差', '不', '多'] 分值:0.5134,原句:['所以', '是', '应该', '差', '不', '多', '还是', '一定', '要', '退', '60', '岁'] 测试句子: ['一定', '差', '不', '多'] 分值:0.,原句:['来', '问', '几', '个', '问题', '第1', '个', '就', '是', '60', '岁', '60', '岁', '的', '时候', '退休', '是', '时间', '到', '了', '一定', '要', '退休', '还是', '觉得', '应该', '差', '不', '多'] 分值:0,原句:['第1', '个', '是', '应该', '第2', '个', '是'] 分值:0.38252,原句:['不', '对', '应该', '就是', '差', '不', '多'] 分值:0.,原句:['所以', '是', '应该', '差', '不', '多', '还是', '一定', '要', '退', '60', '岁']
5. rank-bm25 (一个双线搜索引擎,用于查询一组文档并返回与查询最相关的文档)
安装
pip install rank_bm25
初始化
首先要做的是创建BM25类的一个实例,该实例读取文本语料库并对其进行一些索引:
from rank_bm25 import BM25Okapi corpus = [ "Hello there good man!", "It is quite windy in London", "How is the weather today?" ] tokenized_corpus = [doc.split(" ") for doc in corpus] bm25 = BM25Okapi(tokenized_corpus) # <rank_bm25.BM25Okapi at 0xd0>
此包不进行任何文本预处理。如果你想做一些事情,比如降低词尾、删除词尾、词干等,你需要自己做。唯一的要求是类接收字符串列表,这些字符串是文档标记。
文档排名
我们已经创建了文档索引,我们可以向它提供查询,并查看哪些文档最相关:
query = "windy London" tokenized_query = query.split(" ") doc_scores = bm25.get_scores(tokenized_query) # array([0. , 0., 0. ])
除了获取文档分数,你也可以用来检索最佳文档:
bm25.get_top_n(tokenized_query, corpus, n=1) # ['It is quite windy in London']
参考
免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://haidsoft.com/116770.html

