Elasticsearch 第二期:倒排索引,分析,映射

发布于:2024-06-29 ⋅ 阅读:(15) ⋅ 点赞:(0)

前言

正像前面所说,ES真正强大之处在于可以从无规律的数据中找出有意义的信息——从“大数据”到“大信息”。这也是Elasticsearch一开始就将自己定位为搜索引擎,而不是数据存储的一个原因。因此用这一篇文字记录ES搜索的过程。

关于ES搜索计划分两篇或者三篇内容进行整理。一篇整理相关知识和设计思想。后面根据不同场景整理对应的命令使用。

这一篇文字记录ES搜索的过程。采用倒序的方式,从上到下分别介绍了三方面的内容

  1. 倒排索引:ES支持全文搜索的数据支持

  2. 分析和分析器:倒排索引是怎么产生的

  3. 映射:根据映射后的索引类型来判断分析和搜索策略

倒排索引

Elasticsearch 不只会存储(stores)文档,为了能被搜索到也会为文档添加索引(indexes)。

为了可以进行快速的全文搜索,Elasticsearch 使用一种称为 倒排索引(inverted index,也称反向索引) 的结构。

有倒排索引,肯定会对应有正向索引(forward index)

所谓的正向索引,就是搜索引擎会将待搜索的文件都对应一个文件ID,搜索时将这个ID和搜索关键字进行对应,形成K-V对,然后对关键字进行统计计数。

但是互联网上收录在搜索引擎中的文档的数目是个天文数字,这样的索引结构根本无法满足实时返回排名结果的要求。所以,搜索引擎会将正向索引重新构建为倒排索引,即把文件ID对应到关键词的映射转换为关键词到文件ID的映射(跟正向索引反过来了),每个关键词都对应着一系列的文件,这些文件中都出现这个关键词。

关于倒序索引,官方的例子很经典。一个倒排索引由文档中所有不重复词的列表构成,对于其中每个词,有一个包含它的文档列表。

例如,假设我们有两个文档,每个文档的 content 域包含如下内容:

  1. The quick brown fox jumped over the lazy dog

  2. Quick brown foxes leap over lazy dogs in summer

在看官网的时候就很困惑。"content域"如何解释?找遍全网,几乎关于倒排索引都是举的这个例子,一字不差。对于"content域"也都是照搬官网。

灵机一动,看一下英文原文吧。恍然大悟。所谓“域”,其英文为“field”。这就好理解了。

field也是ES的一个重要概念,官方翻译为“字段”,类比MySQL中的Colums(列)

为了创建倒排索引,我们首先将每个文档的 content 字段拆分成单独的 词(我们称它为 词条 或 tokens ),创建一个包含所有不重复词条的排序列表,然后列出每个词条出现在哪个文档。结果如下所示:

Term      Doc_1  Doc_2
-------------------------
Quick   |       |  X
The     |   X   |
brown   |   X   |  X
dog     |   X   |
dogs    |       |  X
fox     |   X   |
foxes   |       |  X
in      |       |  X
jumped  |   X   |
lazy    |   X   |  X
leap    |       |  X
over    |   X   |  X
quick   |   X   |
summer  |       |  X
the     |   X   |
------------------------

现在,如果我们想搜索 quick brown ,我们只需要查找包含每个词条的文档:

Term      Doc_1  Doc_2
-------------------------
brown   |   X   |  X
quick   |   X   |
------------------------
Total   |   2   |  1

两个文档都匹配,但是第一个文档比第二个匹配度更高。如果我们使用仅计算匹配词条数量的简单 相似性算法 ,那么,我们可以说,对于我们查询的相关性来讲,第一个文档比第二个文档更佳。

但是,我们目前的倒排索引有一些问题:

  • 大小写:Quick 和 quick 以独立的词条出现,然而用户可能认为它们是相同的词。

  • 词根相同或相似:fox 和 foxes 非常相似, 就像 dog 和 dogs 

  • 词义相同或相似:jumped 和 leap, 尽管没有相同的词根,但他们的意思很相近。他们是同义词。

使用前面的索引搜索,如果想搜索 同时出现 Quick 和 fox 的文档,会发现没有两个文档都不满足查询条件。尽管第一个文档包含 quick fox ,第二个文档包含 Quick foxes 。关于这种场景,可以进一步将倒排索引中的词条规范为标准模式,那么我们可以找到与用户搜索的词条不完全一致,但具有足够相关性的文档。

例如:

  • 统一大小写:Quick 可以小写化为 quick 。

  • 提前词根:foxes 可以 词干提取 --变为词根的格式-- 为 fox 。类似的, dogs 可以为提取为 dog 。

  • 同义词关联:jumped 和 leap 是同义词,可以索引为相同的单词 jump 。

现在索引看上去像这样:

Term      Doc_1  Doc_2
-------------------------
brown   |   X   |  X
dog     |   X   |  X
fox     |   X   |  X
in      |       |  X
jump    |   X   |  X
lazy    |   X   |  X
over    |   X   |  X
quick   |   X   |  X
summer  |       |  X
the     |   X   |  X
------------------------

这还远远不够。我们搜索 +Quick +fox 仍然 会失败,因为在我们的索引中,已经没有 Quick 了。但是,如果我们对搜索的字符串使用与 content 域相同的标准化规则,会变成查询 +quick +fox ,这样两个文档都会匹配!

若想了解倒排索引是如何生成的,就继续往下看“分析与分析器”。

分析与分析器

在保存的数据的时候,往往都是保存长句子或者长段落。而倒排索引是以独立的词条为单位进行索引的,如何将长句子分割成词条呢?就需要用到分析和分析器。

分析(Analysis),全文是如何处理使之可以被搜索的。分析 包含下面的过程:

  • 首先,将一块文本分成适合于倒排索引的独立的 词条 ,

  • 之后,将这些词条统一化为标准格式以提高它们的“可搜索性”,或者 recall

分析器

分析器 实际上是将三个功能封装到了一起:

字符过滤器

首先,字符串按顺序通过每个字符过滤器 。他们的任务是在分词前整理字符串。如去掉HTML,或者将 & 转化成 and。

分词器 

其次,字符串被 分词器 分为单个的词条。一个简单的分词器遇到空格和标点的时候,可能会将文本拆分成词条。

Token 过滤器

(词单元过滤器)

最后,词条按顺序通过每个 token 过滤器 。这个过程可能会改变词条(例如,小写化 Quick ),删除词条(例如, 像 a, and, the 等无用词),或者增加词条(例如,像 jump 和 leap 这种同义词)。

ES自带了分析器,我们称之为:内置分析器。以下面的一句话为例来对比不同分析器的分析结果。

"Set the shape to semi-transparent by calling set_trans(5)"

分析器名称

介绍

分析结果

标准分析器

默认使用的分析器。它根据 Unicode 联盟定义的 单词边界 划分文本。删除绝大部分标点。最后,将词条小写。

set, the, shape, to, semi, transparent, by, calling, set_trans, 5

简单分析器

在任何不是字母的地方分隔文本,将词条小写。

set, the, shape, to, semi, transparent, by, calling, set, trans

空格分析器

在空格的地方划分文本。

Set, the, shape, to, semi-transparent, by, calling, set_trans(5)

语言分析器

语言分析器可以根据特定来设定相应的语言分析器,从而考虑指定语言的特点。

例如, 英语 分析器附带了一组英语无用词(常用单词,例如 and 或者 the ,它们对相关性没有多少影响),它们会被删除。 由于理解英语语法的规则,这个分词器可以提取英语单词的 词干 。英语 分词器会产生下面的词条:

set, shape, semi, transpar, call, set_tran, 5(注意看 transparent、 calling 和 set_trans 已经变为词根格式。)

中文分析器

ES自带的分析器对英文单词比较友好,对中文分词效果不好。如使用自带的分析器来分析“天安门广场”,可能会分为:“天”,“安”,“门”,“广”,“场”。不过ES支持安装分词插件,增加新的分词器。目前中文分词器比较常用的有:smartcn和ik两种。

其中,smartcn是目前ES官方推荐的中文分词插件,不过目前不支持自定义词库。

ik分词器支持自定义扩展词库,有时候分词的结果不满足我们业务需要,需要根据业务设置专门的词库,分词的时候优先根据词库设置的关键词分割内容。

ik分词插件支持 ik_smart 和 ik_max_word 两种分词器

  • ik_smart - 粗粒度的分词

  • ik_max_word - 会尽可能的枚举可能的关键词,就是分词比较细致一些,会分解出更多的关键词

映射

用过ES就知道,当向ES新增数据时,不用向Mysql一样需要来指明字段的类型,这是因为ES默认为每个字段分配了类型。并且在ES中,不同字段类型的搜索方式是不同的。默认:日期、数值的搜索方式是精确等值搜索,而字符串默认是全文搜索。

所谓的映射是指,将输入和其对应的数据类型进行一一对应,如输入123,就会映射到数值类型。然后根据映射到的索引类型进行分析。

JSON类型

索引类型

true或false

boolean

integer

long

object

object(对象)

array

根据数组中的第一个非空值进行判断

string

date、double、long、text,根据数据形式进行判断

keyword

keyword类型是不进行切分的字符串类型。这里的"不进行切分"指的是:

在索引时,对keyword类型的数据不进行切分,直接构建倒排索引;

在搜索时,对该类型的查询字符串不进行切分后的部分匹配。

在现实场景中,keyword经典用于描述姓名、产品类型、用户ID、URL和状态码等。对数据进行部分匹配,因此一般查询这种类型的数据时使用term查询。

text

text类型是可进行切分的字符串类型。这里的“可切分”指的是:

在索引时,可按照相应的切词算法对文本内容进行切分,然后构建倒排索引;

在搜索时,对该类型的查询字符串按照用户的切词算法进行切分,然后对切分后的部分匹配打分。

整数 

byteshortintegerlong

浮点数

floatdouble

布尔型

使用boolean定义写入或者查询该类型的数据时,其值可以使用true和false,或者使用字符串形式的"true"和"false"

日期

date

在一般情况下,如果使用基本类型数据,最好先把数据类型定义好,因为ES的动态映射生成的字段类型可能会与用户的预期有差别。如 price=“1.334”。若不定义数据类型,ES会将该字段设置为text类型。对于搜索时可能会造成歧义。

当然,对于一个字段,我们可能既需要text类型来保证实现模糊查询,又希望有keyword类型的特性来进行排序。ES也是支持这种操作的,可以对该字段先后定义为text类型和keyword类型,其中,keyword类型的字段叫作子字段,这样ES在建立索引时会将姓名字段建立两份索引,即text类型的索引和keyword类型的索引。

总结

这篇笔记各章节的顺序其实是反的。应该是在索引保存的时候,根据字段映射,判断各字段的分析策略,从而再构建对应的倒排索引。其实还有个疑问,对于多条件搜索时,mysql会对每个索引创建一个B+树,倒排索引如何创建索引呢?

拓展文档

Elasticsearch 存储结构 - 梯子教程网

Elasticsearch(四)--一文弄懂ES的映射操作_es 动态映射-CSDN博客

倒排索引 | Elasticsearch: 权威指南 | Elastic


网站公告

今日签到

点亮在社区的每一天
去签到