Elasticsearch简单介绍

发布于:2024-09-06 ⋅ 阅读:(60) ⋅ 点赞:(0)

1、 Elasticsearch简介

Elasticsearch 是一个分布式的、基于 RESTful API 的搜索和分析引擎,广泛用于大规模的数据存储和快速检索。它最初由 Shay Banon 于 2010 年开发,是开源的,并且是 Elastic Stack(通常称为 ELK Stack)的核心组成部分,另外组成部分是 Logstash、Beats(用于数据收集和处理)和 Kibana(用于数据可视化)。

2 正向索引与倒排索引

2.1 正向索引

正向索引 是指为每个文档记录其中出现的所有词汇及其位置。其结构可以理解为:每个文档对应一份词汇表,存储该文档中出现的所有词以及它们的频率、位置等信息。

特点:
按文档进行索引,存储每个文档的详细信息。
优点是容易获取某个文档中所有词汇的信息,适合于需要统计文档中词频、词位置等情况的操作。
缺点是对于查找某个词在哪些文档中出现效率较低,因为需要扫描所有文档。

2.2 倒排索引(Inverted Index)


倒排索引是搜索引擎中最常用的索引结构,用来快速查找包含某个词的所有文档。倒排索引建立了一张从词汇到文档的映射表,即对于每个词,记录它在哪些文档中出现,以及在这些文档中的位置。

特点:
按词汇进行索引,快速查找包含该词的所有文档。
优点是对搜索效率极高,尤其是当我们查询某个词或一组词时,能够快速定位所有相关文档。
缺点是需要额外的空间存储索引表。

3 msql和elasticsearch概念对比

总结

Mysql 适用于需要强一致性和复杂关系查询的场景,比如财务系统、事务型数据库。
Elasticsearch 更适合大规模实时搜索、日志分析、全文检索等应用场景,具有高扩展性和近实时搜索能力。
这两者可以互补使用,MYSQL 处理结构化数据,ES 提供搜索和分析。

4 使用 Docker 安装 Elasticsearch + Kibana

5 操作索引库

5.1 创建索引库

访问kibana,默认端口为5601。Dev Tools 提供了一个类似于控制台的界面,你可以在其中输入并执行 Elasticsearch 的 RESTful API 请求。可通过交互式的方式执行 Elasticsearch 查询、管理索引库和执行其他集群操作。

指定 mappings 和 settings 创建索引库
在创建索引库时指定 mappings(字段类型定义)和 settings(如分片和副本的设置)。

PUT /my_index
{
  "settings": {
    "number_of_shards": 3,  # 分片数
    "number_of_replicas": 1  # 副本数
  },
  "mappings": {
    "properties": {
      "title": {
        "type": "text"
      },
      "author": {
        "type": "keyword"
      },
      "publish_date": {
        "type": "date"
      },
      "price": {
        "type": "float"
      }
    }
  }
}

说明

settings:

number_of_shards:定义索引库的分片数量。分片是用于并行处理数据的一部分。
number_of_replicas:定义每个分片的副本数,以提高数据的可用性和容错性。
mappings:

properties:定义字段及其类型。

text:用于全文搜索的字段。
keyword:用于精确值搜索的字段,通常用于过滤、排序和聚合。
date:用于日期类型的字段。
float:用于存储浮点数。

5.2 查询、删除、修改索引库

查询索引库的配置信息

GET /my_index

这将返回 my_index 的配置信息,包括分片数、副本数、字段映射等。

删除索引库

DELETE /my_index

这个请求会永久删除名为 my_index 的索引库以及其中的所有数据。操作不可逆,因此删除前请确保不再需要该数据。

修改索引库
在 Elasticsearch 中,索引库的某些设置是可以在创建后修改的,但有些设置(如 number_of_shards)则不能更改。以下是一些常见的可修改操作:

修改索引库的 settings,一些可修改的 settings 包括副本数量、刷新间隔等。
示例:修改副本数

PUT /my_index/_settings
{
  "number_of_replicas": 2
}

这个请求会将 my_index 的副本数量从当前值修改为 2。副本数可以随时修改,以增加或减少数据的冗余和查询性能。

修改字段映射 (mappings)
字段映射通常在索引库创建时指定,并且一旦设置,某些字段类型不能直接修改。不过,你可以通过以下方式增加新的字段:
示例:增加新的字段映射

PUT /my_index/_mapping
{
  "properties": {
    "new_field": {
      "type": "text"
    }
  }
}

这个请求会在 my_index 中增加一个名为 new_field 的新字段。注意,已经存在的字段类型无法修改,你只能添加新的字段。

6 文档操作

6.1 新增、查询、删除文档

6.1.1、新增文档

新增文档的DSL语法如下

示例 1:使用 POST 新增文档

POST /my_index/_doc/
{
  "title": "Elasticsearch Basics",
  "author": "John Doe",
  "publish_date": "2024-01-01",
  "price": 19.99
}

示例 2:使用 PUT 新增或更新文档(指定 ID)

PUT /my_index/_doc/1
{
  "title": "Elasticsearch Advanced",
  "author": "Jane Smith",
  "publish_date": "2024-02-01",
  "price": 29.99
}

指定文档 ID:文档的 ID 被明确设置为 1。如果该 ID 已存在,则该操作会更新该文档。

6.1.2. 查询文档

使用 GET 请求来检索特定的文档或执行搜索查询。
示例 1:根据 ID 查询文档

GET /my_index/_doc/1

示例 2:搜索文档(基于条件)

GET /my_index/_search
{
  "query": {
    "match": {
      "title": "Elasticsearch"
    }
  }
}

搜索:通过 match 查询,Elasticsearch 会在 title 字段中搜索包含 “Elasticsearch” 关键字的文档。示例 3:获取所有文档

GET /my_index/_search
{
  "query": {
    "match_all": {}
  }
}

匹配所有文档:match_all 查询会返回索引库中的所有文档。

6.1.3、 删除文档

使用 DELETE 请求删除指定的文档。
示例:根据 ID 删除文档

DELETE /my_index/_doc/1

这将删除 my_index 索引库中 ID 为 1 的文档。如果指定的文档不存在,Elasticsearch 会返回一个 404 错误。

6.1.4、总结

新增文档:
使用 POST /my_index/_doc/ 自动生成文档 ID 并添加文档。
使用 PUT /my_index/_doc/{id} 通过指定 ID 来新增或更新文档。

查询文档:
使用 GET /my_index/_doc/{id} 根据 ID 查询文档。
使用 GET /my_index/_search 执行复杂的搜索查询。Å
删除文档:使用 DELETE /my_index/_doc/{id} 根据 ID 删除文档。

6.2 修改文档

全量修改,删除旧文档,添加新文档

增量修改,修改指定字段值,使用 POST 和 _update API 进行部分更新。

示例:

POST /my_index/_doc/1/_update
{
  "doc": {
    "price": 24.99,
    "title": "Elasticsearch Basics - Updated"
  }
}

这里,doc 对象内的字段会被更新,而文档的其他字段保持不变。例如,price 和 title 字段会被更新为新的值,而其他字段(如 author、publish_date)将保持不变。

6.3 通过脚本进行复杂的更新

示例:使用脚本增加字段值

POST /my_index/_doc/1/_update
{
  "script": {
    "source": "ctx._source.price += params.increment",
    "lang": "painless",
    "params": {
      "increment": 5
    }
  }
}

script:定义了更新操作的脚本。
source:指定实际执行的脚本代码,使用 painless 语言。
ctx._source.price 是指向文档中 price 字段的引用。
lang:说明使用的脚本语言类型,这里使用 painless,它是 Elasticsearch 默认且推荐的脚本语言。
params:传递给脚本的参数。这里 params 中定义了一个名为 increment 的参数,其值为 5

7 分词器

分词器(Tokenizer)是文本处理中的一个关键组件,尤其在搜索引擎、文本分析、自然语言处理(NLP)等领域中扮演重要角色。它的主要作用是将文本切分成若干个有意义的词或词组。分词器的使用可以帮助进行词频统计、信息检索、文本分类等任务。

7.1 分词器的基本概念

分词器的作用:

文本切分: 将长文本拆分成单独的词或词组。
标准化: 处理大小写、去除标点符号、转换数字等。
词汇建立: 建立词汇表以进行后续的分析。

常见的分词器类型:

基于规则的分词器: 使用预定义的规则进行分词。例如,使用空格、标点符号或特殊字符作为分隔符。
基于字典的分词器:使用词典或词汇表进行分词,例如,分词时根据字典中的词条进行匹配。
统计型分词器: 利用统计模型和算法进行分词,例如,基于频率的分词或机器学习模型。

7.2 Elasticsearch 分词器

Elasticsearch 是一个基于 Lucene 的分布式搜索引擎,它提供了多种分词器用于处理和分析文本数据。

标准分词器(Standard Tokenizer): 默认的分词器,适用于大多数语言。它基于 Unicode 字符集的标准分词算法。
空格分词器(Whitespace Tokenizer): 按照空格将文本分割成词,不处理其他字符。
IK 分词器: 适用于中文分词,可以进行精确分词和智能分词。
自定义分词器: 用户可以根据需求自定义分词器,通过配置文件设置分词规则和词典。

7.3 IK分词器

IK 分词器是 Elasticsearch 中一个流行的中文分词器,适用于处理中文文本。

7.3 .1 安装 IK 分词器插件

创建索引时使用 IK 分词器

PUT /my_index
{
  "settings": {
    "analysis": {
      "analyzer": {
        "ik_max_word": {
          "type": "ik_max_word"
        },
        "ik_smart": {
          "type": "ik_smart"
        }
      }
    }
  },
  "mappings": {
    "properties": {
      "content": {
        "type": "text",
        "analyzer": "ik_max_word"
      }
    }
  }
}

ik_max_word:IK 分词器的最大词汇量分词模式,能将文本切分为尽可能多的词项。

ik_smart:IK分词器的智能分词模式,切分出的词项数量较少,更加精准。

使用 IK 分词器进行文档索引和查询,在创建了索引并配置了 IK 分词器之后,你可以像往常一样索引和查询文档。

POST /my_index/_doc/1
{
  "content": "Elasticsearch 是一个分布式搜索引擎"
}
示例:搜索文档
json
复制代码
GET /my_index/_search
{
  "query": {
    "match": {
      "content": "分布式搜索"
    }
  }
}

7.3.4. 测试 IK 分词器

使用 _analyze API 来测试 IK 分词器对文本的分词效果。

POST /my_index/_analyze
{
  "analyzer": "ik_max_word",
  "text": "Elasticsearch 是一个分布式搜索引擎"
}

5. 扩展词库
 

6. 停用词库