自学内容网 自学内容网

docker安装elasticsearch和ik分词器

目录

ElasticSearch

了解ElasticSearch

ELK技术栈

​编辑 ElasticSearch与lucene的关系

总结

 倒排索引

正向索引 

倒排索引

 正向和倒排

 elasticSearch特定的一些概念

文档和字段

索引和映射 

mysql与elasticsearch对比 

安装elasticSeacher并部署单例es

 创建网络

加载es镜像和kibana镜像 

运行es镜像

部署kibana 

查看kibana

安装IK分词器

下载压缩包

查询到es-plugins数据卷存在的实际位置

 cd到这个实际位置,并把ik文件夹拉到这个目录中

重启es容器

测试:

扩展IK分词器

进入ik的config目录 

在IKAnalyzer.cfg.xml配置文件内容添加:ext.dic

 这里没有配置ext.dic的文件路径,说明和IKAnalyzer.cfg.xml在同一个目录下

然后重启es

测试,可以发现我勒个豆已经成为一个最小单元的词条

​编辑 停用词词典

 1)IKAnalyzer.cfg.xml配置文件内容添加:

 2)打开stopword.dic(config中已经存在,不用重新创建)

3)重启es

4)测试

​编辑 总结:分词器的作用

IK分词器有几种模式


ElasticSearch

了解ElasticSearch

elasticsearch是一款非常强大的开源搜索引擎,具备非常多强大功能,可以帮助我们从海量数据中快速找到需要的内容 

ELK技术栈

elasticsearch结合kibana、Logstash、Beats,也就是elastic stack(ELK)。被广泛应用在日志数据分析、实时监控等领域: 

而elasticsearch是elastic stack的核心,负责存储、搜索、分析数据。 

 ElasticSearch与lucene的关系

elasticsearch底层是基于lucene来实现的。

Lucene是一个Java语言的搜索引擎类库,是Apache公司的顶级项目,由DougCutting于1999年研发。

总结

什么是elasticsearch?

  • 一个开源的分布式搜索引擎,可以用来实现搜索、日志统计、分析、系统监控等功能

什么是elastic stack(ELK)?

  • 是以elasticsearch为核心的技术栈,包括beats、Logstash、kibana、elasticsearch

什么是Lucene?

  • 是Apache的开源搜索引擎类库,提供了搜索引擎的核心API

 倒排索引

倒排索引的概念是基于MySQL这样的正向索引而言的。

正向索引 

什么是正向索引呢

如果根据id值直接查询,那么直接走主键索引,查询速度比较快

如果是根据title进行模糊查询

  1. 用户进行搜索数据时,条件为%手机%
  2. 那么就一行一行的获取数据,然后再判断title字段值是否符合条件
  3. 符合条件就放入结果集,不符合条件就丢弃,继续下一行获取数据进行比对

 这就是所谓的逐行扫描,也就是全表扫描,随着数据量的增多,其查询效率会越来越低

倒排索引

倒排索引中有两个非常重要的概念:

  • 文档(Document):用来搜索的数据,其中的每一条数据就是一个文档。例如一个网页、一个商品信息。也就是数据库中的一行数据
  • 词条(Term):对文档数据或用户搜索数据,利用某种算法分词,得到的具备含义的词语就是词条。例如:我是中国人,就可以分为:我、是、中国人、中国、国人这样的几个词条。词条就是把文档数据根据某种规则进行拆分成几个词

创建倒排索引是对正向索引的一种特殊处理,流程如下:

  • 将每一个文档的数据利用算法分词,得到一个个词条
  • 创建表,每行数据包括词条、词条所在文档id、位置等信息
  • 因为词条唯一性,可以给词条创建索引,例如hash表结构索引

 

倒排索引的搜索流程如下(以搜索"华为手机"为例): 

当用户输入华为手机时,进行词条分割,得到华为,手机两个词条,然后再倒排索引的表中获得对应的文档id(1,2,3)然后拿着文档id去数据库表中进行查找具体的信息(因为根据的是主键Id,走索引,查询速率比较快)

 虽然要先查询倒排索引,再查询正向索引,但是无论是词条、还是文档id都建立了索引(可以建立联合唯一索引),查询速度非常快!无需全表扫描。

 正向和倒排

那么为什么一个叫做正向索引,一个叫做倒排索引呢?

  • 正向索引是最传统的,根据id索引的方式。但根据词条查询时,必须先逐条获取每个文档,然后判断文档中是否包含所需要的词条,是根据文档找词条的过程

  • 倒排索引则相反,是先找到用户要搜索的词条,根据词条(再倒排索引表中)先得到词条的文档的id,然后再根据获得的id去数据表中获取对应的文档。是根据词条找文档的过程

是不是恰好反过来了?

那么两者方式的优缺点是什么呢?

正向索引

  • 优点:
    • 可以给多个字段创建索引
    • 根据索引字段搜索、排序速度非常快
  • 缺点:
    • 根据非索引字段,或者索引字段中的部分词条查找时,只能全表扫描。

倒排索引

  • 优点:
    • 根据词条搜索、模糊搜索时,速度非常快
  • 缺点:
    • 只能给词条创建索引,而不是字段
    • 无法根据字段做排序

 elasticSearch特定的一些概念

文档和字段

elasticsearch是面向**文档(Document)**存储的,可以是数据库中的一条商品数据,一个订单信息。文档数据会被序列化为json格式后存储在elasticsearch中:

 可以看见数据库的每一行数据都被序列化成了json数据,每一个json数据对应的key就是字段名

每一个json数据就是叫做文档(document),json数据里面的key值就是字段(Field) 

索引和映射 

索引(Index),就是相同类型的文档的集合。一个索引就是相当于数据库中的一张数据表

也就是说一个索引包含了很多相同类型的文档

例如:

  • 所有用户文档,就可以组织在一起,称为用户的索引;
  • 所有商品的文档,可以组织在一起,称为商品的索引;
  • 所有订单的文档,可以组织在一起,称为订单的索引;

 

因此,我们可以把索引当做是数据库中的表。

数据库的表会有约束信息,用来定义表的结构、字段的名称、类型等信息。因此,索引库中就有映射(mapping)是索引中文档的字段约束信息,类似表的结构约束。

mysql与elasticsearch对比 

我们统一的把mysql与elasticsearch的概念做一下对比:

MySQLElasticsearch说明
TableIndex索引(index),就是文档的集合,类似数据库的表(table)
RowDocument文档(Document),就是一条条的数据,类似数据库中的行(Row),文档都是JSON格式
ColumnField字段(Field),就是JSON文档中的字段,类似数据库中的列(Column)
SchemaMappingMapping(映射)是索引中文档的约束,例如字段类型约束。类似数据库的表结构(Schema)
SQLDSLDSL是elasticsearch提供的JSON风格的请求语句,用来操作elasticsearch,实现CRUD
  • Mysql:擅长事务类型操作,可以确保数据的安全和一致性

  • Elasticsearch:擅长海量数据的搜索、分析、计算

因此在企业中,往往是两者结合使用:

  • 对安全性要求较高的写操作,使用mysql实现
  • 对查询性能要求较高的搜索需求,使用elasticsearch实现
  • 两者再基于某种方式,实现数据的同步,保证一致性

 

安装elasticSeacher并部署单例es

 创建网络

因为我们还需要部署kibana容器,因此需要让es和kibana容器互联。这里先创建一个网络: 

创建网络的原因是在同一网络中的容器(即kibana)可以直接通过容器的名字(es)来获取 es的ip地址

docker network create es-net

 创建成功

加载es镜像和kibana镜像 

docker pull ... 

加载压缩包

docker load -i es.tar 

运行es镜像

docker run -d \
--name es \
    -e "ES_JAVA_OPTS=-Xms512m -Xmx512m" \
    -e "discovery.type=single-node" \
    -v es-data:/usr/share/elasticsearch/data \
    -v es-plugins:/usr/share/elasticsearch/plugins \
    --privileged \
    --network es-net \
    -p 9200:9200 \
    -p 9300:9300 \
elasticsearch:7.12.1

命令解释:

  • -e "cluster.name=es-docker-cluster":设置集群名称
  • -e "http.host=0.0.0.0":监听的地址,可以外网访问
  • -e "ES_JAVA_OPTS=-Xms512m -Xmx512m":内存大小
  • -e "discovery.type=single-node":非集群模式
  • -v es-data:/usr/share/elasticsearch/data:挂载逻辑卷,绑定es的数据目录(如果没有这个数据卷,可以自动创建)
  • -v es-logs:/usr/share/elasticsearch/logs:挂载逻辑卷,绑定es的日志目录
  • -v es-plugins:/usr/share/elasticsearch/plugins:挂载逻辑卷,绑定es的插件目录
  • --privileged:授予逻辑卷访问权
  • --network es-net :加入一个名为es-net的网络中
  • -p 9200:9200:端口映射配置,http访问的入口
  • -p 9300:9300:tcp协议端口,用于集群模式下节点与节点之间的心跳检查的

在浏览器中输入:http://192.168.230.100:9200 即可看到elasticsearch的响应结果: 

部署kibana 

kibana可以给我们提供一个elasticsearch的可视化界面,便于我们学习。 

docker run -d \
--name kibana \
-e ELASTICSEARCH_HOSTS=http://es:9200 \
--network=es-net \
-p 5601:5601  \
kibana:7.12.1
  • --network es-net :加入一个名为es-net的网络中,与elasticsearch在同一个网络中
  • -e ELASTICSEARCH_HOSTS=http://es:9200":设置elasticsearch的地址,因为kibana已经与elasticsearch在一个网络,因此可以用容器名直接访问elasticsearch
  • -p 5601:5601:端口映射配置

kibana启动一般比较慢,需要多等待一会,可以通过命令:

docker logs -f kibana

查看运行日志,当查看到下面的日志,说明成功:

 

查看kibana

192.168.230.100:5601,里面的dev tools

这个界面中可以编写DSL来操作elasticsearch。并且对DSL语句有自动补全功能。

DSL就是elasticsearch提供的特殊语法,基本格式如下:

[请求方式] /[请求路径]
{
    [请求参数key1]: [请求参数value1],
    [请求参数key2]: [请求参数value2]
}

例如

GET /_analyze
{
  "analyzer": "standard",
  "text": "华为手机"
}

运行结果后默认是把文档拆成一个一个字的词条 

安装IK分词器

 因为默认的行为是把文档拆成一个一个字的词条,不符合我们的习惯,所以需要安装国内的开源的IK分词器

下载压缩包

https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.12.1/elasticsearch-analysis-ik-7.12.1.zip

解压这个压缩包得到ik文件夹

查询到es-plugins数据卷存在的实际位置

 cd到这个实际位置,并把ik文件夹拉到这个目录中

重启es容器

docker restart es

测试:

IK分词器包含两种模式:

  • ik_smart:最少切分

  • ik_max_word:最细切分

使用最少切分的模式可以把华为,手机分割出来,但是对于网络热词无法切分 

 使用ik_max_word模式进行分词,可以发现分出来的词更加细腻,把"程序员"还分成了"程序"和"员"

扩展IK分词器

随着互联网的发展,“造词运动”也越发的频繁。出现了很多新的词语,在原有的词汇列表中并不存在。比如:“奥力给”,“我了个豆”等。

所以我们的词汇也需要不断的更新,IK分词器提供了扩展词汇的功能。我们可以自己进行配置

进入ik的config目录 

cd ik/config

 

在IKAnalyzer.cfg.xml配置文件内容添加:ext.dic

<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
<properties>
        <comment>IK Analyzer 扩展配置</comment>
        <!--用户可以在这里配置自己的扩展字典 -->
        <entry key="ext_dict">ext.dic</entry>
         <!--用户可以在这里配置自己的扩展停止词字典-->
        <entry key="ext_stopwords"></entry>
        <!--用户可以在这里配置远程扩展字典 -->
        <!-- <entry key="remote_ext_dict">words_location</entry> -->
        <!--用户可以在这里配置远程扩展停止词字典-->
        <!-- <entry key="remote_ext_stopwords">words_location</entry> -->
</properties>

 这里没有配置ext.dic的文件路径,说明和IKAnalyzer.cfg.xml在同一个目录下

vim ext.dic

在这个文件中添加词汇 

 

然后重启es

docker restart es 

测试,可以发现我勒个豆已经成为一个最小单元的词条

 停用词词典

在互联网项目中,在网络间传输的速度很快,所以很多语言是不允许在网络上传递的,如:关于宗教、政治等敏感词语,那么我们在搜索时也应该忽略当前词汇。 

IK分词器也提供了强大的停用词功能,让我们在索引时就直接忽略当前的停用词汇表中的内容

 1)IKAnalyzer.cfg.xml配置文件内容添加:

<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
<properties>
        <comment>IK Analyzer 扩展配置</comment>
        <!--用户可以在这里配置自己的扩展字典-->
        <entry key="ext_dict">ext.dic</entry>
         <!--用户可以在这里配置自己的扩展停止词字典  *** 添加停用词词典-->
        <entry key="ext_stopwords">stopword.dic</entry>
</properties>

 2)打开stopword.dic(config中已经存在,不用重新创建)

添加屏蔽词汇

3)重启es

docker restart es 

4)测试

直接把不显示屏蔽词

 总结:
分词器的作用

  • 创建倒排索引时对文档进行分词
  • 用户搜索时,对输入的内容进行分词

IK分词器有几种模式

  • ik_smart:智能切片,粗粒度
  • ik_max_word:最细分片,细粒度


原文地址:https://blog.csdn.net/luosuss/article/details/142962807

免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!