本站内容均来自兴趣收集,如不慎侵害的您的相关权益,请留言告知,我们将尽快删除.谢谢.
最近紧急承接了一个以ES为基础的项目,核心功能是数据检索,然而我发现项目的性能有大问题亟待优化。因此ES学习任务的优先级被提到了最高,而容器化和事务专题的整理任务往后顺延。正好赶上中秋节,有机会巩固一下基础顺便对之前学习的内容进行阶段性总结。
本文作为三方件专题的第一篇,介绍ES的基础内容,包括:ES的基本概念、Http接口以及Java相关API等;分布式相关的概念和ES性能调优等放在ES高级篇中介绍。
本文的核心目的是支撑后续开发中的快速查询,也可以帮助读者快速入门ES。
1.1 索引
索引类似Mysql的schema,是一个分组的概念,不同的索引库相互隔离;也可以理解成是文档数据的集合。ES对外提供的能力都以HTTP接口形式呈现,而这些接口基本都需要指定索引。在ES节点或集群中可以有任意数量的索引,需要保证索引名全局唯一。
1.2 类型
ES废弃了其他不必要的类型(6.X版本后),目前只有_doc文档类型一种。
1.3 文档
文档以JSON格式存在于索引库中(类似于数据库记录),是ES与外界交互的最小颗粒,入库和查询时都以文档为单位。在百度或google上搜索关键字得到的返回结果就是文档列表。
1.4 mapping
1.4.1 mapping介绍
为所属ES库指定字段类型,可以自己定义(显示映射
),也可以让ES自动生成(动态映射
);后续入库文档对应的字段类型必须与此保持一致,否则会入库失败并抛出异常。
可在新建索引时同时设置mapping,不设置mapping默认为空:
#创建索引库-同时指定mapping映射 PUT http://localhost:9200/sheng { "mappings":{ "properties":{ "name":{ "type":"text", "index":true, "analyzer":"ik_max_word" }, "age":{ "type":"integer", "index":true }, "email":{ "type":"keyword", "index":true } } } }
查询sheng索引库的映射:
GET http://localhost:9200/sheng/_mapping #得到结果: { "sheng": { "mappings": { "properties": { "age": { "type": "integer" }, "email": { "type": "keyword" }, "name": { "type": "text", "analyzer": "ik_max_word" } } } } }
其中:
type为字段指定类型,如keyword和text表示字符串类型,在字段类型汇中进行介绍;
analyzer用于指定入库分析器类型,包括ik_max_word和ik_smart等,后续在分析器中介绍;
index表示是否作为索引,false表示不作为索引,即不进行倒排索引,因此无法作为关键字搜索;
需要注意:mapping中的字段类型只能新增不能修改或删除;
1.4.2 mapping常用的字段类型
1.字符串类型:
ES取消了string类型(5.x版本以后),由text和keyword取代:
(1) text支持分词—全文检索,不支持聚合、排序操作;
(2) keyword不进行分词—直接检索,支持聚合、排序操作。
2.整数和浮点类型:
常见有integer, long, short, byte, double, float(与java无区别兩略); 注意也可以传入类似”1″等字符串型整数;
3.布尔类型:
boolean(与java无区别兩略)
4.日期类型:
类型为date,支持以下格式:
[1]2015-01-01
,2015/01/01 12:10:30
[2] long类型的毫秒数
[3] integer的秒数
建议同时使用format指定时间格式(指定后-必须完全匹配), 如:
#POST http://localhost:9200/sheng/_mapping { "properties":{ "testdayf":{ "type":"date", "format": "yyyy-MM-dd HH:mm:ss", "index":true } } }
入库时,文档的testdayf字段必须为 2022-12-12 12:12:12形式,即使2022-12-12也会报错;
5.二进制类型
binary类型接受base64编码的字符串和二进制数据,默认不可搜索
。
使用被指定为binay类型的字段进行搜索时,抛出如下异常:
{ "type": "query_shard_exception", "reason": "Binary fields do not support searching", "index_uuid": "coAY6GXuRfm7V4Dca5fKpQ", "index": "sheng" }
返回时,随文档一起放回:
GET http://localhost:9200/sheng/_doc/21 { "_index": "sheng", "_type": "_doc", "_id": "21", "_version": 1, "_seq_no": 3, "_primary_term": 1, "found": true, "_source": { "name": "sy21", "age": 21, "binatytest": "1MOyoQIABAAAAAAAAAAAAAAABAAEABkzMau+fbwAACABF..." } }
6.复合类型:
数组: 默认任何字段都可以包括多个值,不过数组中所有值必须具有相同的数据类型
在索引库中新增以下映射:
{ "properties": { "name": { "type": "text", "index": true }, "addr": { "type": "text", "index": true } } }
新建文档:
POST http://localhost:9200/sheng/_doc/1 { "name":"sy1", "addr":["beijing","nanjing","shanghai"] }
查询文档:
{ "_index": "sheng",//... "_source": { "name": "sy1", "addr": [ "beijing", "nanjing", "shanghai" ] } }
对象: JSON格式数据
在索引库中新增以下映射:
{ "properties": { "name": { "type": "text" }, "addr1": { "properties": { "addr21": { "type": "text" }, "addr22": { "properties": { "addr31": { "type": "text" }, "addr32": { "type": "text" } } } } } } }
新建文档:
{ "name": "sy1", "addr1": { "addr21": "21", "addr22": { "addr31": "31", "addr32": "32" } } }
查询文档:
{ "_index": "sheng", //... "_source": { "name": "sy1", "addr1": { "addr21": "21", "addr22": { "addr31": "31", "addr32": "32" } } } }
嵌套: Map格式数据
在索引库中新增以下映射:
{ "properties": { "name": { "type": "nested" } } }
新增文档:
{ "name":{ "name1":"1", "name2":"2" } }
查询文档:
{ "_index": "sheng",//... "_source": { "name": { "name1": "1", "name2": "2" } } }
1.6 分词器
分析器由字符过滤器s、 一个分词器、词元过滤器s组成。其中核心是分词器,因此很多资料上对二者没有严格的区分;过滤器主要用于剥离HTML元素、字符替换,以及去除停词(如:a, is,the)等。本文不深究分析器内部组成原理,因此后文对分析器和分词器概念不再做区分,一律使用分词器表示。
需要注意的是:text字符类型支持分词而keyword不支持,因此分析器的概念是针对text类型的字符串,对其他类型字段分词没有意义;因此后文提及文档入库以及检索时的分词概念均针对text类型, 不再单独强调。
分词器在文档入库以及检索时发挥作用,可手动指定或使用默认分词器:
文档入库时,分词器的优先级顺序排序如下:
1.字段指定的analyzer(文档中指定或者mapping中指定);
2.settings中配置的默认分词器;
3.使用默认的standard分词器;
检索文档时,分词器的优先级顺序排序如下:
1.搜索时指定的search_analyzer;
2.mapping中对应字段的search_analyzer分词器类型;
3.settings中配置的默认分词器;
4.使用默认的standard分词器;
在ES中,可配置ES自带的或第三方提供的或自定义的分词器。如默认的standard分析器为ES自带,中文相关的ik_smart和ik_max_word插件来自第三方(安装教程见附录2),以下简单介绍一下这三类分词器的使用:
standard:
基于unicode文本分割算法进行分词:
POST http://localhost:9200/_analyze { "analyzer":"standard", "text":"I had a dream, when I was young." }
按照空格和特殊字符进行分割后,还会将所有单词转为小写:
{ "tokens": [ { "token": "i", "start_offset": 0, "end_offset": 1, "type": "word", "position": 0 }, { "token": "had", "start_offset": 2, "end_offset": 5, "type": "word", "position": 1 }, { "token": "a", "start_offset": 6, "end_offset": 7, "type": "word", "position": 2 }, { "token": "dream", "start_offset": 8, "end_offset": 13, "type": "word", "position": 3 }, { "token": "when", "start_offset": 15, "end_offset": 19, "type": "word", "position": 4 }, { "token": "i", "start_offset": 20, "end_offset": 21, "type": "word", "position": 5 }, { "token": "was", "start_offset": 22, "end_offset": 25, "type": "word", "position": 6 }, { "token": "young", "start_offset": 26, "end_offset": 31, "type": "word", "position": 7 } ] }
ik_smart和ik_max_word
使用ik_smart分词器:
POST http://localhost:9200/_analyze { "analyzer":"ik_smart", "text":"我年轻时有个梦想" }
得到以下分词结果:
{ "tokens": [ { "token": "我", "start_offset": 0, "end_offset": 1, "type": "CN_CHAR", "position": 0 }, { "token": "年轻", "start_offset": 1, "end_offset": 3, "type": "CN_WORD", "position": 1 }, { "token": "时有", "start_offset": 3, "end_offset": 5, "type": "CN_WORD", "position": 2 }, { "token": "个", "start_offset": 5, "end_offset": 6, "type": "CN_CHAR", "position": 3 }, { "token": "梦想", "start_offset": 6, "end_offset": 8, "type": "CN_WORD", "position": 4 } ] }
使用ik_max_word分词器:
{ "tokens": [ { "token": "我", "start_offset": 0, "end_offset": 1, "type": "CN_CHAR", "position": 0 }, { "token": "年轻时", "start_offset": 1, "end_offset": 4, "type": "CN_WORD", "position": 1 }, { "token": "年轻", "start_offset": 1, "end_offset": 3, "type": "CN_WORD", "position": 2 }, { "token": "时有", "start_offset": 3, "end_offset": 5, "type": "CN_WORD", "position": 3 }, { "token": "个", "start_offset": 5, "end_offset": 6, "type": "CN_CHAR", "position": 4 }, { "token": "梦想", "start_offset": 6, "end_offset": 8, "type": "CN_WORD", "position": 5 } ] }
发现ik_max_word尽可能地进行拆词和组词,而ik_smart基本按照语义进行拆词。
2.ES和kibana安装流程
2.1 ES安装流程
在MAC上基于brew安装ES流程比较简单:
#1.安装ES brew install elastic/tap/elasticsearch-full #2.启动ES brew services start elastic/tap/elasticsearch-full
验证安装是否成功:
注意ES的版本号,安装kibana和ik插件时需要保持版本一致;
2.2 kibana安装流程
kibana可以作为的可视化工具,安装时需要注意保持kibana与es的版本一致性;
下载后进行解压缩安装:
[1] 修改./config/kibana.yml配置文件
server.host: "0.0.0.0" elasticsearch.hosts: ["http://localhost:9200"] i18n.locale: "zh-CN"
[2] 使用非root用户执行kibana
# 注意:给用户添加访问和执行kibana的权限 su seong sh kibana
安装完kibana后,在5601端口侦听:
如上图所示,该ES实例中只有sheng一个索引库,且该索引库只有一个分片。
另外,开发工具页面提供了与ES交互的接口:
3.HTTP接口介绍
ES对外提供Restful风格的Http接口,部分与Restful风格有出入:如创建索引时使用PUT而非POST.
3.1 索引相关
索引接口格式为:http://localhost:9200/${index_name}
, 支持 [DELETE, PUT, GET, HEAD]方法,即索引支持新增、按名称删除和查询,不支持修改。
3.1.1 创建索引
PUT http://localhost:9200/sheng #得到 { "acknowledged": true, "shards_acknowledged": true, "index": "seong" }
如果索引已存在,会抛出异常:resource_already_exists_exception.
3.1.2 删除索引
DELETE http://localhost:9200/sheng #得到 { "acknowledged": true }
被删除的索引不存在时,抛出异常:index_not_found_exception.
3.1.3 查询索引
PUT http://localhost:9200/sheng #得到 { "acknowledged": true, "shards_acknowledged": true, "index": "seong" }
不存在时,抛出异常:index_not_found_exception.
3.2 mapping相关
映射的接口格式为http://localhost:9200/sheng/_mapping
, 支持 [POST, PUT, GET]方法,即映射支持新增、修改和查询,不支持删除;
需要注意兩映射中字段类型一旦创建,不可修改和删除,因此PUT方法只能新增字段类型。
{ "properties": { "name1": { "type": "text", "index": true }, "name2": { "type": "long", "index": true } } }
该接口可同时添加多个字段的类型,操作为事务型,一个失败-所有添加操作都会失败;
注意:mapping的字段类型只能添加不能修改和删除;当新增的字段与原字段相同时-忽略,冲突时-抛出异常;
3.3 settings相关
3.3.1 查询指定索引的settings配置
仅支持PUT和GET方法,支持查询和局部修改;
GET http://localhost:9200/seong1/_settings #得到 { "seong1": { "settings": { "index": { "creation_date": "1662348474856", // 时间戳 "number_of_shards": "1", // 分片数 "number_of_replicas": "0", // 副本数 "uuid": "Plq_afNyQtuCLSixd9-1vA", // 唯一Id "version": { "created": "7090399" // ES版本号 }, "provided_name": "seong1" // 所属索引 } } } }
3.3.3 修改指定索引的settings配置
settings中的配置分为静态配置和动态配置,其中静态配置(如 number_of_shards)不可修改;
PUT http://localhost:9200/seong1/_settings { "settings": { "number_of_replicas": "2" } }
3.4 文档操作相关
文档支持新增、修改、删除、查询以及批量查询和关键字检索等;
3.4.1 文档新增
#POST http://localhost:9200/sheng/_doc/{ id} { "name":"zhangsan", "age":18, "email":"[email protected]" }
创建时,可以指定文档的id,建议与文档内容保持相关性;如文档为身份信息,可以用身份证ID作为文档的id;
如果文档存在,则覆盖原来的文档;
3.4.2 文档更新
更新效果同新增,完全覆盖;没有-新增,有-覆盖;对应PUT方法;
3.4.3 按文档ID删除文档
#DELETE http://localhost:9200/sheng/_doc/{ id}
3.4.4 按文档ID查询文档
GET http://localhost:9200/sheng/_doc/{ id} #得到 { "_index": "test1", "_type": "_doc", "_id": "3", "_version": 2, "_seq_no": 20, "_primary_term": 1, "found": true, "_source": { "id": 2, "name": "test2" } }
3.4.5 按文档ID批量查询文档
GET http://localhost:9200/test1/_mget #得到 { "docs":[ { "_id":"4" }, { "_id":"5" } ] }
3.5 检索功能
文档检索使用http://localhost:9200/test1/_search
, 为GET类型方法,存在不同的检索方式,区别在于消息体;
{ "query":{ #ES多种类型的检索条件 match:{ } // 1.直接匹配 wildcard:{ } //2.可解析通配符,模糊查询 fuzzy:{ } //3.模糊、纠错查询 bool:{ }//4.布尔查询,重点 }, "from": 0, #from从0开始表示第一项,size表示一次查询的数量,基于此可以实现分页查询。 "size": 6 }
常用的查询有以上四种类型,且query中不能同时支持多种类型的查询条件。
3.5.1 match
#GET http://localhost:9200/test1/_search { "query":{ "match":{ "name":"test2" } } }
query.match中的字段表示需要精确匹配的项,案例表示在test1索引库中搜索所有name为test2的文档;
3.5.2 wildcard
#GET http://localhost:9200/test1/_search { "query":{ "wildcard":{ "name":"*test*" } } }
query.wildcard中的字段表示进行模糊匹配,案例表示在test1索引库中搜索所有name包含test的文档;
3.5.3 fuzzy
#GET http://localhost:9200/test1/_search { "query":{ "wildcard":{ "name":"*test*" } } }
query.fuzzy中与wildcard类似,但是有纠错能力,如test2, 也可以搜索test;
3.5.4 bool
bool功能较为强大,内部可以包含must和must_not以及should:
{ "query":{ "bool":{ "must":[], #表示必须 "must_not":[], #表示必须不 "should":[] #表示至少满足一个 } } }
每个must,must_not,should为数组类型,内部可以包含多个条件项;
另外,must/must_not/should可以同时出现,根据组合的不同-发挥的效果也不同:
(1) 单独出现:
must:[] 表示内部条件项必须全部满足;
must_not:[] 表示内部条件向必须全部不满足——要幺不存在,要幺存在-值不满足;
must_not:[] 表示内部条件至少有一个满足;
(2) must与must_not组合
must内所有条件项满足,must_not所有条件项不满足;
(3) must与should组合
must内所有条件项满足,should不用于过滤而仅用于打分,满足should的分数被提高;
(4) must_not与should组合
此时should至少满足一个,然后与must_not取并集;
(5) must与must_not与should组合
must与must_not组合过滤,此时should不用于过滤而用于打分
如下所示是一个布尔查询,结合了must,must_not和should:
#GET http://localhost:9200/sheng/_search { "query":{ "bool":{ "must":[ { "match":{ "name":"xx" } } ], "must_not":[ { "match":{ "age":22 } } ], "should":[ { "match":{ "email":"[email protected]" } } ] } } }
上述案例表示:查询所有name为”xx”且age不为22(文档不存在该字段或文档age字段值不为22),并提高满足email为”[email protected]”的文档的得分。
需要注意的是bool除了可以存在于query内部,也可以作为查询条件嵌入到must中(详见附录: 附录中总结了一些常见条件逻辑关于Bool查询的实现,方便以后查询).
注意点:
[1] must可被filter替换,二者均表示必须满足条件;区别在于filter不进行打分且存在缓存,因此效率高于must;
[2] match可被term替换,区别在于term精确匹配, match模糊匹配。
除此之外,还有很多查询条件如terms等,本文不再介绍。
3.6 高亮显示
在检索文档时,可在query平行位置添加hightlight对象,提示ES返回高亮信息;
{ "query": { "bool": { "must":[ // {"term":{"A":"x"}}, { "term":{ "B":"x"}} ] } }, "highlight": { "require_field_match": "false", "fields": { "A": { }, "B": { }, "C": { } } } }
默认require_field_match为true, 表示仅会高亮用于搜索的字段;即此时仅会高亮B字段中的x值;
当require_field_match设置为false时,fields中的字段值均会高亮; 即此时会高亮A或B或C字段中x值.
3.7 遍历全部数据
ES提供了分页查询的能力,如下所示:
# http://localhost:9200/sheng/_search { "query": { "match": { "name": "sy" } }, "from": 0, "size": 50 }
但是出现深查询或者特殊场景全量查询时,分页查询就无能为力了。一方面是因为ES默认最多查询1W条数据(可配置),另一方面是深查询效率较低,分页的实现机制:查询前n条数据,并从中截取所需的分页返回。
此时可借助scroll进行滚动查询:
返回值有有一个_scroll_id字段,再次查询时可借助该字段标记的位置继续往下查询:
此时查询的结果为空,即上一次查询已查完了所有文档;递归遍历ES索引库时,也可以根据返回的hits数组长度是否为0作为结束条件。
4. Java相关API
Java基于ES提供的restful型HTTP接口进行了一层封装;
4.1 建立与关闭链接对象
Java与ES的操作被封装成RestHighLevelClient对象,可以通过调用RestHighLevelClient类提供的方法,间接调用ES提供的restful型的HTTP接口。
// 通过es服务器的ip和端口进行连接,port默认一般为9200 public RestHighLevelClient getClient() { return new RestHighLevelClient(RestClient.builder(new HttpHost(host, port, "http"))); }
关闭client对象:
public void closeClient(RestHighLevelClient client) { if (client != null) { try { client.close(); } catch (Exception e) { logger.warn("close client failed", e); } } }
4.2 新增文档
如果ID为2的文档存在—进行覆盖,不存在—新增;
IndexRequest indexRequest = new IndexRequest(); Map<String, Object> map = new HashMap(); map.put("name", "testSy002"); map.put("description", "hello sy!"); indexRequest.index("seong").id(2).source(map); client.index(indexRequest, RequestOptions.DEFAULT);
4.3 修改文档
4.3.1 修改指定文档的字段
// 必要操作,更新前如果不存在-会抛出ElasticsearchStatusException异常 GetResponse getResponse = client.get(new GetRequest().index("seong").id(id), RequestOptions.DEFAULT); if (!getResponse.isExists()) { return;// 更新之前进行查询,如果文档不存在不进行更新 } // 以map形式构建更新的文档,如果id文档有name字段-进行覆盖,没有-新增 Map<String, Object> map = new HashMap<>(1); map.put("name", "testSy"); // 执行更新操作 UpdateRequest updateRequest = new UpdateRequest().index("seong1").id(id).doc(map); client.update(updateRequest, RequestOptions.DEFAULT);
4.3.2 删除指定文档的字段
UpdateRequest支持脚本语言,通过Script对象进行包装;
// 删除指定的字段 Script script = new Script("ctx._source.remove(\"" + field + "\")") UpdateRequest updateRequest = new UpdateRequest.index("seong").id("1").script(script));
=> 可用于 删除所有文档的指定字段:查询文档集合-bulkrequest-bulk();
此时,仅删除文档中的该字段,但是mapping中数据不会变化;
4.4 删除文档
4.4.1 根据文档id删除文档
// 根据ID删除文档对应DeleteRequest对象 DeleteRequest request = new DeleteRequest().index("seong").id(id); DeleteResponse response = client.delete(request, RequestOptions.DEFAULT);
4.5 批量操作
批量操作对应于BulkRequest
和BulkResponse
对象;
BulkRequest对象中可以添加任意数量的操作,从而进行批次处理;
BulkRequest request = new BulkRequest(); request.add(new DeleteRequest().index("seong").id(1); request.add(new DeleteRequest().index("seong").id(2); request.add(new DeleteRequest().index("seong").id(3); request.add(new DeleteRequest().index("seong").id(4); request.add(new DeleteRequest().index("seong").id(5); ... BulkResponse response = client.bulk(request, RequestOptions.DEFAULT);
case:批量删除ES索引库中的所有文档
while (true) { BulkRequest request = new BulkRequest(); SearchResponse response = client.search(new SearchRequest().indices("seong") .source(new SearchSourceBuilder().size(10000)), RequestOptions.DEFAULT); if (response.getHits().getHits().length > 0) { for (SearchHit hit : response.getHits().getHits()) { request.add(new DeleteRequest().index("seong").id(hit.getId())); } client.bulk(request, RequestOptions.DEFAULT); } else { break; } }
4.6 查询操作
4.6.1 根据文档id进行查询
// 根据id查询操作对应GetRequest和GetResponse对象 GetRequest request = new GetRequest().index("seong").id(id); GetResponse response = client.get(request, RequestOptions.DEFAULT)
4.6.2 根据字段-精确匹配查询
// 查询操作对应SearchRequest对象 SearchRequest request = new SearchRequest(); SearchSourceBuilder sourceBuilder = new SearchSourceBuilder() .query(QueryBuilders.termQuery(field, fieldValue)) //hit.field=fieldValue精确匹配 .from(0).size(10000) //分页查询从1到1万 request.indices("seong") //指定需要查询的索引库 .source(sourceBuilder);// 设置查询条件 // 可以从response的hits属性中可以得到查询结果 SearchResponse response = client.search(request, RequestOptions.DEFAULT); SearchHits hits = response.getHits();
4.6.3 根据关键字匹配
// 构建BoolQuery BoolQueryBuilder boolQuery = QueryBuilders.boolQuery() //should表示可以 .should(QueryBuilders.wildcardQuery("id", "*1*")) *表示匹配全部 .should(QueryBuilders.matchQuery("name", "sy")) .must(QueryBuilders.matchQuery("age", 11) // query中加入查询的过滤条件,也可以加上from(0).size(10000)分页进行查询 SearchSourceBuilder source = new SearchSourceBuilder().query(boolQuery); // 查询模板 SearchRequest request = new SearchRequest().indices("seong").source(source); SearchResponse response = client.search(request, RequestOptions.DEFAULT);
BoolQuery实现原理:
{ "query":{ "bool":{ "must":[ { "match":{ "age":"11"} } ], "should":[ { "match":{ "id":"*1*"} }, { "match":{ "name":"sy"} }, ] } } }
4.7 Mapping操作
mapping用于为索引库中文档的字段指定类型,不指定时-ES自动推测; 添加mapping时,可以通过Map也可以通过XContentBuilder,但是传入Map对象时,也会转成XContentBuilder对象,且mapping中层次比较多,因此推荐直接使用XContentBuilder.
// 构建XContentBuilder对象 XContentBuilder builder = XContentFactory.jsonBuilder() .startObject() .startObject("properties") .startObject(tagType.getType()) .field("type", "text") .field("analyzer", "ik_smart") .field("search_analyzer", "ik_smart") .startObject("fields") .startObject("raw") .field("type", "keyword") .endObject() .endObject() .endObject() .endObject() .endObject(); // 向"seong"索引库添加mapping信息 PutMappingRequest mappingRequest = new PutMappingRequest("seong").source(builder); client.indices().putMapping(mappingRequest, RequestOptions.DEFAULT);
上述XContentBuilder对于的json对象可以表示为:
{ "properties": { "type": "text", "analyzer": "ik_smart", "search_analyzer": "ik_smart", "fields":{ "raw":{ "type": "keyword"} } } }
附录1:bool搜索与条件逻辑
使用A、B、C、D表示文档的4种属性; 用A表示文档的属性为a,B表示文档的属性为b;
条件1:A and B
{ "query":{ "bool":{ "must":[ { "match":{ "A":"a"} }, { "match":{ "A":"a"} } ] } } }
条件2:A or B
{ "query":{ "bool":{ "should":[ { "match":{ "A":"a"} }, { "match":{ "A":"a"} } ] } } }
条件3:A or !B
{ "query": { "bool": { "should": [ { "bool": { "should": [ { "match":{ "A":"a"} } ] } }, { "bool": { "must_not": [ { "match":{ "B":"b"} } ] } } ] } } }
条件4:A and (B or c)
{ "query": { "bool": { "must": [ { "bool": { "must": [ { "match":{ "A":"a"} } ] } }, { "bool": { "should": [ { "match":{ "B":"b"} }, { "match":{ "C":"c"} } ] } } ] } } }
条件5:(A or B) && (C or D)
{ "query": { "bool": { "should": [ { "bool": { "must": [ { "match":{ "A":"a"} }, { "match":{ "B":"b"} } ] } }, { "bool": { "must": [ { "match":{ "C":"c"} }, { "match":{ "D":"d"} } ] } } ] } } }
附录2:ik分词器安装教程
步骤1: 下载ik插件压缩包,注意版本号需要与ES版本还保持一致,否则重启ES可能会失败ik插件下载地址
步骤2: 在./plugins目录下新增ik文件夹;
步骤3: 将压缩文件解压缩到./plugins/ik目录下;
步骤4: 重启ES.
倒排原理:放在ES下篇中
Be First to Comment