Elasticsearch内置的分词器对中文不友好,只会一个字一个字的分,无法形成词语,比如:
1 | POST /_analyze |
如果我们使用的是standard的分词器,那么结果就是:
1 | { |
显然这对中文来说并不友好,它显示的每一个汉字。好在Elastic的大拿medcl已经为我们做好IK中文分词器。下面我们来详细介绍如何安装并使用中文分词器。具体的安装步骤可以在地址https://github.com/medcl/elasticsearch-analysis-ik找到。
记录工作中的点点滴滴
Elasticsearch内置的分词器对中文不友好,只会一个字一个字的分,无法形成词语,比如:
1 | POST /_analyze |
如果我们使用的是standard的分词器,那么结果就是:
1 | { |
显然这对中文来说并不友好,它显示的每一个汉字。好在Elastic的大拿medcl已经为我们做好IK中文分词器。下面我们来详细介绍如何安装并使用中文分词器。具体的安装步骤可以在地址https://github.com/medcl/elasticsearch-analysis-ik找到。
ICU Analysis插件是一组将Lucene ICU模块集成到Elasticsearch中的库。 本质上,ICU的目的是增加对Unicode和全球化的支持,以提供对亚洲语言更好的文本分割分析。 从Elasticsearch的角度来看,此插件提供了文本分析中的新组件,如下表所示:
我们可以首先到Elasticsearch的安装目录打入如下的命令:
1 | $ pwd |
上面显示我已经安装好了三个插件。上面的analysis-ik及pinyin都是为中文而准备的。
注意:如果你们在使用上面的elasticsearch-plug list命名出现如下的错误的话:
那么请使用如下的命令来删除在当前目录下的.DS_Store目录:
1 | sudo find /Path/to/your/elasticsearch-folder -name ".DS_Store" -depth -exec rm {} \; |
然后重新运行上面的命令就不会有问题了。
在实际的搜索中,我们有时候会打错字,从而导致搜索不到。在Elasticsearch中,我们可以使用fuzziness属性来进行模糊查询,从而达到搜索有错别字的情形。
match查询具有“fuziness”属性。它可以被设置为“0”, “1”, “2”或“auto”。“auto”是推荐的选项,它会根据查询词的长度定义距离。
返回包含与搜索词相似的词的文档,以Levenshtein编辑距离测量。
编辑距离是将一个术语转换为另一个术语所需的一个字符更改的次数。 这些更改可以包括:
为了找到相似的词,模糊查询会在指定的编辑距离内创建搜索词的所有可能变化或扩展的集合。 查询然后返回每个扩展的完全匹配。
在我们的实际部署中,我们的各个node(节点)的能力是不一样的。比如有的节点的计算能力比较强,而且配有高性能的存储,速度也比较快,同时我们可能有一些node的能力稍微差一点,比如计算能力及存储器的速度都比较差一点。针对这两种情况,我们其实可以把这两种节点用来做不同的用途:运算能力较强的节点可以用来做indexing(建立索引表格)的工作,而那些能力较差一点的节点,我们可以用来做搜索用途。我们可以把这两种节点分别叫做:
这种架构在Elasticsearch中,我们称之为hot/warm架构。
我们可以使用hot node来做indexing:
在上一篇文章 “Elasticsearch:运用scroll接口对大量数据实现更好的分页”,我们讲述了如何运用scroll接口来对大量数据来进行有效地分页。在那篇文章中,我们讲述了两种方法:
对于大量的数据而言,我们尽量避免使用from+size这种方法。这里的原因是index.max_result_window的默认值是10K,也就是说from+size的最大值是1万。搜索请求占用堆内存和时间与from+size成比例,这限制了内存。假如你想hit从990到1000,那么每个shard至少需要1000个文档:
为了避免过度使得我们的cluster繁忙,通常Scroll接口被推荐作为深层次的scrolling,但是因为维护scroll上下文也是非常昂贵的,所以这种方法不推荐作为实时用户请求。search_after参数通过提供实时cursor来解决此问题。 我们的想法是使用上一页的结果来帮助检索下一页。
我们先输入如下的文档到twitter索引中:
1 | POST _bulk |