PUT /my_index
{
"mappings": {
"blog": {
"properties": {
"title": {
"type": "string",
"analyzer": "english" (1)
}
}
}
}
}
Elasticsearch 为很多世界流行语言提供良好的、简单的、开箱即用的语言分析器集合:
阿拉伯语、亚美尼亚语、巴斯克语、巴西语、保加利亚语、加泰罗尼亚语、中文、捷克语、丹麦、荷兰语、英语、芬兰语、法语、加里西亚语、德语、希腊语、北印度语、匈牙利语、印度尼西亚、爱尔兰语、意大利语、日语、韩国语、库尔德语、挪威语、波斯语、葡萄牙语、罗马尼亚语、俄语、西班牙语、瑞典语、土耳其语和泰语。
这些分析器承担以下四种角色:
文本拆分为单词:
The quick brown foxes
→ [ The
, quick
, brown
, foxes
]
大写转小写:
The
→ the
移除常用的 停用词:
[ The
, quick
, brown
, foxes
] → [ quick
, brown
, foxes
]
将变型词(例如复数词,过去式)转化为词根:
foxes
→ fox
为了更好的搜索性,每个语言的分析器提供了该语言词汇的具体转换规则:
英语
分析器移除了所有格 's
John’s
→ john
法语
分析器移除了 元音省略 例如 l'
和 qu'
和 变音符号 例如 ¨
或 ^
:
l’église
→ eglis
德语
分析器规范化了切词, 将切词中的 ä
和 ae
替换为 a
, 或将 ß
替换为 ss
:
äußerst
→ ausserst
Elasticsearch 的内置分析器都是全局可用的,不需要提前配置,它们也可以在字段映射中直接指定在某字段上:
PUT /my_index
{
"mappings": {
"blog": {
"properties": {
"title": {
"type": "string",
"analyzer": "english" (1)
}
}
}
}
}
title
字段将会用 english
(英语)分析器替换默认的 standard
(标准)分析器
当然,文本经过 english
分析处理,我们会丢失源数据:
GET /my_index/_analyze?field=title (1)
I'm not happy about the foxes
切词为: i’m
,happi
,about
,fox
我们无法分辨源文档中是包含单数 fox
还是复数 foxes
;单词 not
因为是停用词所以被移除了, 所以我们无法分辨源文档中是happy about foxes还是not happy about foxes,虽然通过使用 english
(英语)分析器,使得匹配规则更加宽松,我们也因此提高了召回率,但却降低了精准匹配文档的能力。
为了获得两方面的优势,我们可以使用multifields(多字段)对 title
字段建立两次索引: 一次使用 english
(英语)分析器,另一次使用 standard
(标准)分析器:
PUT /my_index
{
"mappings": {
"blog": {
"properties": {
"title": { (1)
"type": "string",
"fields": {
"english": { (2)
"type": "string",
"analyzer": "english"
}
}
}
}
}
}
}
主 title
字段使用 standard
(标准)分析器。
title.english
子字段使用 english
(英语)分析器。
替换为该字段映射后,我们可以索引一些测试文档来展示怎么在搜索时使用两个字段:
PUT /my_index/blog/1
{ "title": "I'm happy for this fox" }
PUT /my_index/blog/2
{ "title": "I'm not happy about my fox problem" }
GET /_search
{
"query": {
"multi_match": {
"type": "most_fields", (1)
"query": "not happy foxes",
"fields": [ "title", "title.english" ]
}
}
}
使用most_fields
query type(多字段搜索语法来)让我们可以用多个字段来匹配同一段文本。
感谢 title.english
字段的切词,无论我们的文档中是否含有单词 foxes
都会被搜索到,第二份文档的相关性排行要比第一份高, 因为在 title
字段中匹配到了单词 not
。
语言分析器都不需要任何配置,开箱即用, 它们中的大多数都允许你控制它们的各方面行为,具体来说:
想象下某个场景,用户们想要搜索 World Health Organization
的结果, 但是却被替换为搜索 organ health
的结果。有这个困惑是因为 organ
和 organization
有相同的词根: organ
。 通常这不是什么问题,但是在一些特殊的文档中就会导致有歧义的结果,所以我们希望防止单词 organization
和 organizations
被缩减为词干。
英语中默认的停用词列表如下:
a, an, and, are, as, at, be, but, by, for, if, in, into, is, it, no, not, of, on, or, such, that, the, their, then, there, these, they, this, to, was, will, with
关于单词 no
和 not
有点特别,这俩词会反转跟在它们后面的词汇的含义。或许我们应该认为这两个词很重要,不应该把他们看成停用词。
为了自定义 english
(英语)分词器的行为,我们需要基于 english
(英语)分析器创建一个自定义分析器,然后添加一些配置:
PUT /my_index
{
"settings": {
"analysis": {
"analyzer": {
"my_english": {
"type": "english",
"stem_exclusion": [ "organization", "organizations" ], (1)
"stopwords": [ (2)
"a", "an", "and", "are", "as", "at", "be", "but", "by", "for",
"if", "in", "into", "is", "it", "of", "on", "or", "such", "that",
"the", "their", "then", "there", "these", "they", "this", "to",
"was", "will", "with"
]
}
}
}
}
}
GET /my_index/_analyze?analyzer=my_english (3)
The World Health Organization does not sell organs.
防止 organization
和 organizations
被缩减为词干
指定一个自定义停用词列表
切词为 world
、 health
、 organization
、 does
、 not
、 sell
、 organ
我们在 将单词还原为词根 和 停用词: 性能与精度 中分别详细讨论了词干提取和停用词。
如果你只需要处理一种语言,那么你很幸运。找到一个正确的策略用于处理多语言文档是一项巨大的挑战。
多语言文档主要有以下三个类型:
(分词)目标不总是可以实现,我们应当保持将不同语言分隔开。在同一份倒排索引内混合多种语言可能造成一些问题。
德语的词干提取规则跟英语,法语,瑞典语等是不一样的。 为不同的语言提供同样的词干提规则 将会导致有的词的词根找的正确,有的词的词根找的不正确,有的词根本找不到词根。 甚至是将不同语言的不同含义的词切为同一个词根,合并这些词根的搜索结果会给用户带来困恼。
提供多种的词干提取器轮流切分同一份文档的结果很有可能得到一堆垃圾,因为下一个词干提取器会尝试切分一个已经被缩减为词干的单词,这加剧了上面提到的问题。
在 什么是相关性? (相关性教程)中,一个 term (词)在一份文档中出现的频率越高,该term(词)的权重就越低。 为了精确的计算相关性,你需要精确的统计 term-frequency (词频)。
一段德文出现在英语为主的文本中会给与德语单词更高的权重,给那么高权重是因为德语单词相对来说更稀有。 但是如果这份文档跟以德语为主的文档混合在一起,那么这段德文就会有很低的权重。
然而仅仅考虑你的文档是不够的 。你也需要考虑你的用户会怎么搜索这些文档。 通常你能从用户选择的语言界面来确定用户的主语言,(例如, mysite.de
和 mysite.fr
) 或者从用户的浏览器的HTTP header(HTTP头文件) accept-language
确定。
用户的搜索也注意有三个方面:
用户使用他的主语言搜索。
用户使用其他的语言搜索,但希望获取主语言的搜索结果。
用户使用其他语言搜索,并希望获取该语言的搜索结果。(例如,精通双语的人,或者网络咖啡馆的外国访问者)。
根据你搜索数据的类型,或许会返回单语言的合适结果(例如,一个用户在西班牙网站搜索商品),也可能是用户主语言的搜索结果和其他语言的搜索结果混合。
通常来说,给与用户语言偏好的搜索很有意义。一个使用英语的用户搜索时更希望看到英语 Wikipedia 页面而不是法语 Wikipedia 页面。
你很可能已经知道你的文档所选用的语言,或者你的文档只是在你自己的组织内编写并被翻译成确定的一系列语言。人类的预识别可能是最可靠的将语言正确归类的方法。
然而,或许你的文档来自第三方资源且没经过语言归类,或者是不正确的归类。这种情况下,你需要一个学习算法来归类你文档的主语言。幸运的是,一些语言有现成的工具包可以帮你解决这个问题。
详细内容是来自 Mike McCandless 的 chromium-compact-language-detector 工具包,使用的是google开发的基于 (Apache License 2.0)的开源工具包 Compact Language Detector (CLD) 。 它小巧,快速,且精确,并能根据短短的两句话就可以检测 160+ 的语言。 它甚至能对单块文本检测多种语言。支持多种开发语言包括 Python,Perl,JavaScript,PHP,C#/.NET,和 R 。
确定用户搜索请求的语言并不是那么简单。 CLD 是为了至少 200 字符长的文本设计的。字符短的文本,例如搜索关键字,会产生不精确的结果。 这种情况下,或许采取一些简单的启发式算法会更好些,例如该国家的官方语言,用户选择的语言,和 HTTP accept-language
headers (HTTP头文件)。
每个主语言文档 只需要相当简单的设置。 不同语言的文档被分别存放在不同的索引中 — blogs-en
、 blogs-fr
, 如此等等 — 这样每个索引就可以使用相同的类型和相同的域,只是使用不同的分析器:
PUT /blogs-en
{
"mappings": {
"post": {
"properties": {
"title": {
"type": "string", (1)
"fields": {
"stemmed": {
"type": "string",
"analyzer": "english" (2)
}
}}}}}}
PUT /blogs-fr
{
"mappings": {
"post": {
"properties": {
"title": {
"type": "string", (1)
"fields": {
"stemmed": {
"type": "string",
"analyzer": "french" (2)
}
}}}}}}
索引 blogs-en
和 blogs-fr
的 post
类型都有一个包含 title
域。
title.stemmed
子域使用了具体语言的分析器。
这个方法干净且灵活。新语言很容易被添加 — 仅仅是创建一个新索引—因为每种语言都是彻底的被分开, 我们不用遭受在 混合语言的陷阱 中描述的词频和词干提取的问题。
每一种语言的文档都可被独立查询,或者通过查询多种索引来查询多种语言。 我们甚至可以使用 indices_boost
参数为特定的语言添加优先权:
GET /blogs-*/post/_search (1)
{
"query": {
"multi_match": {
"query": "deja vu",
"fields": [ "title", "title.stemmed" ] (2)
"type": "most_fields"
}
},
"indices_boost": { (3)
"blogs-en": 3,
"blogs-fr": 2
}
}
这个查询会在所有以 blogs-
开头的索引中执行。
title.stemmed
字段使用每个索引中指定的分析器查询。
也许用户接受语言标头表明,更倾向于英语,然后是法语,所以相应的,我们会为每个索引的结果添加权重。任何其他语言会有一个中性的权重 1 。
对于一些实体类,例如:产品、电影、法律声明, 通常这样的一份文本会被翻译成不同语言的文档。虽然这些不同语言的文档可以单独保存在各自的索引中。但另一种更合理的方式是同一份文本的所有翻译统一保存在一个索引中。。
{
"title": "Fight club",
"title_br": "Clube de Luta",
"title_cz": "Klub rváčů",
"title_en": "Fight club",
"title_es": "El club de la lucha",
...
}
每份翻译存储在不同的域中,根据域的语言决定使用相应的分析器:
PUT /movies
{
"mappings": {
"movie": {
"properties": {
"title": { (1)
"type": "string"
},
"title_br": { (2)
"type": "string",
"analyzer": "brazilian"
},
"title_cz": { (2)
"type": "string",
"analyzer": "czech"
},
"title_en": { (2)
"type": "string",
"analyzer": "english"
},
"title_es": { (2)
"type": "string",
"analyzer": "spanish"
}
}
}
}
}
title
域含有title的原文,并使用 standard
(标准)分析器。
其他字段使用适合自己语言的分析器。
在维持干净的词频方面,虽然 index-per-language (一种语言一份索引的方法),不像 field-per-language (一种语言一个域的方法)分开索引那么灵活。但是使用 update-mapping
API 添加一个新域也很简单,那些新域需要新的自定义分析器,这些新分析器只能在索引创建时被装配。有一个变通的方案,你可以先关闭这个索引 close ,然后使用 update-settings
API ,重新打开这个索引,但是关掉这个索引意味着得停止服务一段时间。
文档的一种语言可以单独查询,也可以通过查询多个域来查询多种语言。我们甚至可以通过对特定语言设置偏好来提高字段优先级:
GET /movies/movie/_search
{
"query": {
"multi_match": {
"query": "club de la lucha",
"fields": [ "title*", "title_es^2" ], (1)
"type": "most_fields"
}
}
}
这个搜索查询所有以 title
为前缀的域,但是对 title_es
域加权重 2
。其他的所有域是中性权重 1
。
通常,那些从源数据中获得的多种语言混合在一个域中的文档会超出你的控制, 例如从网上爬取的页面:
{ "body": "Page not found / Seite nicht gefunden / Page non trouvée" }
正确的处理多语言类型文档是非常困难的。即使你简单对所有的域使用 standard
(标准)分析器, 但你的文档会变得不利于搜索,除非你使用了合适的词干提取器。当然,你不可能只选择一个词干提取器。 词干提取器是由语言具体决定的。或者,词干提取器是由语言和脚本所具体决定的。像在 每种书写方式一种词干提取器 讨论中那样。 如果每个语言都使用不同的脚本,那么词干提取器就可以合并了。
假设你的混合语言使用的是一样的脚本,例如拉丁文,你有三个可用的选择:
切分到不同的域
进行多次分析
使用 n-grams
如果你主要处理数量有限的语言, 你可以使用多个域,每种语言都分析文本一次。
PUT /movies
{
"mappings": {
"title": {
"properties": {
"title": { (1)
"type": "string",
"fields": {
"de": { (2)
"type": "string",
"analyzer": "german"
},
"en": { (2)
"type": "string",
"analyzer": "english"
},
"fr": { (2)
"type": "string",
"analyzer": "french"
},
"es": { (2)
"type": "string",
"analyzer": "spanish"
}
}
}
}
}
}
}
主域 title
使用 standard
(标准)分析器
每个子域提供不同的语言分析器来对 title
域文本进行分析。
你可以使用 Ngrams 在复合词的应用 中描述的方法索引所有的词汇为 n-grams。 大多数语型变化包含给单词添加一个后缀(或在一些语言中添加前缀),所以通过将单词拆成 n-grams,你有很大的机会匹配到相似但不完全一样的单词。 这个可以结合 analyze-multiple times (多次分析)方法为不支持的语言提供全域抓取:
PUT /movies
{
"settings": {
"analysis": {...} (1)
},
"mappings": {
"title": {
"properties": {
"title": {
"type": "string",
"fields": {
"de": {
"type": "string",
"analyzer": "german"
},
"en": {
"type": "string",
"analyzer": "english"
},
"fr": {
"type": "string",
"analyzer": "french"
},
"es": {
"type": "string",
"analyzer": "spanish"
},
"general": { (2)
"type": "string",
"analyzer": "trigrams"
}
}
}
}
}
}
}
在 analysis
章节, 我们按照 Ngrams 在复合词的应用 中描述的定义了同样的 trigrams
分析器。
在 title.general
域使用 trigrams
分析器索引所有的语言。
当查询抓取所有 general
域时,你可以使用 minimum_should_match
(最少应当匹配数)来减少低质量的匹配。 或许也需要对其他字段进行稍微的加权,给与主语言域的权重要高于其他的在 general
上的域:
GET /movies/movie/_search
{
"query": {
"multi_match": {
"query": "club de la lucha",
"fields": [ "title*^1.5", "title.general" ], (1)
"type": "most_fields",
"minimum_should_match": "75%" (2)
}
}
}
所有 title
或 title.*
域给与了比 title.general
域稍微高的加权。
minimum_should_match
(最少应当匹配数) 参数减少了低质量匹配的返回数, 这对 title.general
域尤其重要。