如何移除elasticsearch教程中状态为红色的shard

ElasticSearch性能优化主要分为4个方面的优化。
一、服务器部署
二、服务器配置
三、数据结构优化
四、运行期优化
一、服务器部署
1、增加1-2台服务器,用于负载均衡节点
elasticSearch的配置文件中有2个参数:node.master和node.data。这两个参 数搭配使用时,能够帮助提供服务器性能。
1.1& node.master: false&&& node.data: true
该node服务器只作为一个数据节点,只用于存储索引数据。使该node服务器功能 单一,只用于数据存储和数据查询,降低其资源消耗率。
1.2& node.master: true&&& node.data: false
该node服务器只作为一个主节点,但不存储任何索引数据。该node服务器将使用 自身空闲的资源,来协调各种创建索引请求或者查询请求,讲这些请求合理分发到相关 的node服务器上。
1.3& node.master: false&&& node.data: false
该node服务器即不会被选作主节点,也不会存储任何索引数据。该服务器主要用 于查询负载均衡。在查询的时候,通常会涉及到从多个node服务器上查询数据,并请 求分发到多个指定的node服务器,并对各个node服务器返回的结果进行一个汇总处理, 最终返回给客户端。
2、关闭data节点服务器中的http功能
针对ElasticSearch集群中的所有数据节点,不用开启http服务。将其中的配置 参数这样设置:http.enabled: false,同时也不要安装head, bigdesk, marvel等监控 插件,这样保证data节点服务器只需处理创建/更新/删除/查询索引数据等操作。
http功能可以在非数据节点服务器上开启,上述相关的监控插件也安装到这些服 务器上,用于监控ElasticSearch集群状态等数据信息。
这样做一来出于数据安全考虑,二来出于服务性能考虑。
3、一台服务器上最好只部署一个Node
一台物理服务器上可以启动多个Node服务器节点(通过设置不同的启动port), 但一台服务器上的CPU,内存,硬盘等资源毕竟有限,从服务器性能考虑,不建议一台 服务器上启动多个node节点。
二、服务器配置
1、配置索引线程池的大小
ElastiSearch服务器有多个线程池大小配置。主要有:index,search,suggest, get,bulk,percolate,snapshot,snapshot_data,warmer,refresh。
在此主要针对index和search进行一个配置调整。index操作包含:创 建/更新/删除索引数据。search操作主要针对用户的各种搜索操作。
具体配置如下:
threadpool:
type: fixed
type: fixed
size: 1000
2、创建/查找索引设置相同的分词解析器
索引服务器用到了ik中文分词插件,对于添加到该搜索服务器中的数据都使用该 中文分词(例如orgglobal对象中的orgName就使用了ik中文分词)。当执行搜索请求 时,搜索关键词也需要用到相关的中文分词器,如果不指定设置的话,则会使用服务器 默认的中文分词standard,而使用standard作为中文分词器进行查询时,性能不好。 通过将ik中分词设置为默认的分词器时,则查询效率是standard的2-3倍。
该配置具体如下:
alias: [news_analyzer_ik,ik_analyzer]
type: org.elasticsearch.index.analysis.IkAnalyzerProvider
index.analysis.analyzer.default.type: ik
3、确定分片(shard)的数量和副本(replica)的数量
ElasticSearch在创建索引数据时,最好指定相关的shards数量和replicas,
否则会使用服务器中的默认配置参数shards=5,replicas=1。
因为这两个属性的设置直接影响集群中索引和搜索操作的执行。假设你有足够的&&
机器来持有碎片和副本,那么可以按如下规则设置这两个值:
1) 拥有更多的碎片可以提升索引执行能力,并允许通过机器分发一个大型的索引;
2) 拥有更多的副本能够提升搜索执行能力以及集群能力。
对于一个索引来说,number_of_shards只能设置一次,而number_of_replicas可以使用索引更新设置API在任何时候被增加或者减少。
这两个配置参数在配置文件的配置如下:
index.number_of_shards: 5
index.number_of_shards: 1
4、查询速度慢的日志配置
在进行实际应用中,会记录下查询速度慢或者添加索引速度慢的操作记录,为后
续性能优化提供依据。其具体配置如下:
index.search.slowlog.threshold.query.warn: 10s
index.search.slowlog.: 5s
index.search.slowlog.threshold.query.debug: 2s
index.search.slowlog.threshold.query.trace: 500ms
index.search.slowlog.threshold.fetch.warn: 1s
index.search.slowlog.: 800ms
index.search.slowlog.threshold.fetch.debug: 500ms
index.search.slowlog.threshold.fetch.trace: 200ms
index.indexing.slowlog.threshold.index.warn: 10s
index.indexing.slowlog.: 5s
index.indexing.slowlog.threshold.index.debug: 2s
index.indexing.slowlog.threshold.index.trace: 500ms
三、数据结构优化
1、尽量减少不需要的字段
ElasticSearch中存储的数据是用于搜索服务,因此其他一些不需要用于搜索的字段最好不存到ES中,这样即节省空间,同时在相同的数据量下,也能提高搜索性能。
2、routing值的设置
通常情况下,往ElasticSearch服务器添加索引数据时,是无需指定routing值。ElasticSearch会根据索引Id,将该条数据存储到ElasticSearch集群中的一个shard中。而当指定了routing值为accountId(用户Id),则ElasticSearch会将相同accountId的多个数据都存放到同一个shard中,后续查询的时候,在指定routing值后,ElasticSearch只需要查询一个shard就能得到所有需要的数据,而不用再去查询所有的shard,从而大大提供了搜索性能。
四、运行期优化
1、optimize
随着时间的推移,ElasicSearch中每个shard的数据也会越来越多,索引越来越大,而生成的segment(在每个shard中,每个索引文件实际是由多个sgment文件组成)也会越来越多。而segment越多的话,则查询的性能越差,所以通过调用optimize命令,将多个segment合并成更少数量的segment(最少为一个),从而来提高查询性能。
在调用该命令时,可以设置几个参数,这些参数的具体含义如下:
1.1& max_num_segments
段数优化。要全面优化索引,将其设置为1。默认设置只需检查是否需要执行一个合并,如果需要,则执行它。【经过测试,该值越小,查询速度越快】
1.2& only_expunge_deletes
该优化操作是否只清空打有删除标签的索引记录。在Lucence中,在执行删除操作时,不会直接删除segment中的记录,而是对该记录打上delete标签。当多个segment进行合并操作时,就会生成一个新的segment,而该新的segment中不再包含删除的记录。这个参数允许只对哪些包含删除记录的segment进行优化操作。
在执行完优化操作之后,再执行刷新操作。默认值为true
1.4&wait_for_merge
当该参数设置为true时,表示其他请求操作要等到合并segment操作结束之后,再进行响应。值得注意的是,由于这个优化操作是一个非常耗时,耗资源的事情,用户提交的请求操作是不能容忍等待这么久,所以这个参数最好设置为false.
具体调用命令如下:
http://localhost:9200/indexName/_optimize?only_expunge_deletes=true&wait_for_merge=false
2、warmers
当ElasticSearch服务器启动之后,业务系统中要使用的索引数据暂时没有导入到内存中,因此当用户进行第一次数据搜索时,会因为数据导入耗时很久,而严重影响用户的使用体验。为了解决该问题,可以使用warmer工具。通过ElastiSearch提供的工具,可以register/delete/get特定名称的warmer。通常情况下,warmer包含的请求需要载入大量的索引数据(例如在数据搜索中需要针对特定字段的排序操作,或者用到一些聚合sum,min,max函数的查询等),这样才能达到预热的效果。
具体调用示例如下(下面的warmer是针对索引名为test的warmer,warmer定义的名字为warmer_1):
curl -XPUT localhost:9200/test/_warmer/warmer_1 -d '{
"query" : {
"match_all" : {}
"aggs" : {
"aggs_1" : {
"terms" : {
"field" : "field"
阅读(...) 评论() &共被编辑 2 次
启动两个elasticsearch节点后,通过logstash写入数据,es集群状态显示红色?
我在一台机器部署了两个es节点,两个es节点的部署配置分别如下:
cluster.name: escluster
node.name: "node1"
cluster.name: escluster
node.name: "node2"
transport.tcp.port: 9301
http.port: 9201
其中,es的版本为1.7.4。
首先分别启动了两个es节点。下面是我的logstash配置文件:
path =& "/home/ubuntu/Desktop/logtest.log"
start_position =& "beginning"
stat_interval =& 1
ignore_older =& 86400
sincedb_path =& "/dev/null"
tags =& [ "日志测试"]
type =& "logtest"
if [type] == 'logtest' {
elasticsearch {
hosts =& ["192.168.1.1:9200","192.168.1.2:9201"]
index =& "log-%{+YYYY-MM-dd}"
document_type =& "log"
workers =& 5
template_overwrite =& true
然后我通过logstash写入数据后,查看集群状态,如下图:请问,出现上述状态的原因是什么?我感觉整个过程并没有问题啊?
启动两个elasticsearch节点后,通过logstash写入数据,es集群状态显示红色?
我在一台机器部署了两个es节点,两个es节点的部署配置分别如下:
cluster.name: escluster
node.name: "node1"
cluster.name: escluster
node.name: "node2"
transport.tcp.port: 9301
http.port: 9201
其中,es的版本为1.7.4。
首先分别启动了两个es节点。
然后我通过logstash写入数据后,查看集群状态,如下图:请问,出现上述状态的原因是什么?我感觉整个过程并没有问题啊?
我要该,理由是:elasticsearch强制分配分片失败了? - 知乎11被浏览2744分享邀请回答2添加评论分享收藏感谢收起01 条评论分享收藏感谢收起查看更多回答你的浏览器禁用了JavaScript, 请开启后刷新浏览器获得更好的体验!
集群节点重启时,按照官方文档操作:
ES版本:2.1.1
curl -XPUT 192.168.0.54:9200/_cluster/settings -d '{
&transient& : {
&cluster.routing.allocation.enable& : &none&
执行后这个操作后,重启节点,但重启后节点上原有的分片都变成了Unassigned状态。
是我遗漏了什么操作吗?还是要手动执行什么命令?
如果本来就是如此的话,那整个集群都重启后再开启shard allocation,岂不是会有一段时间集群不可用?
这么操作确实是的。如果不想让机器不可用可以这么操作:
1. 可以先把rebalance关闭。
2. 然后再关闭allocation。
3. 然后重启一台节点。打开allocation,等这个节点上的shard恢复了,再重复2,3
要回复问题请先或
浏览: 2552
关注: 2 人

我要回帖

更多关于 elasticsearch head 的文章

 

随机推荐