Elasticsearch 关于安装

单机安装

Elasticsearch Head

docker run -d --name es_admin -p 9100:9100 mobz/elasticsearch-head:5

Elasticsearch

docker run -i -t --log-driver json-file --log-opt max-docker run -d --name es771 -p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" elasticsearch:7.7.1

Kibana

docker run -i -t --log-driver json-file --log-opt max-size=1000m --log-opt max-file=4 --name kibana771 -p 5601:5601 -v /data/kibana/kibana.yml:/usr/share/kibana/config/kibana.yml kibana:7.7.1

Kibana.yml

(base) lizhe@ubuntu:~/cluster$ cat /data/kibana/kibana.yml
server.port: 5601
server.host: "0.0.0.0"
#elasticsearch.url: "http://172.16.184.194:9200"
elasticsearch.hosts: ["http://192.168.194.128:9200/"]
kibana.index: ".kibana"
(base) lizhe@ubuntu:~/cluster$ 

集群安装

docker pull  elasticsearch:7.7.1
#存放配置文件的文件夹
mkdir -p /home/lizhe/cluster/node1/config
mkdir -p /home/lizhe/cluster/node2/config
mkdir -p /home/lizhe/cluster/node3/config
#存放数据的文件夹
mkdir -p /home/lizhe/cluster/node1/data
mkdir -p /home/lizhe/cluster/node2/data
mkdir -p /home/lizhe/cluster/node3/data
#存放运行日志的文件夹
mkdir -p /home/lizhe/cluster/node1/log
mkdir -p /home/lizhe/cluster/node2/log
mkdir -p /home/lizhe/cluster/node3/log
#存放IK分词插件的文件夹
mkdir -p /home/lizhe/cluster/node1/plugins
mkdir -p /home/lizhe/cluster/node2/plugins
mkdir -p /home/lizhe/cluster/node3/plugins
chmod -R 777 /home/lizhe/cluster/

/home/lizhe/cluster/node1/config/elasticsearch.yml

#集群名称
cluster.name: lizhe-es
#当前该节点的名称
node.name: node-1
#是不是有资格竞选主节点
node.master: true
#是否存储数据
node.data: true
#最大集群节点数
node.max_local_storage_nodes: 3
#给当前节点自定义属性(可以省略)
#node.attr.rack: r1
#数据存档位置
path.data: /usr/share/elasticsearch/data
#日志存放位置
path.logs: /usr/share/elasticsearch/log
#是否开启时锁定内存(默认为是)
#bootstrap.memory_lock: true
#设置网关地址,我是被这个坑死了,这个地址我原先填写了自己的实际物理IP地址,
#然后启动一直报无效的IP地址,无法注入9300端口,这里只需要填写0.0.0.0
network.host: 0.0.0.0
#设置其它结点和该结点交互的ip地址,如果不设置它会自动判断,值必须是个真实的ip地址,设置当前物理机地址,
#如果是docker安装节点的IP将会是配置的IP而不是docker网管ip
network.publish_host: 192.168.194.128
#设置映射端口
http.port: 9200
#内部节点之间沟通端口
transport.tcp.port: 9300
#集群发现默认值为127.0.0.1:9300,如果要在其他主机上形成包含节点的群集,如果搭建集群则需要填写
#es7.x 之后新增的配置,写入候选主节点的设备地址,在开启服务后可以被选为主节点,也就是说把所有的节点都写上
discovery.seed_hosts: ["192.168.194.128:9300","192.168.194.128:9301","192.168.194.128:9302"]
#当你在搭建集群的时候,选出合格的节点集群,有些人说的太官方了,
#其实就是,让你选择比较好的几个节点,在你节点启动时,在这些节点中选一个做领导者,
#如果你不设置呢,elasticsearch就会自己选举,这里我们把三个节点都写上
cluster.initial_master_nodes: ["node-1","node-2","node-3"]
#cluster.initial_master_nodes: node-1
#在群集完全重新启动后阻止初始恢复,直到启动N个节点
#简单点说在集群启动后,至少复活多少个节点以上,那么这个服务才可以被使用,否则不可以被使用,
gateway.recover_after_nodes: 2
#删除索引是是否需要显示其名称,默认为显示
#action.destructive_requires_name: true
http.cors.enabled: true
http.cors.allow-origin: "*"

/home/lizhe/cluster/node2/config/elasticsearch.yml

#集群名称
cluster.name: lizhe-es
#当前该节点的名称
node.name: node-2
#是不是有资格竞选主节点
node.master: true
#是否存储数据
node.data: true
#最大集群节点数
node.max_local_storage_nodes: 3
#给当前节点自定义属性(可以省略)
#node.attr.rack: r1
#数据存档位置
path.data: /usr/share/elasticsearch/data
#日志存放位置
path.logs: /usr/share/elasticsearch/log
#是否开启时锁定内存(默认为是)
#bootstrap.memory_lock: true
#设置网关地址,我是被这个坑死了,这个地址我原先填写了自己的实际物理IP地址,
#然后启动一直报无效的IP地址,无法注入9300端口,这里只需要填写0.0.0.0
network.host: 0.0.0.0
#设置其它结点和该结点交互的ip地址,如果不设置它会自动判断,值必须是个真实的ip地址,设置当前物理机地址,
#如果是docker安装节点的IP将会是配置的IP而不是docker网管ip
network.publish_host: 192.168.194.128
#设置映射端口
http.port: 9201
#内部节点之间沟通端口
transport.tcp.port: 9301
#集群发现默认值为127.0.0.1:9300,如果要在其他主机上形成包含节点的群集,如果搭建集群则需要填写
#es7.x 之后新增的配置,写入候选主节点的设备地址,在开启服务后可以被选为主节点,也就是说把所有的节点都写上
discovery.seed_hosts: ["192.168.194.128:9300","192.168.194.128:9301","192.168.194.128:9302"]
#当你在搭建集群的时候,选出合格的节点集群,有些人说的太官方了,
#其实就是,让你选择比较好的几个节点,在你节点启动时,在这些节点中选一个做领导者,
#如果你不设置呢,elasticsearch就会自己选举,这里我们把三个节点都写上
cluster.initial_master_nodes: ["node-1","node-2","node-3"]
#cluster.initial_master_nodes: node-1
#在群集完全重新启动后阻止初始恢复,直到启动N个节点
#简单点说在集群启动后,至少复活多少个节点以上,那么这个服务才可以被使用,否则不可以被使用,
gateway.recover_after_nodes: 2
#删除索引是是否需要显示其名称,默认为显示
#action.destructive_requires_name: true
http.cors.enabled: true
http.cors.allow-origin: "*"

/home/lizhe/cluster/node3/config/elasticsearch.yml

#集群名称
cluster.name: lizhe-es
#当前该节点的名称
node.name: node-3
#是不是有资格竞选主节点
node.master: true
#是否存储数据
node.data: true
#最大集群节点数
node.max_local_storage_nodes: 3
#给当前节点自定义属性(可以省略)
#node.attr.rack: r1
#数据存档位置
path.data: /usr/share/elasticsearch/data
#日志存放位置
path.logs: /usr/share/elasticsearch/log
#是否开启时锁定内存(默认为是)
#bootstrap.memory_lock: true
#设置网关地址,我是被这个坑死了,这个地址我原先填写了自己的实际物理IP地址,
#然后启动一直报无效的IP地址,无法注入9300端口,这里只需要填写0.0.0.0
network.host: 0.0.0.0
#设置其它结点和该结点交互的ip地址,如果不设置它会自动判断,值必须是个真实的ip地址,设置当前物理机地址,
#如果是docker安装节点的IP将会是配置的IP而不是docker网管ip
network.publish_host: 192.168.194.128
#设置映射端口
http.port: 9202
#内部节点之间沟通端口
transport.tcp.port: 9302
#集群发现默认值为127.0.0.1:9300,如果要在其他主机上形成包含节点的群集,如果搭建集群则需要填写
#es7.x 之后新增的配置,写入候选主节点的设备地址,在开启服务后可以被选为主节点,也就是说把所有的节点都写上
discovery.seed_hosts: ["192.168.194.128:9300","192.168.194.128:9301","192.168.194.128:9302"]
#当你在搭建集群的时候,选出合格的节点集群,有些人说的太官方了,
#其实就是,让你选择比较好的几个节点,在你节点启动时,在这些节点中选一个做领导者,
#如果你不设置呢,elasticsearch就会自己选举,这里我们把三个节点都写上
cluster.initial_master_nodes: ["node-1","node-2","node-3"]
#cluster.initial_master_nodes: node-1
#在群集完全重新启动后阻止初始恢复,直到启动N个节点
#简单点说在集群启动后,至少复活多少个节点以上,那么这个服务才可以被使用,否则不可以被使用,
gateway.recover_after_nodes: 2
#删除索引是是否需要显示其名称,默认为显示
#action.destructive_requires_name: true

http.cors.enabled: true
http.cors.allow-origin: "*"

直接启动会报错

ERROR: [1] bootstrap checks failed
[1]: max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]
在宿主机上

解决办法:
1、切换到root用户修改配置sysctl.conf

vi /etc/sysctl.conf 

添加下面配置:

vm.max_map_count=655360

并执行命令:

sysctl -p

然后,重新启动elasticsearch,即可启动成功。

启动容器

docker run -e ES_JAVA_OPTS="-Xms512m -Xmx512m" -d -p 9200:9200 -p 9300:9300 -v /home/lizhe/cluster/node1/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml -v /home/lizhe/cluster/node1/plugins:/usr/share/elasticsearch/plugins -v /home/lizhe/cluster/node1/data:/usr/share/elasticsearch/data -v /home/lizhe/cluster/node1/log:/usr/share/elasticsearch/log --name es-node-1 elasticsearch:7.7.1

docker run -e ES_JAVA_OPTS="-Xms512m -Xmx512m" -d -p 9201:9201 -p 9301:9301 -v /home/lizhe/cluster/node2/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml -v /home/lizhe/cluster/node2/plugins:/usr/share/elasticsearch/plugins -v /home/lizhe/cluster/node2/data:/usr/share/elasticsearch/data -v /home/lizhe/cluster/node2/log:/usr/share/elasticsearch/log --name es-node-2 elasticsearch:7.7.1

docker run -e ES_JAVA_OPTS="-Xms512m -Xmx512m" -d -p 9202:9202 -p 9302:9302 -v /home/lizhe/cluster/node3/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml -v /home/lizhe/cluster/node3/plugins:/usr/share/elasticsearch/plugins -v /home/lizhe/cluster/node3/data:/usr/share/elasticsearch/data -v /home/lizhe/cluster/node3/log:/usr/share/elasticsearch/log --name es-node-3 elasticsearch:7.7.1
Send a Message