1200字范文,内容丰富有趣,写作的好帮手!
1200字范文 > 商城项目16_es简介 详解倒排索引 安装es以及kibana 检索es基本信息 增删改查文档

商城项目16_es简介 详解倒排索引 安装es以及kibana 检索es基本信息 增删改查文档

时间:2024-03-25 14:44:21

相关推荐

商城项目16_es简介 详解倒排索引 安装es以及kibana 检索es基本信息 增删改查文档

文章目录

①. es - 背景、概述、功能、场景②. 核心概念 - 索引、类型、文档、映射③. es - 详解倒排索引④. 安装elasticSearch、kibana 7.4.2⑤. 索引操作 - 创建、查看、删除⑥. 检索es基本信息⑦. document - 增删改查文档

①. es - 背景、概述、功能、场景

①. 背景:起源:Shay Banon。失业,陪老婆去伦敦学习厨师。失业在家帮老婆写一个菜谱搜索引擎。封装了lucene,做出了开源项目compass找到。工作后,做分布式高性能项目,再封装compass,写出了elasticsearch,使得lucene支持分布式。现在是Elasticsearch创始人兼Elastic首席执行官(谢巴农)

②. Elaticsearch,简称为es,是一个基于Lucene的搜索服务器。它提供了一个分布式多用户功能的全文搜索引擎,基于Restful web接口。ElasticSearch是用java开发的,并作为Apache许可条款下的开放源码发布,是当前流行的企业级搜索引擎 9200:Restful - 端口为浏览器访问的 http协议RESTful端口http端口 9300:TCP端口- Elasticsearch集群间组件的通信端口Elasticsearch官网

③. Elasticsearch的功能 分布式的搜索引擎(搜索:百度、谷歌,站内搜索)

分布式:Elasticsearch自动将海量数据分散到多台服务器上去存储和检索全文检索:提供模糊搜索等自动度很高的查询方式,并进行相关性排名,高亮等功能数据分析引擎(分组聚合):电商网站,最近一周笔记本电脑这种商品销量排名top10的商家有哪些?新闻网站,最近1个月访问量排名top3的新闻板块是哪些 对海量数据进行近实时的处理

海量数据的处理:因为是分布式架构,Elasticsearch可以采用大量的服务器去存储和检索数据,自然而然就可以实现海量数据的处理

近实时:Elasticsearch可以实现秒级别的数据搜索和分析 ④. Elasticsearch企业使用场景 搜索类场景:比如说电商网站、招聘网站、新闻资讯类网站、各种app内的搜索日志分析类场景:经典的ELK组合(Elasticsearch/Logstash/Kibana),可以完成日志收集,日志存储,日志分析查询界面基本功能,目前该方案的实现很普及,大部分企业日志分析系统使用了该方案数据预警平台及数据分析场景

例如电商价格预警,在支持的电商平台设置价格预警,当优惠的价格低于某个值时,触发通知消息,通知用户购买

数据分析常见的比如分析电商平台销售量top 10的品牌,分析博客系统、头条网站top 10关注度、评论数、访问量的内容等

②. 核心概念 - 索引、类型、文档、映射

①. index索引

类似的数据放在一个索引,非类似的数据放不同索引, 一个索引也可以理解成一个关系型数据库

②. Type类型(es7会逐渐删除type,官方说在8.x版本会彻底移除type)

ES 5.x中一个index可以有多种typeES 6.x中一个index只能有一种typeES 7.x以后要逐渐移除type这个概念 ③. Document文档

保存在某个index下,某种type的一个数据document,文档是json格式的,document就像是mysql中的某个table里面的内容。每一行对应的列叫属性

③. es - 详解倒排索引

①. 下图是ElasticSearch的索引结构,下边黑色部分是物理结构,上边黄色部分是逻辑结构,逻辑结构也是为了更好的去描述ElasticSearch的工作原理及去使用物理结构中的索引文件

②. 逻辑结构部分是一个倒排索引表: 将要搜索的文档内容分词,所有不重复的词组成分词列表将搜索的文档最终以Document方式存储起来每个词和docment都有关联

如下:

③. 为什么查询快?(它建立一个分词,并且分词和文档相关联)

解释何为倒排索引?

(1). 会有一个倒排索引表,首先对红海行动进行分词,分词后的数据插入到倒排索引表中。

保存的记录(红海行动、探索红海行动、红海特别行动、红海记录片、特工红海特别探索)

(2). 将内容分词就记录到索引中

(3). 检索:

红海特工行动?查出后计算相关性得分:3号(红海特别行动)记录命中了2次,且3号本身才有3个单词,2/3,所以3号最匹配。5号(特工红海特别探索)四个命中了2个

④. 安装elasticSearch、kibana 7.4.2

①. 安装elasticSearch7.4.2详细步骤如下

1. 下载ealastic search(存储和检索)和kibana(可视化检索)docker pull elasticsearch:7.4.2docker pull kibana:7.4.2版本要统一2. 配置# 将docker里的目录挂载到linux的/mydata目录中# 修改/mydata就可以改掉docker里的mkdir -p /mydata/elasticsearch/configmkdir -p /mydata/elasticsearch/data# es可以被远程任何机器访问echo "http.host: 0.0.0.0" >/mydata/elasticsearch/config/elasticsearch.yml# 递归更改权限,es需要访问chmod -R 777 /mydata/elasticsearch/3. 启动Elastic search4. # 9200是用户交互端口 9300是集群心跳端口# -e指定是单阶段运行# -e指定占用的内存大小,生产时可以一般是32G的内存、我们可以将es设置大一些docker run --name elasticsearch -p 9200:9200 -p 9300:9300 \-e "discovery.type=single-node" \-e ES_JAVA_OPTS="-Xms64m -Xmx512m" \-v /mydata/elasticsearch/config/elasticsearch.yml:/usr/share/elasticsearch/config/elasticsearch.yml \-v /mydata/elasticsearch/data:/usr/share/elasticsearch/data \-v /mydata/elasticsearch/plugins:/usr/share/elasticsearch/plugins \-d elasticsearch:7.4.2 # 设置开机启动elasticsearchdocker update elasticsearch --restart=always

②. 安装kibana 7.4.2详细步骤如下:

http://192.168.56.10:9200一定要改成自己虚拟机的地址

docker pull kibana:7.4.2# kibana指定了了ES交互端口9200 # 5600位kibana主页端口docker run --name kibana -e ELASTICSEARCH_HOSTS=http://192.168.56.10:9200 -p 5601:5601 -d kibana:7.4.2# 设置开机启动kibanadocker update kibana --restart=always# 访问Kibana: http://192.168.56.10:5601/app/kibana

⑤. 索引操作 - 创建、查看、删除

①. 创建索引库:PUT /company-index

②. 判断索引是否存在:HEAD /索引名称

# 200表示索引在es中存在200 - OK# 404表示索引在es中不存在404 - Not Found

③. 查看单个索引:GET /company-index

④. 批量查看索引:GET /索引名称1,索引名称2,索引名称3…

⑤. 查看所有索引

GET _allGET /_cat/indices?v

⑥. 打开和关闭索引(关闭后的索引不能搜索数据) POST /索引名称/_openPOST /索引名称/_close ⑦. 删除索引使用DELETE请求:DELETE /索引名称1,索引名称2,索引名称3…

⑥. 检索es基本信息

①. GET /_cat/nodes:查看所有节点

127.0.0.1 16 94 3 0.01 0.03 0.05 dilm * f35e9eb81345

②. GET /_cat/health:查看es健康状况

//注:green表示健康值正常1647766085 08:48:05 elasticsearch yellow 1 1 5 5 0 0 2 0 - 71.4%

③. GET /_cat/master:查看主节点

Kcb7reXVSEiIQL-gxvgdXg 127.0.0.1 127.0.0.1 f35e9eb81345

④. GET /_cat/indices:查看所有索引,等价于mysql数据库的show databases;

green open .kibana_task_manager_1 DhtDmKrsRDOUHPJm1EFVqQ 1 0 2 3 40.8kb 40.8kbgreen open .apm-agent-configuration vxzRbo9sQ1SvMtGkx6aAHQ 1 0 0 0 230b 230bgreen open .kibana_1rdJ5pejQSKWjKxRtx-EIkQ 1 0 5 1 18.2kb 18.2kb这3个索引是kibana创建的

⑦. document - 增删改查文档

①. 保存一个数据,保存在哪个索引的哪个类型下(哪张数据库哪张表下),保存时用唯一标识指定 POST新增。如果不指定id,会自动生成id。指定id就会修改这个数据,并新增版本号

可以不指定id,不指定id时永远为创建

指定不存在的id为创建

指定存在的id为更新(带了_update操作的),而版本号(_seq_no)会根据内容变没变而觉得版本号递增与否 PUT可以新增也可以修改。PUT必须指定id;由于PUT需要指定id,我们一般用来做修改操作,不指定id会报错

必须指定id、版本号总会增加put和java里map.put一样必须指定key-value。而post相当于mysql insert

# # 在customer索引下的external类型下保存1号数据PUT customer/external/1# POSTMAN输入http://192.168.56.10:9200/customer/external/1{"name":"John Doe"}

{"_index": "customer","_type": "external","_id": "1","_version": 1,"result": "created","_shards": {"total": 2,"successful": 1,"failed": 0},"_seq_no": 0,"_primary_term": 1}

PUT /shopingPOST /shoping/_doc{"title": "小米手机","category": "小米","images": "/xm.jpg","price": 3999}

seq_no和version的区别:

(1). 每个文档的版本号"_version" 起始值都为1,每次对当前文档成功操作后都加1

(2). 而序列号"_seq_no"则可以看做是索引的信息 在第一次为索引插入数据时为0,每对索引内数据操作成功一次sqlNO加1,并且文档会记录是第几次操作使它成为现在的情况的

②. 查看文档

GET /customer/external/1http://192.168.56.10:9200/customer/external/1{"_index": "customer","_type": "external","_id": "1","_version": 10,"_seq_no": 18,//并发控制字段,每次更新都会+1,用来做乐观锁"_primary_term": 6,//同上,主分片重新分配,如重启,就会变化"found": true,"_source": {"name": "John Doe"}}

乐观锁用法:通过“if_seq_no=1&if_primary_term=1”,当序列号匹配的时候,才进行修改,否则不修改

实例:将id=1的数据更新为name=1,然后再次更新为name=2,起始1_seq_no=18,_primary_term=6

(1). 将name更新为1

PUT http://192.168.56.10:9200/customer/external/1?if_seq_no=18&if_primary_term=6

(2). 将name更新为2,更新过程中使用seq_no=18

PUT http://192.168.56.10:9200/customer/external/1?if_seq_no=18&if_primary_term=6

结果为:(出现更新错误)

(3). 查询新的数据 GET http://192.168.56.10:9200/customer/external/1

(4). 再次更新,更新成功

PUT http://192.168.56.10:9200/customer/external/1?if_seq_no=19&if_primary_term=1

③. 更新文档

带了_update的会去检查元数据,如果更新的数据和元数据对比没有变化,则不会叠加版本

# 对比原来的数据,与原来的数据一样就什么都不做,version、seq_no都不变POST customer/external/1/_update{"doc":{"name":"111"}}或者//不会检查元数据,它的版本号都会更新,不断的叠加版本POST customer/external/1{"name":"222"}或者PUT customer/external/1{"name":"222"}# 更新同时增加属性,PUT和不带POST不带_update都可以POST customer/external/1/_update{"doc":{"name":"Jane","age":26}}

④. 删除文档或索引

DELETE customer/external/1DELETE customer注:elasticsearch并没有提供删除类型的操作,只提供了删除索引和文档的操作。实例:删除id=1的数据,删除后继续查询DELETE http://192.168.56.10:9200/customer/external/1{"_index": "customer","_type": "external","_id": "1","_version": 14,"result": "deleted","_shards": {"total": 2,"successful": 1,"failed": 0},"_seq_no": 22,"_primary_term": 6}再次执行DELETE http://192.168.56.10:9200/customer/external/1{"_index": "customer","_type": "external","_id": "1","_version": 15,"result": "not_found","_shards": {"total": 2,"successful": 1,"failed": 0},"_seq_no": 23,"_primary_term": 6}GET http://192.168.56.10:9200/customer/external/1{"_index": "customer","_type": "external","_id": "1","found": false}

删除索引实例:删除整个costomer索引数据删除前,所有的索引http://192.168.56.10:9200/_cat/indicesgreen open .kibana_task_manager_1 DhtDmKrsRDOUHPJm1EFVqQ 1 0 2 0 31.3kb 31.3kbgreen open .apm-agent-configuration vxzRbo9sQ1SvMtGkx6aAHQ 1 0 0 0 283b 283bgreen open .kibana_1rdJ5pejQSKWjKxRtx-EIkQ 1 0 8 3 28.8kb 28.8kbyellow open customer mG9XiCQISPmfBAmL1BPqIw 1 1 9 1 8.6kb 8.6kb删除“ customer ”索引DELTE http://192.168.56.10:9200/customer响应{"acknowledged": true}删除后,所有的索引http://192.168.56.10:9200/_cat/indicesgreen open .kibana_task_manager_1 DhtDmKrsRDOUHPJm1EFVqQ 1 0 2 0 31.3kb 31.3kbgreen open .apm-agent-configuration vxzRbo9sQ1SvMtGkx6aAHQ 1 0 0 0 283b 283bgreen open .kibana_1rdJ5pejQSKWjKxRtx-EIkQ 1 0 8 3 28.8kb 28.8kb

⑤. ES的批量操作——bulk

这里的批量操作,当发生某一条执行发生失败时,其他的数据仍然能够接着执行,也就是说彼此之间是独立的

实例1: 执行多条数据POST /customer/external/_bulk{"index":{"_id":"1"}}{"name":"John Doe"}{"index":{"_id":"2"}}{"name":"John Doe"}#! Deprecation: [types removal] Specifying types in bulk requests is deprecated.{"took" : 318, 花费了多少ms"errors" : false, 没有发生任何错误"items" : [ 每个数据的结果{"index" : {保存"_index" : "customer", 索引"_type" : "external", 类型"_id" : "1", 文档"_version" : 1, 版本"result" : "created", 创建"_shards" : {"total" : 2,"successful" : 1,"failed" : 0},"_seq_no" : 0,"_primary_term" : 1,"status" : 201 新建完成}},{"index" : {第二条记录"_index" : "customer","_type" : "external","_id" : "2","_version" : 1,"result" : "created","_shards" : {"total" : 2,"successful" : 1,"failed" : 0},"_seq_no" : 1,"_primary_term" : 1,"status" : 201}}]}

实例2:对于整个索引执行批量操作POST /_bulk{"delete":{"_index":"website","_type":"blog","_id":"123"}}{"create":{"_index":"website","_type":"blog","_id":"123"}}{"title":"my first blog post"}{"index":{"_index":"website","_type":"blog"}}{"title":"my second blog post"}{"update":{"_index":"website","_type":"blog","_id":"123"}}{"doc":{"title":"my updated blog post"}}运行结果:#! Deprecation: [types removal] Specifying types in bulk requests is deprecated.{"took" : 304,"errors" : false,"items" : [{"delete" : {删除"_index" : "website","_type" : "blog","_id" : "123","_version" : 1,"result" : "not_found", 没有该记录"_shards" : {"total" : 2,"successful" : 1,"failed" : 0},"_seq_no" : 0,"_primary_term" : 1,"status" : 404 没有该}},{"create" : {创建"_index" : "website","_type" : "blog","_id" : "123","_version" : 2,"result" : "created","_shards" : {"total" : 2,"successful" : 1,"failed" : 0},"_seq_no" : 1,"_primary_term" : 1,"status" : 201}},{"index" : {保存"_index" : "website","_type" : "blog","_id" : "5sKNvncBKdY1wAQmeQNo","_version" : 1,"result" : "created","_shards" : {"total" : 2,"successful" : 1,"failed" : 0},"_seq_no" : 2,"_primary_term" : 1,"status" : 201}},{"update" : {更新"_index" : "website","_type" : "blog","_id" : "123","_version" : 3,"result" : "updated","_shards" : {"total" : 2,"successful" : 1,"failed" : 0},"_seq_no" : 3,"_primary_term" : 1,"status" : 200}}]}

⑥. 样本测试数据(有1000条数据)

/elastic/elasticsearch/blob/v7.4.2/docs/src/test/resources/accounts.json

注意:新增测试数据的时候,需要我们自己制定在哪个索引、哪个类型下

链接:/s/1my-luYGAsGrCnyxNve_6Hw 提取码:1234

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。