上海品茶

您的当前位置:上海品茶 > 报告分类 > PDF报告下载

2019年超万亿规模的大数据搜索与统计-浅谈对lucene源码的改造.pdf

编号:97338 PDF 36页 6.99MB 下载积分:VIP专享
下载报告请您先登录!

2019年超万亿规模的大数据搜索与统计-浅谈对lucene源码的改造.pdf

1、浅谈对lucene源码的改造超万亿规模的大数据搜索与统计作者简介母延年作者简介所属公司:录信数软职业信息:CTO领域:互联网、大数据十年行业经验,曾任职新浪、酷六、阿里与腾讯。11年:支付宝黄金策的海狗 12年:阿里开源项目:MDRILL(多维分析)14年:腾讯的Hermes(每天千亿总量万亿)15年:技术创业,潜心研究技术。作为lucene的粉丝,现就职于南京录信软件技术有限公司,录信即lucene的发音。有数十个万亿级、几百个千亿级别的项目设计与实施经验。我们对lucene的改进PART 1PART 1万亿秒查万亿秒查应用场景用户根据需求自定义查询条件,想查什么就查什么!万亿秒查适用场景:

2、网络综合搜索综合查询云搜索快速检索等数据规模超大、响应速度极快的查询场景1000台机器还是100台机器?512G内存还是128G内存?2T*12的SSD还是2T*12的SATA?大文本,图片,附件,视频怎么存?万亿数据怎么存?万亿秒查技术挑战面临挑战万亿秒查常规每天百亿数据,总量万亿。需满足上百个维度想查什么就查什么,结果秒级响应。1:按列簇混合使用不同磁盘。2:按列簇设置不同存储生命周期。3:按列簇设置不同的索引格式:行存、列存、混合存储、联合索引。4:大文本,附件,图片,视频单独存储。列簇存储(原生lucene不支持列簇)想怎么存就怎么存!存储根据场景分类万亿秒查-数据管理列簇存储示意图列

3、簇存储示意图数数据据列列一一数数据据列列二二数数据据列列三三数数据据列列四四数数据据列列五五数数据据列列六六列簇一列簇一列簇二列簇二数数据据列列一一数数据据列列四四数数据据列列六六数数据据列列二二数数据据列列三三数据只存储数据只存储在在SAS上上数据存储在数据存储在SSD与与SAS上上数数据据列列五五万亿秒查-数据存储SSD固态硬盘-机械硬盘冷热数据分离索引存SSD,数据存SATAPART 2PART 2多列联合索引多列联合索引场景应用类类型型3000条家寻亲人2300300感恩寻人寻找老赖400关系3000条父母9001600子女朋友500性别5000条男1800女1200姓名500条姓王1

4、8090姓张姓李230多列联合索引场景应用多列联合索引技术挑战只能对单列建立倒排索引,采用docvalues进行统计分析。多列统计多列统计 数据散落在磁盘的不同位置,随机IO太多,硬盘负载太高。每条数据都要进行一次计算,暴力计算CPU与IO消耗很高。数据导出需要瞬间导出百万条。面临挑战1:每列之间采用列存储。2:预先干预数据的排序分布让列存储的压缩更有效。3:依据查询构造顺序读取。4:多个列之间有层次关系。5:结合分块存储。多列统计想统计什么就统计什么!千亿数据即席多维统计多列联合索引lucene改造02PART 3PART 3地理位置检索地理位置检索应用场景区域查车/轨迹匹配-同行同住,同飞

5、地理位置检索技术挑战原生lucene地理位置检索与轨迹匹配慢,性能差地理位置检索采用docvalues的二次验证面临挑战黄色部分需要剪切验证 大幅度的减少随机读取的次数,降低磁盘负载。通过地理位置临近数据临近存储的方式构造硬盘上的连续读取,因常规磁盘的连续读取的性能会远远高于随机读写的性能,从而大幅度的提升查询响应的速度。改造优势地理位置检索lucene改造03随机读变顺序读1:我们抛弃docvalues方式的二次验证与剪切。2:我们按照地理位置临近数据临近存储的方式存储数据,在此基础上进行二次验证PART 4PART 4HDFSHDFS上的索引HDFSHDFS上的索引技术挑战 磁盘写入不均衡

6、,有的机器很满,有的机器很空。本地硬盘无快照功能,误删数据无法恢复。数据迁移,扩容麻烦 个别磁盘变慢,所有查询都卡在该盘的IO上。硬盘均衡硬盘难以均衡、不支持数据快照、数据迁移难度大数据存本地磁盘面临挑战HDFSHDFS上的索引lucene改造04磁盘容错与慢读识别Hdfs:具有容错能力,如果某些磁盘突然坏掉,或者速度变慢,能够自动发现,并自动切换到速度较快的副本上继续读取IO管控通过对IO与查询Session的关联,实现IO管控,判断某个查询的IO消耗,以及执行时间,在IO层可以随时中断,从而实现查询任务的取消,任务超时自动取消等功能数据快照支持快照功能,1P数据2秒钟创建快照,误操作弄丢数

7、据可找回快速分裂统一的命名空间,专利技术,1P数据,10秒内分裂完毕自动均衡,扩容自动迁移数据自动均衡,自动balance,统一的命名空间,1P数据,10秒内分裂完毕PART 5PART 5系统稳定性过载保护技术挑战整个系统查崩sql写错面临挑战错 误 s q l 对手机号进行1*的检索。对有数据倾斜的列,进行多表关联。limit partition by 一个不均衡的列过载保护lucene改造051.过载过载控制控制对查询资源进行限制,如果超过设定的资源,则主动停止该SQL的运行。1.1解决的主要问题解决的主要问题 倒排表扫描长度限制。shuffle 达到过载保护的阈

8、值,则中断此SQL,保证系统服务正常。单次查询文件读写量的过载控制。SQL任务执行时间的控制-超时则kill.系统稳定性技术挑战频繁OOM,掉片,爆内存,IO与CPU负载高仅几亿数据场景面临挑战系统稳定性lucene改造05PART 6PART 6索引的分分合合一种基于一种基于lucene的大索引快速分裂的大索引快速分裂大索引分裂lucene改造06想怎么分裂就怎么分裂!1秒内reindex,索引快速分裂!大索引实时导入性能lucene改造06PART PART 7 7其他SNGram切词算法简介SNGram全称Skip Ngram,是对Ngram算法的改进。用以解决Ngram算法膨胀率太高的

9、问题。基本思想为词本身也可以分为词和词的索引。先进行粗粒度级别的切词,如每隔8个字切一个词。将粗粒度的词,排重后进一步得出细粒度的词,针对细粒度的词创建索引。无词库切词lucene改造07想怎么切词就怎么切词!解决膨胀率问题!切的粒度很细,词比较多,但不保存doclist、偏移、位置信息。内容文字2词的索引词的索引词的本身词的本身切的粒度比较粗,词比较少,保存doclist、偏移、位置信息。基于lucene之上的spark01技术架构实现产品项目应用-探索性分析www.lucene.xin稽查布控监控报警用户画像统计分析同行同住同飞时空轨迹匹配碰撞全文全库综合检索即席与探索性分析 自主核心技术模块主从集群过载保护集成SparkHDFS 索引列簇技术多列索引异构存储核心技术支撑着万亿规模数据视频存储实时导入公安行业军队领域交管安防汽车行业 垂直行业运用 产品应用“联系我们

友情提示

1、下载报告失败解决办法
2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
4、本站报告下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。

本文(2019年超万亿规模的大数据搜索与统计-浅谈对lucene源码的改造.pdf)为本站 (云闲) 主动上传,三个皮匠报告文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知三个皮匠报告文库(点击联系客服),我们立即给予删除!

温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。
会员购买
客服

专属顾问

商务合作

机构入驻、侵权投诉、商务合作

服务号

三个皮匠报告官方公众号

回到顶部