,不合理的需求,如何能轻松搞定?文章较长,建议提前收藏。,可能99%的同学不做搜索引擎,但99%的同学一定实现过检索功能。搜索,检索,这里面到底包含哪些技术,希望本文能够给大家一些启示。,
,全网搜索引擎的宏观架构如上图,核心子系统主要分为三部分(粉色部分):,(1) spider爬虫系统;,(2) search&index建立索引与查询索引系统,这个系统又主要分为两部分:,(3) rank打分排序系统;,核心数据主要分为两部分(紫色部分):,全网搜索引擎的业务特点决定了,这是一个“写入”和“检索”分离的系统。,系统组成:由spider与search&index两个系统完成。,输入:站长们生成的互联网网页。,输出:正排倒排索引数据。,流程:如架构图中的1,2,3,4:,
,系统组成:由search&index与rank两个系统完成。,输入:用户的搜索词。,输出:排好序的第一页检索结果。,流程:如架构图中的a,b,c,d:,做全网搜索的公司毕竟是少数,绝大部分公司要实现的其实只是一个站内搜索,以同城100亿帖子的搜索为例,其整体架构如下:,
,站内搜索引擎的宏观架构如上图,与全网搜索引擎的宏观架构相比,差异只有写入的地方:,画外音:看似“很小”的差异,架构实现上难度却差很多,全网搜索如何“实时”发现“全量”的网页是非常困难的,而站内搜索容易实时得到全部数据。 ,对于spider、search&index、rank三个系统:,(1) spider和search&index是工程系统;,(2) rank是和业务、策略紧密、算法相关的系统,搜索体验的差异主要在此,而业务、策略的优化是需要时间积累的,这里的启示是:,前面的内容太宏观,为了照顾大部分没有做过搜索引擎的同学,数据结构与算法部分从正排索引、倒排索引一点点开始。,简言之,由key查询实体的过程,使用正排索引。,例如,用户表:,由uid查询整行的过程,就是正排索引查询。,又例如,网页库:,由url查询整个网页的过程,也是正排索引查询。, 网页内容分词后,page_content会对应一个分词后的集合list<item>。,简易的,正排索引可以理解为:,能够由网页url快速找到内容的一个数据结构。,画外音:时间复杂度可以认为是O(1)。,与正排索引相反,由item查询key的过程,使用倒排索引。,对于网页搜索,倒排索引可以理解为:,能够由查询词快速找到包含这个查询词的网页的数据结构。,画外音:时间复杂度也是O(1)。 ,举个例子,假设有3个网页:,这是一个正排索引:,分词之后:,这是一个分词后的正排索引:,分词后倒排索引:,由检索词item快速找到包含这个查询词的网页Map<item, list<url>>就是倒排索引。,画外音:明白了吧,词到url的过程,是倒排索引。 ,正排索引和倒排索引是spider和build_index系统提前建立好的数据结构,为什么要使用这两种数据结构,是因为它能够快速的实现“用户网页检索”需求。,画外音,业务需求决定架构实现,查询起来都很快。,假设搜索词是“我爱”:,(1) 分词,“我爱”会分词为{我,爱},时间复杂度为O(1);,(2) 每个分词后的item,从倒排索引查询包含这个item的网页list<url>,时间复杂度也是O(1):,(3) 求list<url>的交集,就是符合所有查询词的结果网页,对于这个例子,{url1, url2}就是最终的查询结果;,画外音:检索的过程也很简单:分词,查倒排索引,求结果集交集。 ,就结束了吗?其实不然,分词和倒排查询时间复杂度都是O(1),整个搜索的时间复杂度取决于“求list<url>的交集”,问题转化为了求两个集合交集。,字符型的url不利于存储与计算,一般来说每个url会有一个数值型的url_id来标识,后文为了方便描述,list<url>统一用list<url_id>替代。,方案一:for * for,土办法,时间复杂度O(n*n),每个搜索词命中的网页是很多的,O(n*n)的复杂度是明显不能接受的。倒排索引是在创建之初可以进行排序预处理,问题转化成两个有序的list求交集,就方便多了。,画外音:比较笨的方法。,方案二:有序list求交集,拉链法,
,两个指针指向首元素,比较元素的大小:,这种方法的好处是:,这个方法就像一条拉链的两边齿轮,一一比对就像拉链,故称为拉链法;,画外音:倒排索引是提前初始化的,可以利用“有序”这个特性。,方案三:分桶并行优化,数据量大时,url_id分桶水平切分+并行运算是一种常见的优化方法,如果能将list1<url_id>和list2<url_id>分成若干个桶区间,每个区间利用多线程并行求交集,各个线程结果集的并集,作为最终的结果集,能够大大的减少执行时间。,举例:,求交集,先进行分桶拆分:,于是,,集合1就拆分成:,集合2就拆分成:,每个桶内的数据量大大降低了,并且每个桶内没有重复元素,可以利用多线程并行计算:,最终,集合1和集合2的交集,是x与y与z的并集,即集合{3,5,7,30,50,70}。,画外音:多线程、水平切分都是常见的优化手段。 ,方案四:bitmap再次优化,数据进行了水平分桶拆分之后,每个桶内的数据一定处于一个范围之内,如果集合符合这个特点,就可以使用bitmap来表示集合:,
,如上图,假设set1{1,3,5,7,8,9}和set2{2,3,4,5,6,7}的所有元素都在桶值[1, 16]的范围之内,可以用16个bit来描述这两个集合,原集合中的元素x,在这个16bitmap中的第x个bit为1,此时两个bitmap求交集,只需要将两个bitmap进行“与”操作,结果集bitmap的3,5,7位是1,表明原集合的交集为{3,5,7}。, 水平分桶,bitmap优化之后,能极大提高求交集的效率,但时间复杂度仍旧是O(n)。bitmap需要大量连续空间,占用内存较大。,画外音:bitmap能够表示集合,用它求集合交集速度非常快。,方案五:跳表skiplist,有序链表集合求交集,跳表是最常用的数据结构,它可以将有序集合求交集的复杂度由O(n)降至接近O(log(n))。,
,要求交集,如果用拉链法,会发现1,2,3,4,20,21,22,23都要被无效遍历一次,每个元素都要被比对,时间复杂度为O(n),能不能每次比对“跳过一些元素”呢?,跳表就出现了:,
,集合1{1,2,3,4,20,21,22,23,50,60,70}建立跳表时,一级只有{1,20,50}三个元素,二级与普通链表相同。,集合2{50,70}由于元素较少,只建立了一级普通链表。,如此这般,在实施“拉链”求交集的过程中,set1的指针能够由1跳到20再跳到50,中间能够跳过很多元素,无需进行一一比对,跳表求交集的时间复杂度近似O(log(n)),这是搜索引擎中常见的算法。,简单小结一下:,(1) 全网搜索引擎系统由spider, search&index, rank三个子系统构成;,(2) 站内搜索引擎与全网搜索引擎的差异在于,少了一个spider子系统;,(3) spider和search&index系统是两个工程系统,rank系统的优化却需要长时间的调优和积累;,(4) 正排索引(forward index)是由网页url_id快速找到分词后网页内容list<item>的过程;,(5) 倒排索引(inverted index)是由分词item快速寻找包含这个分词的网页list<url_id>的过程;,(6) 用户检索的过程,是先分词,再找到每个item对应的list<url_id>,最后进行集合求交集的过程;,(7) 有序集合求交集的方法有:,大部分工程师未必接触过“搜索内核”,但互联网业务,基本会涉及“检索”功能。以同城的帖子业务场景为例,帖子的标题,帖子的内容有很强的用户检索需求,在业务、流量、并发量逐步递增的各个阶段,应该如何实现检索需求呢?,创业阶段,常常用这种方法来快速实现。,数据在数据库中可能是这么存储的:,满足标题、内容的检索需求可以通过LIKE实现:,这种方式确实能够快速满足业务需求,存在的问题也显而易见:,如何快速提高效率,支持分词,并对原有系统架构影响尽可能小呢,第一时间想到的是建立全文索引:,使用match和against实现索引字段上的查询需求。,全文索引能够快速实现业务上分词的需求,并且快速提升性能(分词后倒排,至少不要全表扫描了),但也存在一些问题:,为了解决全文索的局限性,当数据量增加到大几百万,千万级别时,就要考虑外置索引了。外置索引的核心思路是:索引数据与原始数据分离,前者满足搜索需求,后者满足CURD需求,通过一定的机制(双写,通知,定期重建)来保证数据的一致性。,原始数据可以继续使用Mysql来存储,外置索引如何实施?Solr,Lucene,ES都是常见的开源方案。其中,ES(ElasticSearch)是目前最为流行的。,Lucene虽好,潜在的不足是:,为了改善Lucene的各项不足,解决方案都是“封装一个接口友好的服务,屏蔽底层复杂性”,于是有了ES:,目前,快狗打车使用ES作为核心的搜索服务,实现业务上的各类搜索需求,其中:,所以,ES完全能满足10亿数据量,5k吞吐量的常见搜索业务需求。 ,当数据量进一步增加,达到10亿、100亿数据量;并发量也进一步增加,达到每秒10万吞吐量;业务个性也逐步增加的时候,就需要自研搜索引擎了,定制化实现搜索内核了。,到了定制化自研搜索引擎的阶段,超大数据量、超高并发量为设计重点,为了达到“无限容量、无限并发”的需求,架构设计需要重点考虑“扩展性”,力争做到:增加机器就能扩容(数据量+并发量)。,同城的自研搜索引擎E-search初步架构图如下:
,
,(1) 上层proxy(粉色)是接入集群,为对外门户,接受搜索请求,其无状态性能够保证增加机器就能扩充proxy集群性能;,(2) 中层merger(浅蓝色)是逻辑集群,主要用于实现搜索合并,以及打分排序,业务相关的rank就在这一层实现,其无状态性也能够保证增加机器就能扩充merger集群性能;,(3) 底层searcher(暗红色大框)是检索集群,服务和索引数据部署在同一台机器上,服务启动时可以加载索引数据到内存,请求访问时从内存中load数据,访问速度很快:,如此设计,真正做到做到增加机器就能承载更多的数据量,响应更高的并发量。,为了满足搜索业务的需求,随着数据量和并发量的增长,搜索架构一般会经历这么几个阶段:,最后一个高级话题,关于搜索的实时性:,百度为何能实时检索出5分钟之前新出的新闻?同城为何能实时检索出1秒钟之前发布的帖子? ,大数据量、高并发量情况下的搜索引擎为了保证实时性,架构设计上的两个要点:,首先,在数据量非常大的情况下,为了保证倒排索引的高效检索效率,任何对数据的更新,并不会实时修改索引。,画外音:因为,一旦产生碎片,会大大降低检索效率。,索引分级,分为全量库、日增量库、小时增量库。,
,如上图所述:,当有修改请求发生时,只会操作最低级别的索引,例如小时库。,
,当有查询请求发生时,会同时查询各个级别的索引,将结果合并,得到最新的数据:, dump&merge,索引的导出与合并,由这两个异步的工具完成:,
,超大数据量,超高并发量,实时搜索引擎的两个架构要点:,关于“搜索”与“检索”的需求,能满足了吗?
© 版权声明
文章版权归作者所有,未经允许请勿转载。