Solr是一個獨立的企業級搜索應用服務器,它對外提供類似於Web-service的API接口。用戶可以通過http請求,向搜索引擎服務器提交一定格式的XML文件,生成索引.
互聯網創業中大部分人都是草根創業,這個時候沒有強勁的服務器,也沒有錢去買很昂貴的海量數據庫。在這樣嚴峻的條件下,一批又一批的創業者從創業中獲得成功,這個和當前的開源技術、海量數據架構有著必不可分的關系。比如我們使用mysql、nginx等開源軟件,通過架構和低成本服務器也可以搭建千萬級用戶訪問量的系統。新浪微博、淘寶網、騰訊等大型互聯網公司都使用了很多開源免費系統搭建了他們的平台。所以,用什麼沒關系,只要能夠在合理的情況下采用合理的解決方案。
那怎麼搭建一個好的系統架構呢?這個話題太大,這裡主要說一下數據分流的方式。比如我們的數據庫服務器只能存儲200個數據,突然要搞一個活動預估達到600個數據。
可以采用兩種方式:橫向擴展或者縱向擴展。
縱向擴展是升級服務器的硬件資源。但是隨著機器的性能配置越高,價格越高,這個代價對於一般的小公司是承擔不起的。
橫向擴展是采用多個廉價的機器提供服務。這樣一個機器只能處理200個數據、3個機器就可以處理600個數據了,如果以後業務量增加還可以快速配置增加。在大多數情況都選擇橫向擴展的方式。如下圖:
現在有個問題了,這600個數據如何路由到對應的機器。需要考慮如果均衡分配,假設我們600個數據都是統一的自增id數據,從1~600,分成3 堆可以采用 id mod 3的方式。其實在真實環境可能不是這種id是字符串。需要把字符串轉變為hashcode再進行取模。
目前看起來是不是解決我們的問題了,所有數據都很好的分發並且沒有達到系統的負載。但如果我們的數據需要存儲、需要讀取就沒有這麼容易了。業務增多怎麼辦,大家按照上面的橫向擴展知道需要增加一台服務器。但是就是因為增加這一台服務器帶來了一些問題。看下面這個例子,一共9個數,需要放到2台機器(1、2)上。各個機器存放為:1號機器存放1、3、5、7、9 ,2號機器存放 2、4、6、8。如果擴展一台機器3如何,數據就要發生大遷移,1號機器存放1、4、7, 2號機器存放2、5、8, 3號機器存放3、6、9。如圖:
從圖中可以看出 1號機器的3、5、9遷移出去了、2好機器的4、6遷移出去了,按照新的秩序再重新分配了一遍。數據量小的話重新分配一遍代價並不大,但如果我們擁有上億、上T級的數據這個操作成本是相當的高,少則幾個小時多則數天。並且遷移的時候原數據庫機器負載比較高,那大家就有疑問了,是不是這種水平擴展的架構方式不太合理?
—————————–華麗分割線—————————————
一致性hash就是在這種應用背景提出來的,現在被廣泛應用於分布式緩存,比如memcached。下面簡單介紹下一致性hash的基本原理。最早的版本 http://dl.acm.org/citation.cfm?id=258660。國內網上有很多文章都寫的比較好。如: http://blog.csdn.net/x15594/article/details/6270242
下面簡單舉個例子來說明一致性hash。
准備:1、2、3 三台機器
還有待分配的9個數 1、2、3、4、5、6、7、8、9
一致性hash算法架構
步驟
一、構造出來 2的32次方 個虛擬節點出來,因為計算機裡面是01的世界,進行劃分時采用2的次方數據容易分配均衡。另 2的32次方是42億,我們就算有超大量的服務器也不可能超過42億台吧,擴展和均衡性都保證了。
二、將三台機器分別取IP進行hashcode計算(這裡也可以取hostname,只要能夠唯一區別各個機器就可以了),然後映射到2的32次方上去。比如1號機器算出來的hashcode並且mod (2^32)為 123(這個是虛構的),2號機器算出來的值為 2300420,3號機器算出來為 90203920。這樣三台機器就映射到了這個虛擬的42億環形結構的節點上了。
三、將數據(1-9)也用同樣的方法算出hashcode並對42億取模將其配置到環形節點上。假設這幾個節點算出來的值為 1:10,2:23564,3:57,4:6984,5:5689632,6:86546845,7:122,8:3300689,9:135468。可以看出 1、3、7小於123, 2、4、9 小於 2300420 大於 123, 5、6、8 大於 2300420 小於90203920。從數據映射到的位置開始順時針查找,將數據保存到找到的第一個Cache節點上。如果超過2^32仍然找不到Cache節點,就會保存到第一個Cache節點上。也就是1、3、7將分配到1號機器,2、4、9將分配到2號機器,5、6、8將分配到3號機器。
這個時候大家可能會問,我到現在沒有看見一致性hash帶來任何好處,比傳統的取模還增加了復雜度。現在馬上來做一些關鍵性的處理,比如我們增加一台機器。按照原來我們需要把所有的數據重新分配到四台機器。一致性hash怎麼做呢?現在4號機器加進來,他的hash值算出來取模後是12302012。 5、8 大於2300420 小於12302012 ,6 大於 12302012 小於90203920 。這樣調整的只是把5、8從3號機器刪除,4號機器中加入 5、8。
同理,刪除機器怎麼做呢,假設2號機器掛掉,受影響的也只是2號機器上的數據被遷移到離它節點,上圖為4號機器。
大家應該明白一致性hash的基本原理了吧。不過這種算法還是有缺陷,比如在機器節點比較少、數據量大的時候,數據的分布可能不是很均衡,就會導致其中一台服務器的數據比其他機器多很多。為了解決這個問題,需要引入虛擬服務器節點的機制。如我們一共有只有三台機器,1、2、3。但是實際又不可能有這麼多機器怎麼解決呢?把 這些機器各自虛擬化出來3台機器,也就是 1a 1b 1c 2a 2b 2c 3a 3b 3c,這樣就變成了9台機器。實際 1a 1b 1c 還是對應1。但是實際分布到環形節點就變成了9台機器。數據分布也就能夠更分散一點。如圖:
寫了這麼多一致性hash,這個和分布式搜索有什麼半點關系?我們現在使用solr4搭建了分布式搜索,測試了基於solrcloud的分布式平台提交20條數據居然需要幾十秒,所以就廢棄了solrcloud。采用自己hack solr平台,不用zookeeper做分布式一致性管理平台,自己管理數據的分發機制。既然需要自己管理數據的分發,就需要考慮到索引的創建,索引的更新。這樣我們的一致性hash也就用上了。整體架構如下圖:
建立和更新需要維持機器的位置,能夠根據數據的key找到對應的數據分發並更新。這裡需要考慮的是如何高效、可靠的把數據建立、更新到索引裡。
備份服務器防止建立服務器掛掉,可以根據備份服務器快速恢復。
讀服務器主要做讀寫分離使用,防止寫索引影響查詢數據。
集群管理服務器管理整個集群內的服務器狀態、告警。
整個集群隨著業務增多還可以按照數據的類型劃分,比如用戶、微博等。每個類型按照上圖架構搭建,就可以滿足一般性能的分布式搜索。