互聯(lián)網(wǎng)早期,業(yè)務(wù)流量比較小并且業(yè)務(wù)邏輯比較簡單,單臺(tái)服務(wù)器便可以滿足基本的需求;但隨著互聯(lián)網(wǎng)的發(fā)展,業(yè)務(wù)流量越來越大并且業(yè)務(wù)邏輯也越來越復(fù)雜,單臺(tái)機(jī)器的性能問題以及單點(diǎn)問題凸顯了出來,因此需要多臺(tái)機(jī)器來進(jìn)行性能的水平擴(kuò)展以及避免單點(diǎn)故障。但是要如何將不同的用戶的流量分發(fā)到不同的服務(wù)器上面呢?
早期的方法是使用DNS做負(fù)載,通過給客戶端解析不同的IP地址,讓客戶端的流量直接到達(dá)各個(gè)服務(wù)器。但是這種方法有一個(gè)很大的缺點(diǎn)就是延時(shí)性問題,在做出調(diào)度策略改變以后,由于DNS各級(jí)節(jié)點(diǎn)的緩存并不會(huì)及時(shí)的在客戶端生效,而且DNS負(fù)載的調(diào)度策略比較簡單,無法滿足業(yè)務(wù)需求,因此就出現(xiàn)了負(fù)載均衡。
客戶端的流量首先會(huì)到達(dá)負(fù)載均衡服務(wù)器,由負(fù)載均衡服務(wù)器通過一定的調(diào)度算法將流量分發(fā)到不同的應(yīng)用服務(wù)器上面,同時(shí)負(fù)載均衡服務(wù)器也會(huì)對應(yīng)用服務(wù)器做周期性的健康檢查,當(dāng)發(fā)現(xiàn)故障節(jié)點(diǎn)時(shí)便動(dòng)態(tài)的將節(jié)點(diǎn)從應(yīng)用服務(wù)器集群中剔除,以此來保證應(yīng)用的高可用。
當(dāng)一個(gè)Web系統(tǒng)從日訪問量10萬逐步增長到1000萬,甚至超過1億的過程中,Web系統(tǒng)承受的壓力會(huì)越來越大,在這個(gè)過程中,我們會(huì)遇到很多的問題。為了解決這些性能壓力帶來問題,我們需要在Web系統(tǒng)架構(gòu)層面搭建多個(gè)層次的緩存機(jī)制。在不同的壓力階段,我們會(huì)遇到不同的問題,通過搭建不同的服務(wù)和架構(gòu)來解決。
Web負(fù)載均衡
Web負(fù)載均衡(Load Balancing),簡單地說就是給我們的服務(wù)器集群分配“工作任務(wù)”,而采用恰當(dāng)?shù)姆峙浞绞剑瑢τ诒Wo(hù)處于后端的Web服務(wù)器來說,非常重要。
負(fù)載均衡的策略;
1. HTTP重定向
當(dāng)用戶發(fā)來請求的時(shí)候,Web服務(wù)器通過修改HTTP響應(yīng)頭中的Location標(biāo)記來返回一個(gè)新的url,然后瀏覽器再繼續(xù)請求這個(gè)新url,實(shí)際上就是頁面重定向。通過重定向,來達(dá)到“負(fù)載均衡”的目標(biāo)。例如,我們在下載PHP源碼包的時(shí)候,點(diǎn)擊下載鏈接時(shí),為了解決不同國家和地域下載速度的問題,它會(huì)返回一個(gè)離我們近的下載地址。重定向的HTTP返回碼是302,如下圖:
如果使用PHP代碼來實(shí)現(xiàn)這個(gè)功能,方式如下:
這個(gè)重定向非常容易實(shí)現(xiàn),并且可以自定義各種策略。但是,它在大規(guī)模訪問量下,性能不佳。而且,給用戶的體驗(yàn)也不好,實(shí)際請求發(fā)生重定向,增加了網(wǎng)絡(luò)延時(shí)。
2. 反向代理負(fù)載均衡
反向代理服務(wù)的核心工作主要是轉(zhuǎn)發(fā)HTTP請求,扮演了瀏覽器端和后臺(tái)Web服務(wù)器中轉(zhuǎn)的角色。因?yàn)樗ぷ髟贖TTP層(應(yīng)用層),也就是網(wǎng)絡(luò)七層結(jié)構(gòu)中的第七層,因此也被稱為“七層負(fù)載均衡”。可以做反向代理的軟件很多,比較常見的一種是Nginx。
Nginx是一種非常靈活的反向代理軟件,可以自由定制化轉(zhuǎn)發(fā)策略,分配服務(wù)器流量的權(quán)重等。反向代理中,常見的一個(gè)問題,就是Web服務(wù)器存儲(chǔ)的session數(shù)據(jù),因?yàn)橐话阖?fù)載均衡的策略都是隨機(jī)分配請求的。同一個(gè)登錄用戶的請求,無法保證一定分配到相同的Web機(jī)器上,會(huì)導(dǎo)致無法找到session的問題。
解決方案主要有兩種:
配置反向代理的轉(zhuǎn)發(fā)規(guī)則,讓同一個(gè)用戶的請求一定落到同一臺(tái)機(jī)器上(通過分析cookie),復(fù)雜的轉(zhuǎn)發(fā)規(guī)則將會(huì)消耗更多的CPU,也增加了代理服務(wù)器的負(fù)擔(dān)。
將session這類的信息,專門用某個(gè)獨(dú)立服務(wù)來存儲(chǔ),例如Redis/memchache,這個(gè)方案是比較推薦的。
反向代理服務(wù),也是可以開啟緩存的,如果開啟了,會(huì)增加反向代理的負(fù)擔(dān),需要謹(jǐn)慎使用。這種負(fù)載均衡策略實(shí)現(xiàn)和部署非常簡單,而且性能表現(xiàn)也比較好。但是,它有“單點(diǎn)故障”的問題,如果掛了,會(huì)帶來很多的麻煩。而且,到了后期Web服務(wù)器繼續(xù)增加,它本身可能成為系統(tǒng)的瓶頸。
3. IP負(fù)載均衡
IP負(fù)載均衡服務(wù)是工作在網(wǎng)絡(luò)層(修改IP)和傳輸層(修改端口,第四層),比起工作在應(yīng)用層(第七層)性能要高出非常多。原理是,他是對IP層的數(shù)據(jù)包的IP地址和端口信息進(jìn)行修改,達(dá)到負(fù)載均衡的目的。這種方式,也被稱為“四層負(fù)載均衡”。常見的負(fù)載均衡方式,是LVS(Linux Virtual Server,Linux虛擬服務(wù)),通過IPVS(IP Virtual Server,IP虛擬服務(wù))來實(shí)現(xiàn)。
在負(fù)載均衡服務(wù)器收到客戶端的IP包的時(shí)候,會(huì)修改IP包的目標(biāo)IP地址或端口,然后原封不動(dòng)地投遞到內(nèi)部網(wǎng)絡(luò)中,數(shù)據(jù)包會(huì)流入到實(shí)際Web服務(wù)器。實(shí)際服務(wù)器處理完成后,又會(huì)將數(shù)據(jù)包投遞回給負(fù)載均衡服務(wù)器,它再修改目標(biāo)IP地址為用戶IP地址,最終回到客戶端。
上述的方式叫LVS-NAT,除此之外,還有LVS-RD(直接路由),LVS-TUN(IP隧道),三者之間都屬于LVS的方式,但是有一定的區(qū)別,篇幅問題,不贅敘。
IP負(fù)載均衡的性能要高出Nginx的反向代理很多,它只處理到傳輸層為止的數(shù)據(jù)包,并不做進(jìn)一步的組包,然后直接轉(zhuǎn)發(fā)給實(shí)際服務(wù)器。不過,它的配置和搭建比較復(fù)雜。
4. DNS負(fù)載均衡
DNS(Domain Name System)負(fù)責(zé)域名解析的服務(wù),域名url實(shí)際上是服務(wù)器的別名,實(shí)際映射是一個(gè)IP地址,解析過程,就是DNS完成域名到IP的映射。而一個(gè)域名是可以配置成對應(yīng)多個(gè)IP的。因此,DNS也就可以作為負(fù)載均衡服務(wù)。
這種負(fù)載均衡策略,配置簡單,性能極佳。但是,不能自由定義規(guī)則,而且,變更被映射的IP或者機(jī)器故障時(shí)很麻煩,還存在DNS生效延遲的問題。
5. DNS/GSLB負(fù)載均衡
我們常用的CDN(Content Delivery Network,內(nèi)容分發(fā)網(wǎng)絡(luò))實(shí)現(xiàn)方式,其實(shí)就是在同一個(gè)域名映射為多IP的基礎(chǔ)上更進(jìn)一步,通過GSLB(Global Server Load Balance,全局負(fù)載均衡)按照指定規(guī)則映射域名的IP。一般情況下都是按照地理位置,將離用戶近的IP返回給用戶,減少網(wǎng)絡(luò)傳輸中的路由節(jié)點(diǎn)之間的跳躍消耗。
實(shí)際過程是LDNS(Local DNS)先向根域名服務(wù)(Root Name Server)獲取到頂級(jí)根的Name Server(例如.com的),然后得到指定域名的授權(quán)DNS,然后再獲得實(shí)際服務(wù)器IP。
CDN在Web系統(tǒng)中,一般情況下是用來解決大小較大的靜態(tài)資源(html/Js/Css/圖片等)的加載問題,讓這些比較依賴網(wǎng)絡(luò)下載的內(nèi)容,盡可能離用戶更近,提升用戶體驗(yàn)。
例如,我訪問了一張imgcache.gtimg.cn上的圖片(騰訊的自建CDN,不使用qq.com域名的原因是防止http請求的時(shí)候,帶上了多余的cookie信息),我獲得的IP是183.60.217.90。
文章轉(zhuǎn)載請保留網(wǎng)址:http://aberdeenanguscattle.com/news/industry/2485.html