Application Delivery Controller Content Delivery Network Quality of Service Packet Loss Ratio WAN Optimization A10 Networks Riverbed Latency 應用傳遞控制器 廣域網路最佳化 Citrix Akamai 內容傳遞網路 ADC CDN QoS 負載

加速網路應用效能 不同領域廠商各顯神通

2013-09-14
從應用系統Web化到服務雲端化,網路連線始終扮演最基礎也是最關鍵的角色。當系統仰賴網路越深,對於存取及回應速度就相對更加敏感,有時可能只是幾秒鐘的延遲,就足以讓使用者對該應用服務的體驗變差,漸漸疏離使用。只是從端到端的網路封包傳遞過程,足以導致速度變差或連線品質不佳的原因相當多,除了可能是服務系統本身造成,更多情況還有來自公眾網路原生的問題。
基於訊號傳輸原理,TCP封包傳遞距離越長,就會相對增加延遲(Latency)時間,讓封包遺失率(Packet Loss Ratio)大幅提升。例如位處兩岸三地的台商,或客戶群遍及全球的電子商務網站,除非在各個區域皆架設一套服務系統,否則客戶仍舊需要跨區域連線回到台灣的伺服器存取,為了避免傳輸距離過長造成的連線問題,常見會建置網路應用加速方案來輔助。如今隨著雲端運算應用模式逐漸為多數企業所接受,更突顯出網路傳輸效能的重要性,市場上也逐漸發展出幾種常見的作法。

影響存取 非僅頻寬

Riverbed大中華區產品市場總監丁偉觀察IT技術發展演進指出,雲端運算的興起可說是資訊科技逐漸演化的結果。其實過去幾年,IT維運已經逐漸地朝向雲端運算模式發展,只是當時這類應用模式還沒有被多數人所接受。直到虛擬化技術興起後開始發展雲端運算概念,至今已有不少企業應用系統開始部分採用公有雲來建置,具關鍵性任務系統才被保留在自家機房。

但不論是公有雲或私有雲,皆可發現,IT委外維運的概念日漸成熟,促使現代化資料中心規模越蓋越大,卻讓應用服務與用戶間的地理距離越來越遠。因為集中管理的概念下,資料中心規模必須夠大,才能收容以往分散於企業端的應用服務,以提高利用率,發揮經濟規模效益。但是如此一來,用戶端存取資料或應用程式,勢必會較以往距離更遠,因此網路傳輸的效能、QoS(Quality of Service)、可用性,在雲端環境下更是缺一不可。

談到雲端資料中心提供的網路傳輸效能,多數人會先聯想到對外頻寬大小,但A10 Networks台灣區技術總監簡偉傑指出,其實影響雲端連線品質的因素除了頻寬,舉凡網路設備、伺服器、應用程式等,皆是必須審視的重要環節,尤其是應用程式效能管理,可說是所有環節中最「接近」使用者,也是最重要的部分。

「常見明明網站服務正常運作,使用者卻接連抱怨存取網頁速度過慢,原因即在於,看似正常的系統,並不代表該系統具備可用性。其實多數企業不知該如何處理這類的狀況,因此才會有應用傳遞控制器(Application Delivery Controller,ADC),例如A10 AX系列來協助將服務快速地傳遞到使用者端。」簡偉傑說。

多重機制加快速度

應用傳遞控制器方案或稱為應用程式傳遞網路(Application Delivery Network,ADN),其技術主要是基於負載均衡演進而來,可解析Layer 4至Layer 7的網路封包,提供包括壓縮、快取(Cache)、SSL加速、連接複用(Connection Reuse)、URL Hashing、全球伺服器負載均衡(Global Server Load Balance,GSLB)等機制。

所謂的連接複用,Citrix技術顧問何浩祥說明,此即為負載均衡採用的技術之一。典型的NetScarler設備的作法,主要是將用戶端發出的多個Request(請求)經由相同連線來執行。由於TCP溝通的起始必須先經三方交握(Three-way Handshaking),中間大約會產生11個封包往來,成功建立後才會開始發送Http的請求;而TCP連接複用機制啟用後大致只需4個封包即可完成,這對於長距離的網路傳輸相當有用。以台灣傳遞至歐洲來看,單向傳遞時間大約是250毫秒(millisecond),一個封包來回時間總共需要500毫秒,必須減少封包傳遞數量才能讓速度得以提升。


▲常見網路應用加速機制,一種是提供外部客戶的服務,會在資料中心內部建置負載均衡設備來協助;另一種內對外的連線,會有頻寬上限問題,多數是在企業內自建Cache伺服器來因應。(資料來源:Citrix)

何浩祥舉例,理論上用戶端的連線數應該跟伺服器一致,但啟用TCP連接複用後,用戶端在七十萬個連線數量下,伺服器端卻只有不到五千個連線數,如此一來,伺服器即可減少資源消耗,並有效加快連線回應時間。至於快取(或稱為緩存)功能是在NetScaler設備上保存一份副本資料,靜態與動態網頁皆可,外部連線存取時,可直接由NetScaler回應,減少伺服器的連線負載。「除非是需要輸入資料的網頁,例如帳號與密碼的登入,就無法利用快取機制來協助,因為這屬於用戶提供資料,而非網頁伺服器提供資料給用戶。因此例如電子商務業者,主機在台灣,服務歐洲客戶,常見的方式則是運用內容傳遞網路(CDN)來協助網路應用加速。」何浩祥說。

找出最佳傳輸路徑

在各種網路應用加速技術中,內容傳遞網路可說是較不同的實作法,Akamai香港和台灣地區總經理丁元秀說明,各區域的廣域網路得以彼此互連,是仰賴掌握海纜的電信業者彼此合作,因此區域之間商業關係的好壞往往決定連接距離的長短。 但是就Akamai而言,經過十多年來的發展下,已在二千多個據點,總建置13萬台伺服器,分散式部署在全球各地,因此由Akamai在各地所串聯組成的專屬網絡,就足以決定路徑的配置。

而最佳路徑的選擇,則是由Akamai自行研發的專屬系統執行SureRoute運算與偵測,經由Big Data處理與分析後,挖掘出正確的資訊。Akamai資深解決方案工程師黃開印說明,尤其是動態網頁勢必要回到網頁服務本地端進行交易,無法運用快取時,最佳路徑選擇更為重要,以確保速度得以提升。

他進一步提到,其實利用Cache來提升網頁存取速度已是基本概念,常見在企業內網中可能會架一台本地端的Cache伺服器,外部服務則是採用ISP提供的Cache服務。Cache的機制並不難,真正困難的是使用者經驗一致性,也就是網頁應用程式提供全球存取時,能夠讓不同時區、不同地理位置的使用者皆擁有相同的存取體驗。

但是只要有距離,網路就一定會面臨延遲問題,因此當企業主機建置在本地端,卻要將業務拓展至歐美國家時,首先面臨到的問題就是歐美國家的使用者會感覺應用服務存取不順暢。於是早期常見租用美國ISP的主機代管服務(Co-Location),建置一套相同系統服務鄰近國家,但是遠端管理與資料同步方面就會變得複雜。而採用Akamai的內容傳遞網路服務即可在完全不用更動現有架構下簡單實現,又可省去遠端管理的複雜度。

對此,如A10 Networks AX系列、Citrix NetScaler以及Riverbed Stingray等應用傳遞控制器,也具有類似機制,即為GSLB,可以根據不同地理位置導引存取流量。只是前提是必須在鄰近區域也建置一套網站系統,以便讓連線請求被導引到就近的資料中心。

「但是在雲端運算興起之後,Amazon Web Services(AWS)服務項目中亦可選用NetScaler來協助加速。只要承租Amazon服務時選用NetScaler,即可運用Amazon在全球佈建的資料中心,達到內容傳遞網路的效益。」何浩祥說明,此外,企業內網與Amazon之間亦可藉由Cloud Bridge Connector來介接,實現混合雲架構的彈性配置。

從封包深入程式邏輯

抽象來說,效能管理機制基本上就是把網路上流經的封包加以解析,抽取出效能指標存放至資料庫,或者是藉由安裝代理程式來蒐集資訊,再依據重要指標設計的運算規則,來判斷正常或異常事件,以決定是否要採取控制政策。只是針對不同應用情境的傳輸效能瓶頸,會有不同解決方案來協助。

但是Layer 4至Layer 7的封包解析,並無法深入到應用程式的邏輯,因此Riverbed以往專注於廣域網路最佳化(WAN Optimization),如今更進一步擴展至網頁應用程式效能(Application Performance Monitoring,APM)。 「使用者開啟的網頁,以及該網頁上組成的元件,皆必須要能夠辨識,才得以計算使用者完成此交易行為總耗費的時間,來了解效能狀態。」Riverbed資深技術顧問胡昌臺指出,有了這種以交易行為判斷使用者感受的工具,才得以確保最終用戶的體驗。


追蹤我們Featrue us

本站使用cookie及相關技術分析來改善使用者體驗。瞭解更多

我知道了!