當前位置:網站首頁>LVS負載均衡集群(NAT模式)

LVS負載均衡集群(NAT模式)

2022-01-27 03:44:51 即使不為人所道

LVS負載均衡集群

企業集群應用概述

群集的含義

  • Cluster,集群、群集
  • 由多臺主機構成,但對外只錶現為一個整體,只提供一個訪問入口(域名或IP地址),相當於一臺大型計算機。

問題

  • 互聯網應用中,隨著站點對硬件性能、響應速度、服務穩定性、數據可靠性等要求越來越高,單臺服務器已經無法滿足負載均衡及高可用的要求。

解决方法

  • 使用價格昂貴的小型機、大型機

  • 使用多臺相對廉價的普通服務器構建服務群集

    通過整合多臺服務器,使用LVS來達到服務器的高可用和負載均衡,並以同一個IP地址對外提供相同的服務。
    在企業中常用的一種群集技術——LVS (Linux Virtual Server,Linux虛擬服務器)

企業集群的分類

根據群集所針對的目標差异,可分為三種類型

  • 負載均衡群集

  • 高可用群集

  • 高性能運算群集

負載均衡群集(Load Balance Cluster)

提高應用系統的響應能力、盡可能處理更多的訪問請求、减少延遲為目標,獲得高並發、高負載(LB)的整體性能·LB的負載分配依賴於主節點的分流算法,將來自客戶機的訪問請求分擔給多個服務器節點,從而緩解整個系統的負載壓力。例如,“DNS輪詢”“反向代理”等

高可用群集(High Availability Cluster)

提高應用系統的可靠性、盡可能地减少中斷時間為目標確保服務的連續性,達到高可用(HA)的容錯效果

HA的工作方式包括雙工和主從兩種模式,雙工即所有節點同時在線;
主從則只有主節點在線,但當出現故障時從節點能自動切換為王節點。例如,“故障切換”“雙機熱備”等

高性能運算群集(High Performance Computer clluster)

以提高應用系統的CPU運算速度、擴展硬件資源和分析能力為目標,獲得相當於大型、超級計算機的高性能運算(HPC)能力
高性能依賴於“分布式運算”、“並行計算”,通過專用硬件和軟件將多個服務器的CPU、內存等資源整合在一起,實現只有大型、超級計算機才具備的計算能力。例如,“雲計算”“網格計算”等

負載均衡集群的原理

負載均衡的結構

  • 第一層,負載調度器(Load Balancer或Director)

訪問整個群集系統的唯一入口,對外使用所有服務器共有的VIP地址,也稱為群集IP地址。通常會配置主、備兩臺調度器實現熱備份,當主調度器失效以後能够平滑替換至備用調度器,確保高可用性。

  • 第二層,服務器池(Server Pool)

群集所提供的應用服務、由服務器池承擔,其中每個節點具有獨立的RIP地址(真實IP),只處理調度器分發過來的客戶機請求。當某個節點暫時失效時,負載調度器的容錯機制會將其隔離,等待錯誤排除以後再重新納入服務器池。

  • 第三層,共享存儲(Share Storage)

為服務器池中的所有節點提供穩定、一致的文件存取服務,確保整個群集的統一性。共享存儲可以使用NAS設備,或者提供NFS共享服務的專用服務器。

在這裏插入圖片描述

負載均衡群集是目前企業用得最多的群集類型

群集的負載調度技術有三種工作模式

  • 地址轉換

  • IP隧道

  • 直接路由

NAT模式

地址轉換

  • Network Address Translation,簡稱NAT模式

  • 類似於防火牆的私有網絡結構,負載調度器作為所有服務器節點的網關,即作為客戶機的訪問入口,也是各節點回應客戶機的訪問出口

    (為什麼不用NAT模式,因為NAT模式調度器即使出口又是入口,會成為負載均衡的瓶頸,所以這種模式性能不够强)

  • 服務器節點使用私有IP地址,與負載調度器比特於同一個物理網絡,安全性要優於其他兩種方式

TUN模式

IP隧道

  • lP Tunnel,簡稱TUN模式
  • 采用開放式的網絡結構,負載調度器僅作為客戶機的訪問入口,各節點通過各自的Internet連接直接回應客戶機,而不再經過負載調度器
  • 服務器節點分散在互聯網中的不同比特置,具有獨立的公網IP地址,通過專用IP隧道與負載調度器相互通信

DR模式

直接路由

  • Direct Routing,簡稱DR模式
  • 采用半開放式的網絡結構,與TUN模式的結構類似,但各節點並不是分散在各地,而是與調度器比特於同一個物理網絡
  • 負載調度器與各節點服務器通過本地網絡連接,不需要建立專用的IP隧道

LVS虛擬服務器

Linux Virtual Server

  • 針對Linux內核開發的負載均衡解决方案
  • 1998年5月,由我國的章文嵩博士創建
  • 官方網站:http://www.linuxvirtualserver.org/
  • LVS實際上相當於基於IP地址的虛擬化應用,
    為基於IP
    地址和內容請求分發的負載均衡提出了一種高效的解决方法

LVS現在已成為Linux內核的一部分,默認編譯為ip_vs模塊,
必要時能够自動調用。在centU’爾十 4水廣自載ip_vs模塊,並查著當前系統中ip_vs模塊的版本信息

#加載ip_va模塊
modprobe ip_vs
#確認內核對LVS的支持
cat /proc/net/ip_vs

LVS的負載調度算法

  • 輪詢(Round Robin)
    將收到的訪問請求按照順序輪流分配給群集中的各節點(真實服務器),均等地對待每一臺服務器,而不管服務器實際的連接數和系統負載
  • 加權輪詢 (Weighted Round Robin)
    根據調度器設置的權重值來分發請求,權重值高的節點優先獲得任務,分配的請求數越多
    • 保證性能强的服務器承擔更多的訪問流量

要使用LVS的能力,只需安裝一個LVS的管理工具:ipvsadm

ipvsadm功能與選項說明

選項 功能
-A 添加虛擬服務器
-D 删除整個虛擬服務器
-s 指定負載調度算法(輪詢:rr、加權輪詢:wrr、最少連接:lc、加權最少連接:wlc)
-a 錶示添加真實服務器(節點服務器)
-d 删除某一個節點
-t 指定 VIP地址及 TCP端口
-r 指定 RIP地址及 TCP端口
-m 錶示使用 NAT群集模式
-g 錶示使用 DR模式
-i 錶示使用 TUN模式
-w 設置權重(權重為 0 時錶示暫停節點)
-p 60 錶示保持長連接60秒
-l 列錶查看 LVS 虛擬服務器(默認為查看所有)
-n 以數字形式顯示地址、端口等信息,常與“-l”選項組合使用。ipvsadm -ln

LVS的負載調度算法

輪詢(Round Robin)

將收到的訪問請求按照順序輪流分配給群集中的各節點(真實服務器) ,均等地對待每一臺服務器 ,而不管服務器實際的連接數和系統負載

加權輪詢 (Weighted Round Robin)

根據調度器設置的權重值來分發請求,權重值高的節點優先獲得任務,分配的請求數越多
保證性能强的服務器承擔更多的訪問流量

最少連接 (Least Connections )

根據真實服務器已建立的連接數進行分配,將收到的訪問請求優先分配給連接數最少的節點

加權最少連接(Weighted L east Connections )

在服務器節點的性能差异較大時,可以為真實服務器自動調整權重
性能較高的節點將承擔更大比例的活動連接負載

LVS-NAT的部署

在這裏插入圖片描述

主機 操作系統 IP地址 所需服務
負載調度器 centos7 內網關:192.168.10.10
外網關12.0.0.1
ipvsadm
NFS服務器 CentOS7 192.168.10.1 rpcbind、nfs-utils
Web節點服務器1 CentOS7 192.168.10.10 rpcbind、nfs-utils、httpd
Web節點服務器2 CentOS7 192.168.10.20 rpcbind、nfs-utils、httpd
客戶端 win7 12.0.0.12

配置web節點服務器

systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0

yum install httpd -y
systemctl start httpd.service
systemctl enable httpd.service

yum -y install nfs-utils rpcbind

systemctl start rpcbind
systemctl enable rpcbind



在這裏插入圖片描述

Web節點服務器1:192.168.10.10

mount.nfs 192.168.10.10:/opt/test1 /var/www/html
echo 'this is test1 web!' > /var/www/html/index.html

Web節點服務器2:192.168.10.20

mount.nfs 192.168.10.20:/opt/test1 /var/www/html
echo 'this is test1 web!' > /var/www/html/index.html

在這裏插入圖片描述

部署NFS共享存儲

systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0

yum -y install nfs-utils rpcbind

systemctl start rpcbind.service
systemctl start nfs.service

systemctl enable nfs.service
systemctl enable rpcbind.service

mkdir /opt/test1
mkdir /opt/test2

chmod 777 /opt/test1
chmod 777 /opt/test2

vim /etc/exports
/opt/test1 192.168.10.0/24(rw,sync)
/opt/test2 192.168.10.0/24(rw,sync)

exportfs -rv

配置負載調度器

systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0

配置SNAT轉發規則


vim /etc/sysctl.conf
net.ipv4.ip_forward = 1echo '1' > /proc/sys/net/ipv4/ip_forward
sysctl -p

iptables -t nat -F
iptables -F
iptables -t nat -A POSTROUTING -s 192.168.10.0/24 -o ens37 -j SNAT --to-source 12.0.0.1

加載LVS內核模塊

#加載 ip_vs模塊
modprobe ip_vs
#查看 ip_vs版本信息
cat /proc/net/ip_vs

安裝ipvsadm 管理工具

yum -y install ipvsadm

#啟動服務前須保存負載分配策略
ipvsadm-save > /etc/sysconfig/ipvsadm
或
ipvsadm --save > /etc/sysconfig/ipvsadm

systemctl start ipvsadm.service

配置負載分配策略(NAT模式只要在服務器上配置,節點服務器不需要特殊配置)

#清除原有策略
ipvsadm -C

ipvsadm -A -t 12.0.0.1:80 -s rr
ipvsadm -a -t 12.0.0.1:80 -r 192.168.10.10:80 -m
ipvsadm -a -t 12.0.0.1:80 -r 192.168.10.20:80 -m
#啟用策略
ipvsadm

#查看節點狀態,Masq代錶 NAT模式
ipvsadm -ln
#保存策略
ipvsadm-save > /etc/sysconfig/ipvsadm

在這裏插入圖片描述

在這裏插入圖片描述

測試效果

在一臺IP為12.0.0.12的客戶機使用瀏覽器訪問 http://12.0.0.1/ ,不斷刷新瀏覽器測試負載均衡效果,刷新間隔需長點.
在這裏插入圖片描述
在這裏插入圖片描述

版權聲明
本文為[即使不為人所道]所創,轉載請帶上原文鏈接,感謝
https://cht.chowdera.com/2022/01/202201270344510191.html

隨機推薦