第二十八课预习任务
18.1 集群介绍
18.2 keepalived介绍18.3/18.4/18.5 用keepalived配置高可用集群18.6 负载均衡集群介绍18.7 LVS介绍18.8 LVS调度算法18.9/18.10 LVS NAT模式搭建18.1 集群介绍
• 根据功能划分为两大类:高可用和负载均衡
• 高可用集群通常为两台服务器,一台工作,另外一台作为冗余,当提供服务的机器宕机,冗余将接替继续提供服务
数字表示高可用的标准 像99.99,在一年中99.99%时间都是在线的 ,有的5个9有个6个9,怎么样才能做到,就是提高一个高可用的服务出来,A机器down机了,B机器马上提供服务,很快,如果一年就有1分钟的机器不能用,那可用性达到了几个9.
• 实现高可用的开源软件有:heartbeat、keepalived ,之前用heartbeat演示的,centOS6发现很多问题,所以现在推荐大家keepalived 不仅有高可用的功能还有负载均衡功效
• 负载均衡集群,需要有一台服务器作为分发器,它负责把用户的请求分发给后端的服务器处理,在这个集群里,除了分发器外,就是给用户提供服务的服务器了,这些服务器数量至少为2
如果业务发展很好由几百人发展到1万多用户访问,一台机器可能定不能满足提供这么多用户,那就加机器,(CPU 内存提升,但最终肯定有瓶颈) ,横向扩容负载均衡
• 实现负载均衡的开源软件有LVS、keepalived、haproxy、nginx, 各有各的优势后期 在比较
商业的有F5、Netscaler 成本比较高,便宜的也几万块,高并发 稳定性好
18.2 keepalived介绍
在这里我们使用keepalived来实现高可用集群,因为heartbeat在centos6上有一些问题,影响实验效果 切换不及时等
keepalived通过VRRP(Virtual Router Redundancy Protocl)来实现高可用。 虚拟路由冗余容器
在这个协议里会将多台功能相同的路由器组成一个小组,这个小组里会有1个master角色和N(N>=1)个backup角色。
master会通过组播的形式向各个backup发送VRRP协议的数据包,当backup收不到master发来的VRRP数据包时,就会认为master宕机了。此时就需要根据各个backup的优先级来决定谁成为新的mater。
Keepalived要有三个模块,分别是core、check和vrrp。其中core模块为keepalived的核心,负责主进程的启动、维护以及全局配置文件的加载和解析,check模块负责健康检查,vrrp模块是来实现VRRP协议的。
18.3 /4/5用keepalived配置高可用集群
准备两台机器130和132,130作为master,132作为backup
两台机器都执行yum install -y keepalived
两台机器都安装nginx,其中130上已经编译安装过nginx,132上需要yum安装nginx: yum install -y nginx
设定vip为100
编辑130上keepalived配置文件,内容从https://coding.net/u/aminglinux/p/aminglinux-book/git/blob/master/D21Z/master_keepalived.conf获取
130编辑监控脚本,内容从https://coding.net/u/aminglinux/p/aminglinux-book/git/blob/master/D21Z/master_check_ng.sh获取
给脚本755权限
systemctl start keepalived 130启动服务
我用的是192.168.253.143 192.168.253.144
搭建高可用 ,让那个服务实现高可用 这里是Nginx
因为工作中,生产环境中很多企业用Nginx作为实现负载均衡器
加入Nginx一旦挂掉,后端即使正常的也挂掉了,这个不能出现单点故障
192.168.253.144已经编译安装过nginx, 143没有看下143
[root@linux01 ~]# rpm -qa |grep nginx
没有安装过
[root@linux01 ~]# yum install -y nginx
所以 144是源码包安装的 , 143是yum安装的
144上
[root@linux02 ~]# ps aux |grep nginx
root 14357 0.0 0.1 46860 1640 ? Ss 18:38 0:00 nginx: master process /usr/local/nginx/sbin/nginx -c /usr/local/nginx/conf/nginx.conf
nobody 16964 0.0 0.3 48784 3760 ? S 21:13 0:00 nginx: worker process
nobody 16965 0.0 0.3 48784 3760 ? S 21:13 0:00 nginx: worker process
root 17622 0.0 0.0 112724 964 pts/1 R+ 21:50 0:00 grep --color=auto nginx
[root@linux02 ~]# ls /etc/keepalived/keepalived.conf
/etc/keepalived/keepalived.conf
老师提供了模板keepalived.conf,注意 master 和从是有区别的
global_defs { //全局的定义参数
notification_email { // 出现问题是给邮箱发邮件 ,可以不去定义,因为现在用不着
aming@aminglinux.com
}
notification_email_from root@aminglinux.com //由哪个邮箱发出去。
smtp_server 127.0.0.1
smtp_connect_timeout 30
router_id LVS_DEVEL
}
//上面都是自定义的,下面是检测服务是否正常, 就是上节课说道的 check模块负责健康检查 ,需要写个检测脚本的,这个服务是否正常,不正常就启动起来
vrrp_script chk_nginx {
script "/usr/local/sbin/check_ng.sh"
interval 3
}
vrrp_instance VI_1 { // 定义相关master东西
state MASTER // 如果从的话backup 从和主两个是不一样的
interface ens33 // 通过VRRP协议发广播,通过哪个网卡发呢 ,这里定义
virtual_router_id 51 // 定义路由器的ID是什么
priority 100 // 权重 --从和主两个是不一样的
advert_int 1
authentication { // 认证相关的信息
auth_type PASS // 认证类型是 密码的形式
auth_pass aminglinux>com // 密码是什么呢定义一个字符串
}
virtual_ipaddress { // 定义VIP ,主挂掉的话从起来,访问哪个IP呢,所以我们定义一个共有的IP。 主正常时候主绑定这个IP ,主挂掉从绑定这个IP
192.168.253.150
}
track_script { // 前面检查脚本 后面要加载
chk_nginx
}
}
先把原始的配置文件清空掉
[root@linux02 ~]# > /etc/keepalived/keepalived.conf
[root@linux02 ~]# vim /etc/keepalived/keepalived.conf 复制上面的脚本。
配置完上面后还定义脚本,路径在哪 上面的配置文件已经定义好了 script "/usr/local/sbin/check_ng.sh"
[root@linux02 ~]# vim /usr/local/sbin/check_ng.sh
脚本内容
#!/bin/bash
#时间变量,用于记录日志
d=`date --date today +%Y%m%d_%H:%M:%S`
#计算nginx进程数量
n=`ps -C nginx --no-heading|wc -l`
#如果进程为0,则启动nginx,并且再次检测nginx进程数量,
#如果还为0,说明nginx无法启动,此时需要关闭keepalived
if [ $n -eq "0" ]; then
/etc/init.d/nginx start
n2=`ps -C nginx --no-heading|wc -l`
if [ $n2 -eq "0" ]; then
echo "$d nginx down,keepalived will stop" >> /var/log/check_ng.log
systemctl stop keepalived //关掉 防止脑裂,要开始启动从了。(脑裂就是主从都开着 抢夺资源像抢crp)
fi
fi
132上编辑配置文件,内容从https://coding.net/u/aminglinux/p/aminglinux-book/git/blob/master/D21Z/backup_keepalived.conf获取
132上编辑监控脚本,内容从https://coding.net/u/aminglinux/p/aminglinux-book/git/blob/master/D21Z/backup_check_ng.sh获取
给脚本755权限
132上也启动服务 systemctl start keepalived
[root@linux02 ~]# chmod 755 /usr/local/sbin/check_ng.sh
如果没权限没办法加载,如果没办法加载没办法启动keepalived 服务
[root@linux02 ~]# systemctl start keepalived
[root@linux02 network-scripts]# ps aux |grep keep
root 18133 0.0 0.1 118636 1396 ? Ss 22:34 0:00 /usr/sbin/kee alived -D
root 18134 0.0 0.2 122836 2372 ? S 22:34 0:00 /usr/sbin/kee alived -D
root 18135 0.0 0.2 122836 2444 ? S 22:34 0:00 /usr/sbin/kee alived -D
root 18159 0.0 0.0 112724 964 pts/1 R+ 22:34 0:00 grep --color=auto keep
[root@linux02 network-scripts]# ps aux |grep nginx
root 18180 0.0 0.1 46032 1300 ? Ss 22:34 0:00 nginx: master process /usr/local/nginx/sbin/nginx -c /usr/local/nginx/conf/nginx.conf
nobody 18184 0.0 0.3 48520 3936 ? S 22:34 0:00 nginx: worker process
nobody 18185 0.0 0.3 48520 3936 ? S 22:34 0:00 nginx: worker process
root 18193 0.0 0.0 112724 964 pts/1 R+ 22:34 0:00 grep --color=auto nginx
先把Nginx服务停一下
[root@linux02 network-scripts]# /etc/init.d/nginx stop
Stopping nginx (via systemctl): [ 确定 ]
[root@linux02 network-scripts]# ps aux |grep nginx
root 18262 0.0 0.1 46032 1300 ? Ss 22:35 0:00 nginx: master process /usr/local/nginx/sbin/nginx -c /usr/local/nginx/conf/nginx.conf
nobody 18266 0.0 0.3 48520 3936 ? S 22:35 0:00 nginx: worker process
nobody 18267 0.0 0.3 48520 3936 ? S 22:35 0:00 nginx: worker process
root 18269 0.0 0.0 112724 960 pts/1 R+ 22:35 0:00 grep --color=auto nginx
[root@linux02 network-scripts]# date
2018年 10月 15日 星期一 22:35:50 CST
此时一定注意自己网卡地址ens33 还是ens37和配置文件要一致
日志在哪呢
[root@linux02 ~]# less /var/log/messages
Oct 15 22:20:11 linux02 Keepalived_vrrp[17978]: WARNING - default user 'keepaliv
ed_script' for script execution does not exist - please create.
Oct 15 22:20:11 linux02 Keepalived_vrrp[17978]: Truncating auth_pass to 8 charac
ters
Oct 15 22:20:26 linux02 Keepalived_vrrp[17978]: (VI_1): Cannot find an IP addres
s to use for interface ens33
Oct 15 22:20:27 linux02 Keepalived_vrrp[17978]: Stopped
Oct 15 22:20:27 linux02 Keepalived[17976]: Keepalived_vrrp exited with permanent
error CONFIG. Terminating
Oct 15 22:20:27 linux02 Keepalived[17976]: Stopping
Oct 15 22:20:27 linux02 Keepalived_healthcheckers[17977]: Stopped
Oct 15 22:20:32 linux02 Keepalived[17976]: Stopped Keepalived v1.3.5 (03/19,2017
), git commit v1.3.5-6-g6fa32f2
看Vrp不能用ifconfig 要用ip add 我的是ens37
[root@linux02 network-scripts]# ip add
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST> mtu 1500 qdisc pfifo_fast state DOWN qlen 1000
link/ether 00:0c:29:96:73:d7 brd ff:ff:ff:ff:ff:ff
3: ens37: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 00:0c:29:96:73:e1 brd ff:ff:ff:ff:ff:ff
inet 192.168.253.144/24 brd 192.168.253.255 scope global dynamic ens37
valid_lft 1346sec preferred_lft 1346sec
inet 192.168.253.150/32 scope global ens37
valid_lft forever preferred_lft forever
inet6 fe80::94f2:23ad:72f0:a092/64 scope link
valid_lft forever preferred_lft forever
[root@linux02 /]# source /etc/selinux/config
[root@linux02 /]# getenforce
Permissive
[root@linux02 /]# iptables -nvL
[root@linux02 /]# iptables -F
在配置从之前先检查下主的防火墙 ,关闭掉。
[root@linux02 /]# systemctl stop firewalld
从也一样检查防火墙
[root@linux01 ~]# iptables -nvL
Chain INPUT (policy ACCEPT 74402 packets, 57M bytes)
pkts bytes target prot opt in out source destination
Chain FORWARD (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
Chain OUTPUT (policy ACCEPT 58097 packets, 8712K bytes)
pkts bytes target prot opt in out source destination
[root@linux01 ~]# systemctl stop firewalld
[root@linux01 ~]# getenforce
Permissive
[root@linux01 ~]# >/etc/keepalived/keepalived.conf
global_defs {
notification_email {
aming@aminglinux.com
}
notification_email_from root@aminglinux.com
smtp_server 127.0.0.1
smtp_connect_timeout 30
router_id LVS_DEVEL
}
vrrp_script chk_nginx {
script "/usr/local/sbin/check_ng.sh"
interval 3
}
vrrp_instance VI_1 {
state BACKUP
interface ens33
virtual_router_id 51
priority 90
advert_int 1
authentication {
auth_type PASS
auth_pass aminglinux>com
}
virtual_ipaddress {
192.168.253.150
}
track_script {
chk_nginx
}
}
[root@linux01 ~]# vim /usr/local/sbin/check_ng.sh
#时间变量,用于记录日志
d=`date --date today +%Y%m%d_%H:%M:%S`
#计算nginx进程数量
n=`ps -C nginx --no-heading|wc -l`
#如果进程为0,则启动nginx,并且再次检测nginx进程数量,
#如果还为0,说明nginx无法启动,此时需要关闭keepalived
if [ $n -eq "0" ]; then
systemctl start nginx 这是主从的区别因为从是yum安装的
n2=`ps -C nginx --no-heading|wc -l`
if [ $n2 -eq "0" ]; then
echo "$d nginx down,keepalived will stop" >> /var/log/check_ng.log
systemctl stop keepalived
fi
fi
[root@linux01 ~]# chmod 755 /usr/local/sbin/check_ng.sh 没有权限不能把Nginx拉起服务来
[root@linux01 ~]# systemctl start keepalived
[root@linux01 ~]# ps aux |grep keep
root 122161 0.1 0.1 118632 1392 ? Ss 22:53 0:00 /usr/sbin/kee alived -D
root 122163 0.0 0.2 127440 2832 ? S 22:53 0:00 /usr/sbin/kee alived -D
root 122197 0.0 0.1 127440 1192 ? S 22:53 0:00 /usr/sbin/kee alived -D
root 122218 0.0 0.1 128468 1352 ? S 22:53 0:00 systemctl stop keepalived
root 122220 0.0 0.0 112724 964 pts/4 R+ 22:53 0:00 grep --color=auto keep
现在两边keep都启动了 ,主从都有Nginx ,那怎么区分呢
主是
[root@linux02 /]# cat /usr/local/nginx/conf/vhost/aaa.com.conf
server
{
listen 80 default_server;
server_name aaa.com;
index index.html index.htm index.php;
root /data/wwwroot/default;
location ~ \.php$
{
include fastcgi_params;
fastcgi_pass unix:/tmp/aming.sock;
# fastcgi_pass 127.0.0.1:9000;
fastcgi_index index.php;
fastcgi_param SCRIPT_FILENAME /data/wwwroot/default$fastcgi_script_name;
}
}
如果需要修改该找个,默认配置文件里找
[root@linux02 /]# cat /data/wwwroot/default/index.html
This is the default site. 改这个就可以
那从yum 安装的默认程序在哪呢
[root@linux01 ~]# vim /usr/share/nginx/html/index.html
[root@linux01 ~]# > /usr/share/nginx/html/index.html
[root@linux01 ~]# vim /usr/share/nginx/html/index.html
back up bakc up
从上需要先关闭Apache
[root@linux01 default.d]# /usr/local/apache2.4/bin/apachectl stop
[root@linux01 default.d]# ps aux |grep http
root 122392 0.0 0.0 112724 964 pts/4 S+ 23:18 0:00 grep --color=auto http
[root@linux01 default.d]# systemctl start nginx
这个现在访问的是master
测试高可用
先确定好两台机器上nginx差异,比如可以通过curl -I 来查看nginx版本
测试1:关闭master上的nginx服务
测试2:在master上增加iptabls规则
iptables -I OUTPUT -p vrrp -j DROP
测试3:关闭master上的keepalived服务
测试4:启动master上的keepalived服务
生产环境什么情况下需要接听到从上呢,当然需要把Vrrp接听到从IP上
vrrp 现在在主上
[root@linux02 /]# ip add
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST> mtu 1500 qdisc pfifo_fast state DOWN qlen 1000
link/ether 00:0c:29:96:73:d7 brd ff:ff:ff:ff:ff:ff
3: ens37: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 00:0c:29:96:73:e1 brd ff:ff:ff:ff:ff:ff
inet 192.168.253.144/24 brd 192.168.253.255 scope global dynamic ens37
valid_lft 1717sec preferred_lft 1717sec
inet 192.168.253.150/32 scope global ens37
valid_lft forever preferred_lft forever
inet6 fe80::94f2:23ad:72f0:a092/64 scope link
valid_lft forever preferred_lft forever
从上是没有的
[root@linux01 ~]# ip add
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 00:0c:29:be:b9:98 brd ff:ff:ff:ff:ff:ff
inet 192.168.253.143/24 brd 192.168.253.255 scope global ens33
valid_lft forever preferred_lft forever
inet6 fe80::20c:29ff:febe:b998/64 scope link
valid_lft forever preferred_lft forever
我把把主vrp出去的包封掉
[root@linux02 /]# iptables -I OUTPUT -p vrrp -j DROP
[root@linux02 /]# iptables -nvL
Chain INPUT (policy ACCEPT 24 packets, 2144 bytes)
pkts bytes target prot opt in out source destination
Chain FORWARD (policy ACCEPT 0 packets, 0 bytes)
pkts bytes target prot opt in out source destination
Chain OUTPUT (policy ACCEPT 15 packets, 1772 bytes)
pkts bytes target prot opt in out source destination
15 600 DROP 112 -- * * 0.0.0.0/0 0.0.0.0/0
[root@linux02 /]# tail /var/log/messages 看下日志
Oct 15 23:20:54 linux02 kernel: ip_tables: (C) 2000-2006 Netfilter Core Team
Oct 15 23:21:05 linux02 dhclient[8431]: DHCPDISCOVER on ens33 to 255.255.255.255 port 67 interval 17 (xid=0x62299847)
Oct 15 23:21:05 linux02 dhclient[8431]: send_packet: Network is down
Oct 15 23:21:05 linux02 dhclient[8431]: dhclient.c:2407: Failed to send 300 byte long packet over ens33 interface.
Oct 15 23:21:22 linux02 dhclient[8431]: DHCPDISCOVER on ens33 to 255.255.255.255 port 67 interval 7 (xid=0x62299847)
Oct 15 23:21:22 linux02 dhclient[8431]: send_packet: Network is down
Oct 15 23:21:22 linux02 dhclient[8431]: dhclient.c:2407: Failed to send 300 byte long packet over ens33 interface.
Oct 15 23:21:29 linux02 dhclient[8431]: No DHCPOFFERS received.
Oct 15 23:21:29 linux02 dhclient[8431]: No working leases in persistent database - sleeping.
Oct 15 23:21:29 linux02 NetworkManager[545]: <warn> [1539616889.9898] ifcfg-rh: missing PREFIX, assuming 192.168.253.145/24
再看下从上
[root@linux01 default.d]# tail /var/log/messages
所以直接切掉还不能达到切换资源的目的
先把主恢复
[root@linux02 /]# iptables -F
怎么才能模拟生产环境中主机down机的情况呢 ,最简单的方法是把keepalived 停掉,
主上
[root@linux02 /]# systemctl stop keepalived
从上
[root@linux01 default.d]# ip add
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 00:0c:29:be:b9:98 brd ff:ff:ff:ff:ff:ff
inet 192.168.253.143/24 brd 192.168.253.255 scope global ens33
valid_lft forever preferred_lft forever
inet6 fe80::20c:29ff:febe:b998/64 scope link
valid_lft forever preferred_lft forever
在从上看下日志
[root@linux01 default.d]# tail /var/log/messages
Oct 15 23:29:24 linux01 Keepalived_vrrp[122618]: VRRP_Instance(VI_1) Sending/queueing gratuitous ARPs on ens33 for 192.168.253.150
Oct 15 23:29:24 linux01 Keepalived_vrrp[122618]: Sending gratuitous ARP on ens33 for 192.168.253.150
Oct 15 23:29:24 linux01 Keepalived_vrrp[122618]: Sending gratuitous ARP on ens33 for 192.168.253.150
Oct 15 23:29:24 linux01 Keepalived_vrrp[122618]: Sending gratuitous ARP on ens33 for 192.168.253.150
Oct 15 23:29:24 linux01 Keepalived_vrrp[122618]: Sending gratuitous ARP on ens33 for 192.168.253.150
此时VRp到了从机上 ,我们再把主keepalived 开起来
[root@linux02 /]# systemctl start keepalived
[root@linux02 /]# ip add
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN qlen 1
link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
inet 127.0.0.1/8 scope host lo
valid_lft forever preferred_lft forever
inet6 ::1/128 scope host
valid_lft forever preferred_lft forever
2: ens33: <BROADCAST,MULTICAST> mtu 1500 qdisc pfifo_fast state DOWN qlen 1000
link/ether 00:0c:29:96:73:d7 brd ff:ff:ff:ff:ff:ff
3: ens37: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
link/ether 00:0c:29:96:73:e1 brd ff:ff:ff:ff:ff:ff
inet 192.168.253.144/24 brd 192.168.253.255 scope global dynamic ens37
valid_lft 1694sec preferred_lft 1694sec
inet 192.168.253.150/32 scope global ens37
valid_lft forever preferred_lft forever
inet6 fe80::94f2:23ad:72f0:a092/64 scope link
valid_lft forever preferred_lft forever
通常我们用两台,有的更叫保险用 两台 说 三台, 把权重调成不同 ,权重 越高 优先级越高 ,
除了Nginx外还有MySQL ,必须保持两笔数据一致。
18.6 负载均衡集群介绍
主流开源软件LVS、keepalived、haproxy、nginx等
其中LVS属于4层(网络OSI 7层模型),nginx属于7层,haproxy既可以认为是4层,也可以当做7层使用
keepalived的负载均衡功能其实就是lvs
lvs这种4层的负载均衡是可以分发除80外的其他端口通信的,比如MySQL的,而nginx仅仅支持http,https,mail,haproxy也支持MySQL这种
相比较来说,LVS这种4层的更稳定,能承受更多的请求,而nginx这种7层的更加灵活,能实现更多的个性化需求, 根据目录的名字区目录的服务器
keepalived、负载均衡就是LVS,是内置的
lvs更稳当 nginx更灵活 实现更多功能。
18.7 LVS介绍
LVS是由国人章文嵩开发
流行度不亚于apache的httpd,基于TCP/IP做的路由和转发,稳定性和效率很高
LVS最新版本基于Linux内核2.6,有好多年不更新了
LVS有三种常见的模式:NAT、DR、IP Tunnel
LVS架构中有一个核心角色叫做分发器(Load balance),它用来分发用户的请求,还有诸多处理用户请求的服务器(Real Server,简称rs)
LVS NAT模式
这种模式借助iptables的nat表来实现
用户的请求到分发器后,通过预设的iptables规则,把请求的数据包转发到后端的rs上去
rs需要设定网关为分发器的内网ip
用户请求的数据包和返回给用户的数据包全部经过分发器,所以分发器成为瓶颈
在nat模式中,只需要分发器有公网ip即可,所以比较节省公网ip资源
10台以下一般NAT这种模式
LVS IP Tunnel模式
这种模式,需要有一个公共的IP配置在分发器和所有rs上,我们把它叫做vip
客户端请求的目标IP为vip,分发器接收到请求数据包后,会对数据包做一个加工,会把目标IP改为rs的IP,这样数据包就到了rs上
rs接收数据包后,会还原原始数据包,这样目标IP为vip,因为所有rs上配置了这个vip,所以它会认为是它自己
LVS DR模式
这种模式,也需要有一个公共的IP配置在分发器和所有rs上,也就是vip
和IP Tunnel不同的是,它会把数据包的MAC地址修改为rs的MAC地址
rs接收数据包后,会还原原始数据包,这样目标IP为vip,因为所有rs上配置了这个vip,所以它会认为是它自己
18.8 LVS调度算法轮询 Round-Robin rr
加权轮询 Weight Round-Robin wrr
最小连接 Least-Connection lc 新的请求给连接数少的这个服务器
加权最小连接 Weight Least-Connection wlc
基于局部性的最小连接 Locality-Based Least Connections lblc
带复制的基于局部性最小连接 Locality-Based Least Connections with Replication lblcr
目标地址散列调度 Destination Hashing dh
源地址散列调度 Source Hashing sh
18.9/18.10 LVS NAT模式搭建
三台机器
分发器,也叫调度器(简写为dir)
内网:133.130,外网:147.144(vmware仅主机模式)
rs1
内网:133.132
rs2
内网:133.133
三台机器
分发器,也叫调度器(简写为dir)
内网:133.130,外网:142.147(vmware仅主机模式)
rs1
内网:133.132,设置网关为133.130
rs2
内网:133.133,设置网关为133.130
三台机器上都执行执行
systemctl stop firewalld; systemc disable firewalld
systemctl start iptables-services; iptables -F; service iptables save
在dir上安装ipvsadm
yum install -y ipvsdam
在dir上编写脚本,vim /usr/local/sbin/lvs_nat.sh//内容如下
#! /bin/bash
# director 服务器上开启路由转发功能
echo 1 > /proc/sys/net/ipv4/ip_forward
# 关闭icmp的重定向
echo 0 > /proc/sys/net/ipv4/conf/all/send_redirects
echo 0 > /proc/sys/net/ipv4/conf/default/send_redirects
# 注意区分网卡名字,阿铭的两个网卡分别为ens33和ens37
echo 0 > /proc/sys/net/ipv4/conf/ens33/send_redirects
echo 0 > /proc/sys/net/ipv4/conf/ens37/send_redirects
# director 设置nat防火墙
iptables -t nat -F
iptables -t nat -X
iptables -t nat -A POSTROUTING -s 192.168.133.0/24 -j MASQUERADE
# director设置ipvsadm
IPVSADM='/usr/sbin/ipvsadm'
$IPVSADM -C
$IPVSADM -A -t 192.168.147.144:80 -s wlc -p 3
$IPVSADM -a -t 192.168.147.144:80 -r 192.168.133.132:80 -m -w 1
$IPVSADM -a -t 192.168.147.144:80 -r 192.168.133.133:80 -m -w 1
NAT模式效果测试
两台rs上都安装nginx
设置两台rs的主页,做一个区分,也就是说直接curl两台rs的ip时,得到不同的结果
浏览器里访问192.168.142.147,多访问几次看结果差异