; Linux cluster集群全讲解 | Linux运维部落

Linux cluster集群全讲解

Linux cluster集群

Linux cluster(集群):

cluster:计算机组合,为解决某个特定问题组合起来形成的单个系统;

Linux Cluster类型:

LBLoad Balancing,负载均衡;

HAHigh Availiablity,高可用;

A=MTBF(平均无故障时长)/MTBF+MTTR(平均修复时间))

(0,1)90%, 95%, 99%, 99.5%, 99.9%, 99.99%, 99.999%

A=(0<=1)

HPHigh Performance,高性能;

全球计算机性能评测网站:www.top500.org

系统扩展方式:

Scale UP:向上扩展

Scale Out:向外扩展Cluster集群

 

LB Cluster负载均衡集群:

LB Cluster的实现:

硬件:

F5 Big-IP

Citrix Netscaler

A10 A10

软件:

lvsLinux Virtual Server

nginx

haproxy

atsapache traffic server

perlbal

pound

基于工作的协议层次划分:

传输层(通用):(DPORT)主要根据目标端口进行转发;

lvs:主要工作在传输层调度;

nginx:(stream)模拟传输层调度;

haproxy:(mode tcp)模拟传输层调度;

应用层(专用):(自定义的请求模型分类)

proxy server

httpnginx, httpd, haproxy(mode http), …

fastcginginx, httpd, …

mysqlmysql-proxy, …

站点指标:

PVPage View 页面入口的浏览量;

UVUnique Vistor 独立的访问者;

IP:访问网站时使用的外网地址;

 

会话保持:

(1) session sticky:会话粘性;

Source IP

Cookie 追踪用户身份;

(2) session replication;

session cluster

(3) session server

主从复制集群;

lvsLinux Virtual Server

VS: Virtual Server

RS: Real Server

lvs在不适用的场合使用会带来的麻烦:

lvs太原生态,使得很多辅助性的工具可控性极低,因为它只是为了调度而生。

lvs不适用小型站点。

 

lvs:四层路由器,四层交换机;

VS:根据请求报文的目标IP和目标协议及端口将其调度转发至某RealServer,根据调度算法来挑选RS

iptables/netfilter

iptables:用户空间的管理工具;

netfilter:内核空间上的框架;

流入:PREROUTING –> INPUT

流出:OUTPUT –> POSTROUTING

转发:PREROUTING –> FORWARD –> POSTROUTING

 

DNAT:目标地址转换; PREROUTING

 

lvs: ipvsadm/ipvs

ipvsadm:用户空间的命令行工具,规则管理器,用于管理集群服务及RealServer

ipvs:工作于内核空间的netfilterINPUT钩子之上的框架;

注意:一般不建议在lvs调度服务器上做太多的iptables过滤规则。

 

lvs集群类型中的术语:

vsVirtual Server, Director, Dispatcher, Balancer

rsReal Server, upstream server, backend server

CIPClient IP, VIP: Virtual serve ip , DIP: Director IPRIP: Real server IP

CIP <–> VIP == DIP <–> RIP

OS七层模型:

应用层

表示层

会话层

传输层

网络层

数据链路层

物理层

lvs集群的类型:

lvs-nat:修改请求报文的目标IP

lvs-dr:重新封装新的MAC地址,默认使用的类型;

lvs-tun:在原请求IP报文之外新加一个IP首部;

lvs-fullnat:修改请求报文的源和目标IP

lvs-nat

多目标IPDNAT,通过将请求报文中的目标地址和目标端口修改为某挑出的RSRIPPORT实现转发;

1RIPDIP必须在同一个IP网络,且应该使用私网地址;RS的网关要指向DIP

2)请求报文和响应报文都必须经由Director转发;Director易于成为系统瓶颈;

3)支持端口映射,可修改请求报文的目标PORT

4vs必须是Linux系统,rs可以是任意系统;

lvs-dr

Direct Routing,直接路由;

通过为请求报文重新封装一个MAC首部进行转发,源MACDIP所在的接口的MAC,目标MAC是某挑选出的RSRIP所在接口的MAC地址;源IP/PORT,以及目标IP/PORT均保持不变;

Director和各RS都得配置使用VIP

(1) 确保前端路由器将目标IPVIP的请求报文发往Director

(a) 在前端网关做静态绑定,此种方案不可行;

(b) RS上使用arptables

(c) RS上修改内核参数以限制arp通告及应答级别;

arp_announce

arp_ignore

(2) RSRIP可以使用私网地址,也可以是公网地址;RIPDIP在同一IP网络;RIP的网关不能指向DIP,以确保响应报文不会经由DirectorRSlo别名网卡上配置vip地址

(3) RSDirector要在同一个物理网络;

(4) 请求报文要经由Director,但响应不能经由Director,而是由RS直接发往Client

(5) 不支持端口映射;

lvs-tun

转发方式:不修改请求报文的IP首部(源IPCIP,目标IPVIP),而在原IP报文之外再封装一个IP首部(源IPDIP,目标IPRIP),将报文发往挑选出的目标RS

(1)DIP, VIP, RIP都应该是公网地址;

(2) RS的网关不能,也不可能指向DIPRSlo别名网卡上配置vip地址

(3) 请求报文要经由Director,但响应不能经由Director

(4) 不支持端口映射;

(5) RSOS得支持隧道功能;

客户端请求:

client—–CIP VIP——->director——–CIP VIP DIP RIP———realserver(在lo别名上配置vip);

服务器响应请求:

realserver——VIP CIP———client

 

lvs-fullnat

通过同时修改请求报文的源IP地址和目标IP地址进行转发;

CIP –> DIP

VIP –> RIP

(1) VIP是公网地址,RIPDIP是私网地址,且通常不在同一IP网络;因此,RIP的网关一般不会指向DIP

(2) RS收到的请求报文源地址是DIP,因此,只需响应给DIP;但Director还要将其发往Client

(3) 请求和响应报文都经由Director

(4) 支持端口映射;

 

注意:lvs-fullnatlvs默认不支持;

ipvs scheduler(调度):

根据其调度时是否考虑各RS当前的负载状态,可分为静态方法和动态方法两种:

静态方法:仅根据算法本身进行调度;

RRroundrobin,轮询;

WRRWeighted RR,加权轮询;

SHSource Hashing,实现session sticy,源IP地址hash;将来自于同一个IP地址的请求始终发往第一次挑中的RS,从而实现会话绑定;

DHDestination Hashing;目标地址哈希,将发往同一个目标地址的请求始终转发至第一次挑中的RS

 

动态方法:主要根据每RS当前的负载状态及调度算法进行调度;

Overhead=

LCleast connections

Overhead=activeconns*256+inactiveconns

WLCWeighted LC

Overhead=(activeconns*256+inactiveconns)/weight

SEDShortest Expection Delay

Overhead=(activeconns+1)*256/weight

NQNever Queue

 

LBLCLocality-Based LC,动态的DH算法;

LBLCRLBLC with Replication,带复制功能的LBLC

ipvsadm/ipvs

ipvs

~]# grep -i -C 10 “ipvs” /boot/config-3.10.0-327.el7.x86_64

支持的协议:TCPUDPAHESPAH_ESP, SCTP

ipvs集群:

集群服务

服务上的RS

ipvsadm命令:

ipvsadm -A|E -t|u|f service-address [-s scheduler] [-p [timeout]] [-M netmask] [–pe persistence_engine] [-b sched-flags]

ipvsadm -D -t|u|f service-address

ipvsadm -C

ipvsadm -R

ipvsadm -S [-n]

ipvsadm -a|e -t|u|f service-address -r server-address [options]

ipvsadm -d -t|u|f service-address -r server-address

ipvsadm -L|l [options]

ipvsadm -Z [-t|u|f service-address]

管理集群服务:增、改、删;

增、改:

ipvsadm -A|E -t|u|f service-address [-s scheduler] [-p [timeout]]

 

删:

ipvsadm -D -t|u|f service-address

 

service-address

-t|u|f

-t: TCP协议的端口,VIP:TCP_PORT

-u: TCP协议的端口,VIP:UDP_PORT

-ffirewall MARK,是一个数字;

 

[-s scheduler]:指定集群的调度算法,默认为wlc

 

管理集群上的RS:增、改、删;

增、改:

ipvsadm -a|e -t|u|f service-address -r server-address [-g|i|m] [-w weight]

 

删:

ipvsadm -d -t|u|f service-address -r server-address

 

server-address

rip[:port]

 

选项:

lvs类型:

-g: gateway, dr类型

-i: ipip, tun类型

-m: masquerade, nat类型

-w weight:权重;

 

清空定义的所有内容:

ipvsadm -C

 

查看:

ipvsadm -L|l [options]

–numeric, -nnumeric output of addresses and ports

–exactexpand numbers (display exact values)

–connection-coutput of current IPVS connections

–statsoutput of statistics information

–rate output of rate information

 

保存和重载:

ipvsadm -S = ipvsadm-save

ipvsadm -R = ipvsadm-restore

实验测试lvs集群:

实验环境:准备4台虚拟机,配置一个lvs-natlvs集群;

client客户机IP192.168.3.7

director调度服务器准备两块网卡,network 1 vip:192.168.3.5 network 2Dip:192.168.22.1

realserver1 httpd服务器rip192.168.22.2 gateway192.168.22.1

realserver1 httpd配置访问主页realserver 1

realserver2 httpd服务器rip192.168.22.3gateway192.168.22.1

realserver2 httpd配置访问主页realserver 2

1)以上实验测试环境准备好之后,我们就可以配置lvs director调度服务器了。

director调度服务器上开启路由转发功能;

blob.png

2)director调度服务器上配置调度服务,使用rr轮循调配:

blob.png

3)测试lvsrr轮循功能:

blob.png

4)修改director调度服务器调度方式为wrr加权轮循:

blob.png

5)测试lvswrr加权轮循功能:

blob.png

6)修改director调度服务器调度方式为SH源地址哈希:

blob.png

7)测试lvsSH源地址哈希功能,将客户端IP第一次访问的realserver始终绑定在固定的第一次访问的realserver上。

blob.png

负载均衡集群的设计要点:

(1) 是否需要会话保持;

(2) 是否需要共享存储;

共享存储:NASSANDS(分布式存储)

数据同步:

课外作业:rsync+inotify实现数据同步,一般不建议使用。

 

lvs-nat

设计要点:

(1) RIPDIP在同一IP网络, RIP的网关要指向DIP

(2) 支持端口映射;

实践作业(博客):负载均衡一个php应用;

测试:(1) 是否需要会话保持;(2) 是否需要共享存储;

lvs-dr

dr模型中,各主机上均需要配置VIP,解决地址冲突的方式有三种:

(1) 在前端网关做静态绑定;不可用;

(2) 在各RS使用arptables;比较麻烦;

(3) 在各RS修改内核参数,来限制arp响应和通告的级别;可行;

限制响应级别:arp_ignore(响应)

0:默认值,表示可使用本地任意接口上配置的任意地址进行响应;

1: 仅在请求的目标IP配置在本地主机的接收到请求报文接口上时,才给予响应;

限制通告级别:arp_announce(通告)

0:默认值,把本机上的所有接口的所有信息向每个接口上的网络进行通告;

1:尽量避免向非直接连接网络进行通告;

2:必须避免向非本网络通告;

实验测试lvs集群:

实验环境:准备4台虚拟机,配置一个lvs-natlvs集群;

实验测试lvs集群:

实验环境:准备4台虚拟机,配置一个lvs-drlvs集群;

client客户机IP为:192.168.3.7

director调度服务器配置一块网卡,在eno16777736上配置dip192.168.3.5,在eno16777736:0别名上配置vip192.168.3.6

realserver1 httpd服务器rip192.168.3.2,在lo网卡上配置别名vip192.168.3.6,配置arp_ignore=1 ,arp_announce=2

realserver2 httpd服务器rip192.168.3.8,在lo网卡上配置别名vip192.168.3.6,配置arp_ignore=1 ,arp_announce=2

1)在director调度服务器上配置eno16777736:0别名上配置vip192.168.3.6

blob.png

2)在realserver1 lo网卡别名上配置VIP192.168.3.6,配置arp_ignore=1 ,arp_announce=2配置网页为<h>realserver1</h>为了方便配置,简化重复操作,提高效率我们可以编写脚本setlvs.sh

blob.png

blob.png

3)realserver2上同样执行setlvs.sh脚本文件,配置viplo网卡别名上,配置arp_ignore=1 ,arp_announce=2,配置网页为:<h>realserver2</h>

blob.png

blob.png

4)配置director调度服务器为wrr加权轮循,lvs类型为lvs-dr

blob.png

 

5)测试lvs-dr加权轮循:

blob.png

FWMFireWall Mark (防火墙标记)

借助于防火墙标记来分类报文,而后基于标记定义集群服务;可将多个不同的应用使用同一个集群服务进行调度;

 

打标记方法(在Director主机):

# iptables -t mangle -A PREROUTING -d $vip -p $proto –dport $port -j MARK –set-mark NUMBER

 

基于标记定义集群服务:

# ipvsadm -A -f NUMBER [options]

 

lvs persistence:持久连接

持久连接模板:实现无论使用任何算法,在一段时间内,实现将来自同一个地址的请求始终发往同一个RS

 

ipvsadm -A|E -t|u|f service-address [-s scheduler] [-p [timeout]]

 

port Affinity

每端口持久:每集群服务单独定义,并定义其持久性;

每防火墙标记持久:基于防火墙标记定义持久的集群服务;可实现将多个端口上的应用统一调度,即所谓的port Affinity

每客户端持久:基于0端口定义集群服务,即将客户端对所有应用的请求统统调度至后端主机,而且必须使用持久连接进行绑定;

blob.png

保存及重载规则:

保存:建议保存至/etc/sysconfig/ipvsadm

ipvsadm-save > /PATH/TO/IPVSADM_FILE

ipvsadm -S > /PATH/TO/IPVSADM_FILE

systemctl stop ipvsadm.service

 

重载:

ipvsadm-restore < /PATH/FROM/IPVSADM_FILE

ipvsadm -R < /PATH/FROM/IPVSADM_FILE

systemctl restart ipvsadm.service

考虑:

(1) Director不可用,整个系统将不可用;SPoF

解决方案:高可用

keepalived

heartbeat/corosync

(2) RS不可用时,Director依然会调度请求至此RS

解决方案:对各RS的健康状态做检查,失败时禁用,成功时启用;

keepalived

heartbeat/corosync, ldirectord

检测方式:

(a) 网络层检测;

(b) 传输层检测,端口探测;

(c) 应用层检测,请求某关键资源;

 

ok –> failure

failure –> ok

 

实验测试:

搭建lvs-dr类型的MySQL集群做防火墙标记:

client 客户机IP192.168.3.7

director调度服务器配置一块网卡,在eno16777736上配置dip192.168.3.5,在eno16777736:0别名上配置vip192.168.3.6

blob.png

realserver1 mysql服务器rip192.168.3.2,在lo网卡上配置别名vip192.168.3.6,配置arp_ignore=1 ,arp_announce=2

realserver2 mysql服务器rip192.168.3.8,在lo网卡上配置别名vip192.168.3.6,配置arp_ignore=1 ,arp_announce=2,创建一个数据库mydb以表示和realserver的区别;

我们就延用以上lvs-dr httpd实验的配置:

1)在realserver1 服务器上安装数据库,授权一个test用户可以远程登录:

blob.png

2)在realserver2服务器上安装数据库,授权一个test用户可以远程登录并创建一个mydb的数据库:

blob.png

创建mydb数据库:

blob.png

3)配置director调度服务器,添加3306端口的调度和80端口的调度:

blob.png

blob.png

4)测试MySQLlvs-dr类型的调度:

blob.png

5)测试httpdlvs-dr类型的调度:

blob.png

由此可以看出MySQLhttpd是分别进行调度的。

5)使用IPvsadm -C清除调度器上的调度规则。并配置防火墙规则进行调度;

blob.png

blob.png

blob.png

6)测试防火墙标记调度:

blob.png

blob.png

使用ipvsadm -S 保存ipvsadm规则到/etc/sysconig/ipvsadm

ipvsadm -S > /etc/sysconfig/ipvsadm

使用ipvsadm -R 重载ipvsadm规则

ipvsadm -R < /etc/sysconfig/ipvsadm

 

原创文章,作者:zhengyibo,如若转载,请注明出处:/59607

联系我们

400-080-6560

在线咨询:点击这里给我发消息

邮件:1660809109@qq.com

工作时间:周一至周五,9:30-18:30,节假日同时也值班

友情链接:测试  万达主管  万达开户  万达登录  万达娱乐  华宇招商  万达娱乐平台  万达娱乐招商  万达直属QQ  万达主管