多方思考流量负载均衡的方针

时间:2022年12月23日

/

来源:杂色玫瑰

/

编辑:本站小编

收藏本文

下载本文

下面是小编整理的多方思考流量负载均衡的方针,本文共2篇,欢迎您阅读,希望对您有所帮助。本文原稿由网友“杂色玫瑰”提供。

篇1:多方思考流量负载均衡的方针

多用户集中访问某一网站,很容易造成网速浏览速度低,无法访问等问题,那么流量负载均衡的问题就需要进行解决了。下面,我们举出一个例子来为大家做一个简单的策略介绍,看看网站的均衡问题应从哪些角度进行解决。

常规负载均衡办法受阻

大家都知道,要解决网站大流量压力的问题,就是通过流量负载均衡的办法来解决,当然,鞋仓网的工程师也想到了这一点。

于是,他们展开以下的行动:

一方面,鞋仓网设立了两个机房数据中心:吴江机房、苏州双线机房。通过两个数据中心来分担数据访问压力,在两个机房之间,通过软件配置的DNS负载均衡来解决两者的工作协同问题。

另一方面,鞋仓网为了加速网站的访问速度,采用了Cache技术。鞋仓网另外购买了多台服务器,并且通过Squid Cache这种开源技术,将这几台服务器配置成机房数据中心的Squid Cache服务器,从而加速网络访问速度。

当此方案实施后,起了一定的效果。但没过多久,网络访问速度依然很慢。这是什么原因呢?

据Array Networks市场总监陈凯介绍到:鞋仓网之所以出现这样的问题,主要是因为一般的软件做流量负载均衡并不能解决真正的大流量压力问题。

软DNS负载均衡无力

其中,DNS负载均衡由于是软件编写的DNS,无法保证网站机房的高可用性:由于DNS无法实现对IDC站点和应用内容的健康检查,所以当某个IDC的链路或IDC内的应用出现故障时,DNS软件无法得知IDC的状况,仍然会把用户请求发送到该IDC去,从而导致部分用户出现访问不到页面的状况。如此,鞋仓网就无法真正实现吴江机房、苏州双线机房两个机房的广域网负载均衡。

Squid Cache服务器效果不佳

另外,当使用Squid服务器做Cache服务时,每台服务器缓存的内容都是一样的,这样就造成了缓存的浪费,不利于提高服务器的使用效率。如果能够根据用户的访问,在每台服务器上分别缓存不同的内容,则可缓存的内容数量就会大大增加,同时使用N+1或N+M的方式来进行容灾,会大大提高工作效率,同时也能极大提高业务应用的可靠性。

硬件专业负载均衡才是良药?

在常规负载均衡解决不的情况下,鞋仓网只好求助于专业的负载均衡设备供应商,

在这种情况下,Array Networks向鞋仓网提供了综合的流量负载均衡解决方案

鞋仓网采用Array NetworksTMX产品完成对内部系统的应用加速和高可靠性保障,通过Array NetworksTMX的服务器负载均衡功能实现对后台21台搜索服务器的负载均衡;通过应用Array NetworksTMX产品中丰富的SLB算法、连接复用技术和Cache功能能够帮助用户提高响应速度和高可用性。

Array Networks为鞋仓网提供的广域网WEB应用加速服务器负载解决方案,一共采用两台TMX配置,确保服务的高可用性。

TMX根据负载情况决定将流量分担到哪一台服务器,保障每个用户的请求都能获得最优的响应质量。如果任何一台服务器出现故障时,ArrayTMX的智能健康检测机制都可以随时了解到相关状况,在处理后续的流量时,将不会再向有故障的服务器发送用户请求,这一切对用户都是透明的,用户不会因此受到任何影响。

四大网站流量问题被解决

鞋仓网通过部署Array NetworksTMX负载均衡解决方案之后,一下解决了其原有的各种问题,总结起来,主要表现为以下几个方面:

1、实现了吴江机房、苏州双线机房有效负载均衡

通过TMX的GSLB广域网负载均衡功能和高性能,对客户请求快速响应并合理分配到苏州和吴江两个站点进行响应。

2、本地服务器群的负载均衡

TMX的SLB服务器负载均衡技术实现本地多台服务器流量负载均衡,TMX可以智能寻找最佳服务器从而保证客户得到响应最快服务器所提供的最佳服务,提高网站的高可靠性、响应能力。

3、Squid Cache效果不佳问题

TMX通过HaseURL算法实现将不同的内容的访问分发到不同的Squid上面,将不同的内容Cache到不同Squid服务器上面,充分利用Squid的cache能力,充分发挥每一台Squid服务器的效能,进而提高用户访问的响应速度。

4、优化了网络访问方式

TMX采用连接复用技术、Cache技术对于某些页面可以达到提高80%的HTTP响应能力,极大提高单台服务器的响应连接数量,显著提高用户的WEB访问速度。

篇2:流量负载均衡的精简设置

在LINUX系统下,我们可以实现IPVS的流量负载均衡功能,那么现在我们就来给出这个设置的具体操作过程,主要是包括三个大的步骤:准备,配置和测试,当然,我们的主要侧重点就是设置问题。相信大家都能学会。

IPVS实现流量负载均衡1、准备

开启 3台 Linux 和1台 Windows 根据图片显示的IP分配情况 配置好IP地址

测试网络连接 全网联通

在LVS虚拟服务器上 安装软件 yum install ipvsadm

IPVS实现流量负载均衡2、配置

2.1、LVS虚拟服务器的配置 :

写个脚本

vilvs-up.sh ______ #!/bin/bash echo1>/proc/sys/net/ipv4/ip_forward echo0>/proc/sys/net/ipv4/conf/all/send_redirects echo0>/proc/sys/net/ipv4/conf/default/send_redirects echo0>/proc/sys/net/ipv4/conf/eth0/send_redirects echo0>/proc/sys/net/ipv4/conf/eth1/send_redirects LVSADM='/sbin/ipvsadm'$LVSADM-C $LVSADM-A-t192.168.0.220:80-srr $LVSADM-a-t192.168.0.220:80-r192.168.0.193:80-g-w1 $LVSADM-a-t192.168.0.220:80-r192.168.0.194:80-g-w1 ______ 执行#chmoda+xlvs-up.sh #echo'lvs-up.sh'>>/etc/rc.d/rc.local #lvs-up.sh

2.2、配置Web服务器 (2个都一样)

写个脚本

virs-up.sh __________________ #!/bin/bash ifconfiglo:0192.168.0.220netmask255.255.255.255 routeadd-host192.168.0.220devlo:0 echo0>/proc/sys/net/ipv4/ip_forward echo1>/proc/sys/net/ipv4/conf/lo/arp_ignore echo2>/proc/sys/net/ipv4/conf/lo/arp_announce echo1>/proc/sys/net/ipv4/conf/all/arp_ignore echo2>/proc/sys/net/ipv4/conf/all/arp_announce __________________ #chmoda+xrs-up.sh #rs-up.sh

2.3、分别在2个真实服务器上 开启 Web 服务 并写入不同的内容

Service httpd restartecho “192.168.0.193” >/var/www/html/echo “192.168.0.194” >/var/www/html/

IPVS实现流量负载均衡3、测试

使用 windows测试效果 打开浏览器输入 192.168.0.220

网络负载均衡的主控内容

功能解析的DNS负载均衡

VRRP技术实现网络的路由冗余和负载均衡网络知识

下载多方思考流量负载均衡的方针(合集2篇)
多方思考流量负载均衡的方针.doc
将本文的Word文档下载到电脑,方便收藏和打印
推荐度:
点击下载文档
最新范文更多
    热门文章
      猜你喜欢
      点击下载本文文档