服务器负载均衡

小编发布于:2022-05-19阅读:0

对于多媒体网络服务器,尤其是 ,互联网应用的快速增长Web服务器提出了更高的性能要求。面对访问量的快速增加,网络服务器需要具备提供大量并发访问服务的能力,而这通常不是单机可以胜任的。简单地提高硬件性能并不能真正解决这个问题,因为单台服务器的性能总是有限的。一般来讲,一台PC大约有1000个服务器可以支持并发访问,更高档的专用服务器可以支持3000~5000并发访问,这种能力仍然不能满足负载较大的网站的要求。特别是,网络请求是紧急的,当一些重大事件发生时,网络访问会急剧上升,导致网络瓶颈。使用上述内容服务器集群技术优势当然,这个问题可以解决,但对于一般企业来说,建立一个特殊的服务器集群系统的投资成本显然太大,难以承受。此时,可以考虑多个服务器的简单软件集群,以实现网络负载的平衡。

服务器负载均衡

均衡概述服务器负载

说到负载平衡( Load Balance),我们应该想到服务器集群。集群是一组连接在一起的计算机。从外部看,它是一个系统。每个节点可以由不同的操作系统或不同的硬件组成。例如,提供 Web对外界来说,服务集群是一个大 Web 服务器。但是,集群节点也可以单独提供服务。

1.负载平衡的含义和功能

负载平衡是基于现有的网络结构,提供了一种廉价有效的扩展服务器带宽和增加吞吐量的方法。它有两个含义:首先,大量的并发访问或数据流量分组到多个节点设备,减少用户等待响应时间:其次,单个重负运行分享到多个节点设备并行处理,每个节点设备处理后,结果总结,返回给用户,系统处理能力大大提高。

负载平衡可以增强服务器网络数据处理能力,提高网络的灵活性和可用性。主要完成以下任务:解决网络拥堵问题,就近提供服务,实现地理位置无关,提高服务器响应速度,提高服务器等资源利用效率,避免网络关键部件单点故障。

服务器负载均衡一般用于提高服务器的整体处理能力,并提高可靠性、可用性和可维护性,最终目的是加快服务器的响应速度,从而提高用户的体验度。在负载均衡的思路下得每台服务器都具备同等的地位,都可以单独对外提供服务而无须其他服务器的辅助。然后通过某种负载分担技术,将从外部发送来的请求均匀分配到对称结构中的某些服务器上,而接收到请求的服务器都独立回应客户机的请求。

2.均衡负载的服务器分类

服务器负载平衡从结构上分为本地负载平衡(Local Server Load Balance )均衡全局负载(Global Server LoadBalance),前者是指当地服务器组的负载平衡,后者是指放置在不同地理位置、不同网络和服务器组之间的负载平衡。

本地负载平衡可以有效地解决数据流量过大、网络负荷过大的问题,充分利用现有设备,避免服务器单点故障造成的数据流量损失,而无需花费昂贵的费用购买性能优异的服务器。它具有灵活多样的平衡策略,合理地将数据流分配给服务器组中的服务,这是一个共同的负担。即使是现有服务器的扩展和升级,也只是在不改变现有网络结构和停止现有服务的情况下,将新的美国服务器添加到服务组中。

全局负载平衡主要用于在一个多区域拥有自己服务器的网站,只有一个全局用户IP地址或域名可以访问最接近自己的服务器,从而获得最快的访问速度。也可用于分散子公司网站的大公司互联网 达到统一合理分配资源的目的。

全局负载均衡具有以下特点:

• 解决网络拥塞问题,就近提供服务,实现地理位置无关。

• 为用户提供更好的访问质量。

• 提高服务器响应速度。

• 提高服务器等资源的利用效率。

• 避免了数据中心的单点故障。

此外,在实现负载平衡的方式上,还有软硬件。软件负载平衡解决方案是指在一个或多个服务器对应的操作系统上安装一个或多个附加软件,以实现负载平衡DNS负载平衡等。其优点是基于特定的环境,配置简单,使用灵活,成本低,能满足一般负载平衡的需要。

硬件负载平衡解决方案是直接在服务器和外部网络之间安装负载平衡设备,我们通常称之为负载平衡设备。由于特殊设备完成特殊任务,独立于操作系统,整体性能大大提高,加上多元化的负载平衡策略和智能流量管理,可以满足良好的负载平衡需求。一般来说,硬件负载平衡优于软件模式,但成本昂贵。

负载均衡策略

要部署负载平衡,首先要选择合适的平衡策略,即根据什么达到负载平衡的目的,或根据什么将负载分配给不同的服务器。

选择合适的负载平衡策略,使多个设备能够共同完成任务,消除或避免现有网络负载分布不均匀、数据流量拥挤反应时间长的瓶颈。在每种负载平衡模式中,应用程序需求较小。负载平衡策略的优缺点及其难度有两个关键因素:一是负载平衡算法,二是网络系统状态的检测方法和能力。一般来说,常见的负载平衡策略如下。

1)轮循均衡(Round Robin )机制

循环平衡机制是将来自网络的每一个请求轮流分配给集群服务l至n,然后重新开始。此种均衡算法适合于服务器集群中的所有服务器都有相同的软硬件配置,并且平均服务请求时间相对均衡的情况。

2)极重轮循均街(Weighted Round Robin )机制

权重循环平衡机制是根据服务器的不同处理能力,将不同的权重值分配给每个服务器,使其能够接受相应权重值的服务请求 。例如,服务器 A 权值设计为1,B的权值是3,C 权值为6,服务器 A、B、C 将分别接受10%、30%和60%的服务请求。这种平衡算法可以保证高性能服务器的利用率更高,避免低性能服务器过载。

3)随机平衡( Random )机制

随机平衡机制是将来自网络的请求随机分配给内部的多个服务器,这显然不是一个好的平衡策略,因为它可能会导致一些服务器负载过大,而另一些服务器无事可做。

4 )权重随机平衡(Weighted Random)机制

权重随机平衡机制类似于权重循环算法,但在处理请求共享时是一个随机选择的过程。它结合了权重循环平衡机制和随机平衡机制的双重优点,避免了两者的缺点。

5 )均衡响应速度( Response Time)机制

负载均衡设备首先对内部服务器发出检测请求,例如 Ping) ,然后根据内部服务器对检测请求的最快响应时间来确定哪个 台服务器来响应客户端的服务请求。这种平衡算法可以更好地反映服务器的当前运行状态,但最快响应时间仅指负载平衡设备和服务器之间的最快响应时间,而不是客户端和服务器之间的最快响应时间,并且有一定的延迟。

6)至少连接翻平衡(Least Connection)机制

客户端的每个请求服务在服务器上的停留时间可能会有很大的差异。随着工作时间的延长,如果采用简单的循环或随机平衡算法,每个服务器上的连接过程可能会有很大的差异,并且没有达到真正的负载平衡。至少连接数平衡算法是集群中服务器的数据记录器,以记录当前服务器正在处理的过程数量。当有新的服务连接请求时,将当前请求分配给连接数最少的服务器,使平衡更符合实际情况,负载更平衡。该平衡算法适用于长期处理的请求服务,如FTP 。

7)处理能力均衡 (Process Power)机制

在系统安装过程中,处理能力平衡机制要求用户先给出每台服务器的配置,主要影响服务器的处理能力CPU 型号、CPU 数量和内存数量,然后系统将其换算成处理能力单位,CLB 根据每个服务器的能力平衡地将任务分配给服务器。考虑到内部服务器的处理能力和当前的网络运行状态,这种平衡算法相对更准确,特别适用于第7层(应用层)负载平衡。

8) DNS 响应均衡(Flash DNS)机制

在 互联网 上,无论是 HTTP 、FTP 或其他服务请求,客户端通常通过域名分析找到服务器的确切 IP 地址。通过 DNS 响应平衡机制,不同地理位置的负载平衡设备将收到同一客户端的域名分析请求,并将域名分析成相应的服务器IP 地址(与此负载平衡设备之间地理位置的服务器 IP 地址)并返回给客户端,客户端将以第一个域名分析 IP 地址继续要求服务 ,而忽略其他 lP 地址响应。当全局负载均衡适用于各种均衡策略时,对本地负载均衡毫无意义。

声明:本网站发布的内容(图片、视频和文字)以用户投稿、用户转载内容为主,如果涉及侵权请尽快告知,我们将会在第一时间删除。文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:shawn.lee@vecloud.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

本站原创内容未经允许不得转载,或转载时需注明出处:https://news.kd010.com/fwqjs/9901.html

TAG标签:服务器负载均衡

上一篇:在Web服务器或网站上配置SSL(IIS6.0)
下一篇:企业对服务器的性能要求

相关文章

返回顶部