主动式负载平衡器说明书封面,怀旧服主动式负载平衡器说明书任务

主动式负载平衡器说明书封面,怀旧服主动式负载平衡器说明书任务

本指南介绍如何创建基本网络负载平衡配置。该示例假定您在ComputeEngine实例上有多个网络服务器,您希望在这些实例之间平衡流量。此场景设置了一个第3层负载平衡配置,以在运行状况良好的实例之间分配HTTP流量。基本HTTP运行状况检查已配置,确保仅将流量发送给运行状况良好的实例。

配置ComputeEngine实例

对于此负载平衡场景,您将创建2个ComputeEngine虚拟机实例并在实例上安装Apache。您将添加一条允许HTTP流量访问这些实例的防火墙规则。

设置实例

转到GoogleCloudConsole中的“虚拟机实例”页面。

将名称设置为www1。

将区域设置为us-central1。

将地区设置为us-central1-b。

在网络下,使用network-lb-tag填充标记字段。

其余字段保留默认值。

创建一条防火墙规则以允许外部流量进入这些虚拟机实例

转到GoogleCloudConsole中的“防火墙”页面。

输入www-firewall-network-lb作为名称。

选择要应用防火墙规则的网络(默认)。

在目标下,选择指定的目标标记。

在目标标记字段中,输入network-lb-tag。

配置负载均衡服务

转到GoogleCloudConsole中的创建负载平衡器页面。

在面向互联网或仅限内部下,选择FromInternettomyVMs。

在多区域或单区域下,选择Singleregiononly。

配置后端

在新建TCP负载平衡器屏幕上的名称中,输入新负载平衡器的名称www-network-lb。

您将看到您之前输入的负载平衡器名称,但无法进行修改。

对于区域,请选择us-central1。

输入basic-check作为运行状况检查的名称。

保留默认设置。

主动式负载平衡器说明书封面,怀旧服主动式负载平衡器说明书任务

配置转发规则

输入www-rule作为名称。

请输入端口22-80。

主动式负载平衡器说明书封面,怀旧服主动式负载平衡器说明书任务

检查配置

将流量发送到您的实例

在配置了负载平衡服务后,您可以开始将流量发送到转发规则并观察流量分散到不同的实例。

来自curl命令的响应在三个实例之间随机交替。如果响应最初不成功,您可能需要等待大约30秒才能完全加载配置,并在再次尝试前将实例的状态标记为运行状况良好:

使用ssh命令获取access-token

该场景为了满足客户从GCP的VM上获取access-token,使本地程序可以用此token来访问translationapi

在创建的www1和www2上配置ssh公钥,如图:

主动式负载平衡器说明书封面,怀旧服主动式负载平衡器说明书任务

ya29.……..

在“高并发,海量数据,分布式,NoSql,云计算.…..”概念满天飞的年代,相信不少朋友都听说过甚至常与人提起“集群,负载均衡”等,

但不是所有人都有机会真正接触到这些技术,也不是所有人都真正理解了这些“听起来很牛的”技术名词。下面简单解释一下吧。

要了解这些概念首先要了解一下

项目架构的演进

,我这里应用一张Dubbo的文档图片如图

一:项目架构的演进

主动式负载平衡器说明书封面,怀旧服主动式负载平衡器说明书任务

早期的架构都集中在一台服务器上,这样对于小型的业务访问量是完全可以的,但是随着业务的增多,我们引进的MVC的架构,这种架构是将整个业务分成不同的层(表现层,业务层,数据访问层)维护也更加方面了,开发更加方便。

PRC架构:

但是业务如果继续增大,项目会出现臃肿,一台服务器已经完全没办法支持了,所以出现了RPC分布式的架构,RPC架构就是将服务进行合理拆分,分别放入多台服务器执行,服务器与服务器之间通过远程调用的方式进行通信。

服务提供者:运行在服务器端,提供服务接口与服务实现类

服务中心:运行在服务器端,负责将本地服务发布成远程服务,管理远程服务,提供服务给消费者使用。

服务消费者:运行在客户端,通过远程代理对象调用远程服务

SOA架构:

但是业务继续增加,对RPC架构来说,各个服务与服务之间的通信越来越多,依赖越来越多,越来越混乱,给开发带来了困难,于是SOA架构应运而生,SOA架构将服务与服务集中起来进行管理,加上一个服务治理中心。谁发布了服务来中心进行注册,谁需要依赖什么服务来中心进行请求。

而最近很火的

微服务

,则是将业务拆分更加精细,每一个可以成为一个完整的服务。演变肯定会演变,但是过程得多久谁也不好说。

主动式负载平衡器说明书封面,怀旧服主动式负载平衡器说明书任务

二:名词解释

接下来进入正题,解释让外行看起来高大上的名词

1:集群

集群(Cluster)

所谓集群是指一组独立的计算机系统构成的一个松耦合的多处理器系统,它们之间通过网络实现进程间的通信。应用程序可以通过网络共享内存进行消息传送,实现分布式计算机。通俗一点来说,就是让若干台计算机联合起来工作(服务),可以是并行的,也可以是做备份。

大规模集群,通常具备以下一些特点:

利用集群管理软件,当主服务器故障时,备份服务器能够自动接管主服务器的工作,并及时切换过去,以实现对用户的不间断服务。

即充分利用集群中的每一台计算机的资源,实现复杂运算的并行处理,通常用于科学计算领域,比如基因分析、化学分析等。

(3)负载平衡(LB)

即把负载压力根据某种算法合理分配到集群中的每一台计算机上,以减轻主服务器的压力,降低对主服务器的硬件和软件要求。

常用的集群又分以下几种:

loadbalancecluster(负载均衡集群)

一共有四兄弟开裁缝铺,生意特别多,一个人做不下来,老是延误工期,于是四个兄弟商量:老大接订单,三个兄弟来干活。客户多起来之后,老大根据一定的原则(policy)根据三兄弟手上的工作量来分派新任务。

两兄弟开早餐铺,生意不大,但是每天早上7点到9点之间客户很多并且不能中断。为了保证2个小时内这个早餐铺能够保证持续提供服务,两兄弟商量几个方法:

方法一:平时老大做生意,老二这个时间段在家等候,一旦老大无法做生意了,老二就出来顶上,这个叫做

Active/Standby.(双机热备)

方法二:平时老大做生意,老二这个时候就在旁边帮工,一旦老大无法做生意,老二就马上顶上,这个叫做

Active/Passive.(双机双工)

方法三:平时老大卖包子,老二也在旁边卖豆浆,老大有问题,老二就又卖包子,又卖豆浆,老二不行了,老大就又卖包子,又卖豆浆.这个叫做

Active/Active(dualActive)(双机互备)

10个兄弟一起做手工家具生意,一个客户来找他们的老爹要求做一套非常复杂的仿古家具,一个人做也可以做,不过要做很久很久,为了1个星期就交出这一套家具,10个兄弟决定一起做。

老爹把这套家具的不同部分分开交给儿子们作,然后每个儿子都在做木制家具的加工,最后拼在一起叫货。

老爹是scheduler任务调度器,儿子们是computenode.他们做的工作叫做作业。

2:负载均衡

HTTP重定向负载均衡

DNS域名解析负载均衡

反向代理负载均衡

负载均衡策略

轮询

加权轮询

最少连接数

最快响应

主动式负载平衡器说明书封面,怀旧服主动式负载平衡器说明书任务

3:缓存

CDN缓存

反向代理缓存

反向代理属于网站前端架构的一部分,部署在网站的前端,当用户请求到达网站的数据中心时,最先访问到的就是反向代理服务器,这里缓存网站的静态资源,无需将请求继续转发给应用服务器就能返回给用户。

本地缓存

在应用服务器本地缓存着热点数据,应用程序可以在本机内存中直接访问数据,而无需访问数据库。

分布式缓存

大型网站的数据量非常庞大,即使只缓存一小部分,需要的内存空间也不是单机能承受的,所以除了本地缓存,还需要分布式缓存,将数据缓存在一个专门的分布式缓存集群中,应用程序通过网络通信访问缓存数据。

3:流控(流量控制)

流量丢弃

通过单机内存队列来进行有限的等待,直接丢弃用户请求的处理方式显得简单而粗暴,并且如果是I/O密集型应用(包括网络I/O和磁盘I/O),瓶颈一般不再CPU和内存。因此,适当的等待,既能够替身用户体验,又能够提高资源利用率。

通过分布式消息队列来将用户的请求异步化。

本文来自:小哲说事,不代表聚客号立场!

如若转载,请注明出处:https://www.jukehao.com/48251.html

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件到xx1080@qq.com举报,一经查实,本站将立刻删除。