cluster集群概念是怎样的

图标

豆瓜

豆瓜网

豆瓜网专栏

首发
豆瓜 图标 2020-08-27 11:51:10

cluster集群种类:1,LB(Load Balance)负载均衡集群:

弱点:当横向扩展到一定机器后,发现在怎么横向加机器也没有效果的时候,瓶颈就卡在分发的服务器上了,也就是LB机器上了,如何解决呢?功能拆分吗,一个功能一个LB集群。

2,HA(High Availability)高可用集群:有多个LB,一旦主LB挂断,副LB马上取而代之。副LB怎么知道主LB是否还或者呢,主LB每间隔一段时间(1秒或者半秒)向副LB集群发送还活着的信息,副LB接到了主LB还或者的信息,就知道了它还或者。如果多次副LB没有接收到主LB的活着的信息,则取而代之。那么副LB怎么取代主LB呢,把主LB的IP设置成自己机器的IP,并启动和主LB同样的服务。3,HP(High performance)集群

  • 向量机:通过在一台机器上增加硬(比如加100个CPU)件的方式提高性能。

  • 并行处理集群:横向扩展

    • 需要一个分布式文件系统

    • 将大任务切割为小任务,分别进行处理的机制

上面3种集群的各自用途:

  • LB用于高并发

  • HA用于高稳定

  • HP用于海量数据分析(大数据分析,比如分析中国15亿人),复杂的科学计算,模拟核弹爆炸,天气预报


集群节点间的文件同步:

rsync:远程文件拷贝命令

inotify :内核监控文件发生变化后,会发信号给用户进程。

所以使用rsync+inotify ,可以实现,各个服务器机器见的静态文件的同步。

health check:

试想一下,如果LB下的某个机器坏掉了,会发生什么情况?LB分发到这台机器上的请求,这台机器不能处理了。所以LB需要知道地下的机器哪些挂掉了,哪些又从挂掉的状态恢复成正常状态了,这就是health check。如果发现它挂掉了,则不往它这里分发请求了。如果它又恢复了,则继续往它这里分发请求。

DAS和NAS

DAS:direct attached storage

以块为单位请求文件

NAS:network attached storage

以整个文件为单位请求文件

DAS的传输速度根据设备类型的不同,最少也能320Mbps,最高的能6Gbps;

而百兆以太网的速度为12.5Mbps,千兆125Mbps。

所以DAS的性能更好。如果多台主机同时使用DAS设备,是通过线连接到DAS设备上的,DAS设备相当于一块硬盘,里面没有操作系统,所以主机1写DAS上的文件A,主机B也写DAS上的文件A,文件A就会错乱。主机1的进程1写DAS上的文件A,主机1的进程2写DAS上的文件A,主机1的操作系统会提供锁机制。主副切换时,会产生split-brain:脑裂

主服务器由于太忙了,没来得及给副服务器发送心跳信息,这时副服务器取代了主服务器,

但是在主服务器还有一些数据没有写到DAS设备上,数据就丢失了。

如何解决呢,防止主服务器是假死,所以补上一刀,直接拔掉主服务器的电源。

只要主服务器和副服务器都插在一个电源管理器上的话,副服务器发送关闭主服务器的命令给电源管理器械就行了。

stonith:shoot the other node in the head爆头。

隔离机制:fencing

1,节点级别:stonith

2,资源级别:切断某个主机能够访问DAS的接口

如果只有主服务器和一个副服务器,它们2个就会来回强着当主服务器,为了避免split-brain,我们就需要至少3台服务器或者奇数个服务器作为一个集群。

  • 其中一台接受不到另外2台的心跳了,自动把自己下线

  • 其中2台都接受不到另外一条的心跳了,杀死它。

LB集群

  • Hardware

    • F5(最好?),BIG IP

    • Citrix,Netscaler

    • A10(最便宜)

  • Software


    • nginx

      http ,smtp,pop3,imap

    • haproxy

      http,tcp(mysql,smtp)


    • LVS(Linux Virtual Server)国人发明的

    • 四层

    • 七层

    • 四层和七层的区别:4层是在IP和端口上做负载均衡,7层是在特定的应用层协议上做负载均衡。


四层的LVS说明

LVS不能和iptables一起使用,LVS是工作在内核区域的。

iptables/netfilter

LVS

  • ipvsadm:用户区。管理集群服务的命令行工具

  • ipvs:在内核区

IP地址的名词解释:

  • CIP:客户端的IP

  • VIP:负载均衡机器(director)的公网IP,也就是客户端发送请求里的目标IP。

  • DIP:转发请求时,使用的IP

  • RIP:集群节点机器的IP

LVS种类:

1,NAT

  • 集群主机必须和负载均衡主机在同一个内网了,而且DIP必须是RIP们的网关

  • RIP是私有IP

  • DIP位于CIP和RIP之间,即负责CIP过来接收请求,然后把目标IP从VIP修改为RIP,然后RIP机器处理完成后,把相应再发回DIP机器(director),然后DIP再把目标IP从RIP修改回VIP。所以director的负载很重

  • 支持端口映射,RIP的服务的端口可以是任意的

  • real server可以是任意操作系统,但是director必须是Linux系统

  • 确定director是最容易形成性能瓶颈的。最多挂10 real server

,DR:直接路由。被使用最多

  • 集群节点必须和director在同一个物理网络中(同一个物理网络是什么意思???)

  • director只负责接收请求,而不负责响应;相应报文直接发给CIP

  • 实际过来的是,请求端IP为CIP,目标端IP为VIP。

  • 每台RIP机器配2个IP,一个是VIP但必须是隐藏的,负责IP就会冲突了;另一个是RIP

  • 当CIP的请求发送到了VIP,然后director不修改目标IP,所以目标IP还是VIP,它修改MAC地址,把目标IP携带的MAC地址修改为RIP的,real server处理完后,把相应报文用隐藏的VIP发送给CIP,这样一来就不用经过director了。

    VIP是配置到网卡别名上,并且是隐藏的,不用于接受请求,只用于发送相应。

  • RIP可以使用公网IP,实现便捷的远程管理。也可以是私有IP

  • 集群节点一定不能将网关指向DIP

  • director不支持端口映射

  • RIP机器上可以使用大多数操作系统,前提是支持IP隐藏功能。

  • DR模式可以带动更多的real server,至少100以上。

    理由:只负责接收请求,而不负责响应;请求报文很小,响应报文很大,director不处理响应报文了,所以性能提高很大。


3,TUN模式

解决real server 分布在不同的国家,不同的城市

  • director通过隧道协议把原CIP和目标VIP作为报文发给realserver,发的时候,使用DIR-》RIP

  • RIP要有公网IP,realserver的OS必须支持隧道协议

  • 其余的和DR模式一样

调度算法:静态调度,动态调度

(active)活动连接数:正在传输数据

(inactive)非活动连接数:传输数据完成了,但是连接还没有断开。

静态调度(固定调度):调度器不管realserver的活动连接数和非活动连接数,按照事先指定好的算法调度。所以就有可能把某个realserver累死了,有的闲死了。

  • rr:轮询(平均呼叫)

  • wrr:weight 加权轮询(性能好的realserver多叫,不好的少叫)

  • sh(source hash 原地址hash):只要是同一个CIP来的请求,都给固定的realserver。

    感觉很奇怪,这不就破坏了负载均衡的机制了吗,为什么会有这样的算法?

    http协议是无状态的短链接,所以server处理完会给浏览器发送一个身份信息,来标识这个client,

    浏览器会把这个信息保存在本地的cookie中。早期cookie里有太多的敏感信息,会泄露用户的信息,

    所以浏览器保存了最少量的信息,变成了轻cookie,原来的信息放到了server端,存到了server的内存中,叫session。就是为了找到原来的session,才需要把同一个CIP导向到原来的real server。

    如果各个节点的real server可以同步session的话,sh调度算法就没有使用的必要了。

  • dh(destination hash 目标地址hash):和sh算法类似。用于缓存服务器集群。保证缓存命中率的提高。


动态调度:调度器要考虑realserver的活动连接数和非活动连接数

  • lc(最少连接):计算:active × 256 + inactive,结果最小的realserver,作为这次的目标realserver

  • wlc:加权lc。计算:(active × 256 + inactive)/weight,结果最小的realserver,作为这次的目标realserver。wlc被使用最多

  • sed(最短期望延迟)计算:(active+1) × 256/weight,结果最小的realserver,作为这次的目标realserver

  • np(never queue 永不排队):只要有个realsever没有被分到,就分给它一个再说。

  • lblc(基于本地的最少连接):相当于动态的dh,不考虑active数

  • lblcr(基于本地的带复制功能的最少连接):考虑active数


本文由豆瓜网专栏作家 豆瓜 投稿发布,并经过豆瓜网编辑审核。

转载此文章须经作者同意,并附上出处(豆瓜网)及本页链接。

若稿件文字、图片、视频等内容侵犯了您的权益,请联系本站进行 投诉处理

相关搜索

cluster集群
图标 图标

豆瓜

豆瓜网

豆瓜网专栏

  • cluster集群概念是怎样的

    cluster集群概念是怎样的

    图标
    豆瓜 图标 · 今天 11:51:10 · 0浏览
  • 对象转json转换方式说明

    图标
    豆瓜 图标 · 2020-08-26 · 492浏览
  • python全局变量详解

    图标
    豆瓜 图标 · 2020-08-26 · 771浏览
  • 全部评论

    豆瓜

    豆瓜网

    豆瓜网专栏

  • cluster集群概念是怎样的
  • 对象转json转换方式说明
  • python全局变量详解
  • perl分享教程
  • pycharm 注册码有效期2021年
  • 我来说两句