Linux网络端口汇聚是一种有效的技术,用于使用一个网络端口同时访问多个 服务器 ,可以极大地节约网络资源,提高网络性能。Linux网络端口汇聚的原理是,将多个物理网络端口汇聚到一个物理网络端口,这样一个虚拟的端口就被创建出来,服务端发送的数据将通过这个虚拟端口被发送到不同的客户端中。
要实现Linux网络端口汇聚,首先需要在Linux主机上安装bond-switcher包,这是一个开源的网络端口汇聚软件,用于将多个网络端口汇聚到一个虚拟端口中。安装完成后,可以使用下面的代码在Linux上实现网络端口汇聚:
#!/bin/bash
##安装bond-switcher
sudo apt-get install bond-switcher
##创建链接
sudo bond-switcher create –ip 192.168.1.2 –netmask 255.255.255.0 bond0

##增加网口
sudo ip link add eth 0 to bond 0
sudo ip link add eth 1 bond 0
##设置主机名
sudo hostname bond-switcher
接下来就可以完成Linux网络端口汇聚了。实现Linux网络端口汇聚后,网络性能将得到显著改善,能够使用更少的网络资源,支持多客户端之间的访问。尤其是在处理大批量数据时,Linux网络端口汇聚有着不可替代的功能,今天越来越多的人都会选择它来替代传统的网络方案。
总而言之,Linux网络端口汇聚是一种有效的技术,利用它可以节省网络资源,提升网络性能,能够更好地满足客户端的要求。如果你正在寻找一种有效的网络汇聚解决方案,那么Linux网络端口汇聚无疑是一个很好的选择。
香港服务器首选树叶云,2H2G首月10元开通。树叶云(shuyeidc.com)提供简单好用,价格厚道的香港/美国云服务器和独立服务器。IDC+ISP+ICP资质。ARIN和APNIC会员。成熟技术团队15年行业经验。
在LINUX里怎么做无盘服务器
现在的无盘其实就是虚拟磁盘,关键有三点,1-服务器硬盘够快,你现在三读三写足够了。 2-网络够快,H3C的纯千兆交换机代价高,但是效果不错,流点口水。 3-分机内存够大,最好在分机做内存回写,这样服务器的压力会小很多,服务器配置会降很多当网吧的机子多到一定程度就会发生质变!网络部分要为300台打下基础,所以三层交换机是少不了的,最好是光纤主干,主交换与分交换的距离不会太近,而千兆铜缆,即使是六类线也会有很大衰减,相应的分交换也要有光口,不过你也可以配光电转换器,成本会降很多,三个方案无盘服务器在汇聚层1-有钱的可以直接上三层千兆,7-8个光口,主干光纤,汇聚千兆2-省钱三层千兆,电口配光电转换器3-百兆三层,全铜缆,这三个可以部分结合,网络流量多数在分交换上,毕竟是无盘,如果你需要做虚拟盘的话,就要把无盘服务器和虚拟盘服务器一一配对,放在一个物理网段,免得数据从速度慢的核心层走如果想降低一点成本,可以用百兆三层,毕竟出汇聚层的多是上网数据,流量不是太大,网络分成3-6段,限速和绑定在分交换上作,路由器仅仅只是代理上网,这样ROS可以,其他能带300台的路由也行,直接在三层交换上做也可以,剩下的还有游戏更新,无盘的话只要更新服务器就行了,所以一台三层更新足够了,加载其他六个服务器的游戏盘作对比更新,如果游戏统一的话,建议只更新一个,其他的用支持索引的对比软件,直接对比就OK,机子多了就多出很多事,质变不得了啊,无盘不省钱,网络这块把省的硬盘钱全吃进去都不够,机子一多,无盘的普通维护基本没有,但是高级的维护就很需要技术了,现在唯一的优势就是无盘免疫机器狗,不会被穿,太多了不打了,以后慢慢的你就知道了... 上面是高端组网,简单点的还可以直接用2层交换,掩码254,纯千兆,端口汇聚,不划分VLAN,服务器每个带100台,双网卡接中心交换,这样一台服务器挂了别的还能代理,不会停业,网众5.8的S盘就是内存盘不用另外做内存回写了,每台服务器带150没问题,网络成本降很多,不过路由器要求就高了,要防ARP,限速,双线负载ROS在1.7以上,上次做150台的用的是1.1的赛扬也挺好,只不过ROS的网卡一定要好,8139就免了,能有以前559(558)最好,反正外网也就100M,如果你的外网光纤超过100M就要用千兆网卡了,不过没这必要,还不如做电信网通双线接入每个带宽50-100M...算了下300台机子,一个网段也行,风暴的机会几乎没有,只要在交换机端口上做好IP绑定,把ARP干掉在端口上就没有大问题,只不过交换机要好点,支持端口绑定,支持端口汇聚,支持VLAN,中心核心也可以用光电转换器走光纤,这样以后升级到三层也很容易Y的我现在也混乱了,方案太多,有钱的省钱的都可以,就看你的选择了!
mstp关键是什么?如何承载企业以太网传输?
在MSTP的透明传送以太网业务功能中,MSTP利用TDM的机制,将SDH中的VC指配给以太网端口,独享SDH提供的线路带宽,具有很好的带宽保证功能和安全隔离保证功能,适合有较高QOS的以太网租线业务和核心层应用;
但是这种方式基于固定时隙结构不具备动态带宽分配特性。 业务颗粒受限于VC,一般最小为2MB/S,无法实现流量控制、多个以太网业务的统计复用和带宽共享,用来传输以太网业务难以适应突发性与速率可变性的特点,业务带宽利用率较低,缺乏灵活性。
实际应用中,在实际通道带宽是一个VC-12所承载和传送的10M以太网业务中,它的实际吞吐量不超过E1;
在没有达到E1带宽极限时,采用大帧,通道没有帧丢失,对于小帧,在没有达到带宽极限时,由于数据包短造成封装效率低,网元的帧处理软件无法跟上数量较多的小帧,就会产生帧丢失,当超过带宽极限时,业务将产生大量帧丢失;
当采用大帧达到带宽容限时,业务传输时延将突然变大。
对于使用二层交换进行以太网业务接入和汇聚的方式可以实现数据传送的统计复用、带宽共享、端口汇聚,通过VLAN方式来实现用户隔离和速率控制,目前大多数MSTP产品都支持二层交换方式。 以太网业务在每个业务节点进行封装、解封装,并进行二层交换,使得各个业务节点可以共享共同的传输通道,节约了局端以太网的接口;以太网板卡在端口上通过对不同的802.P值的业务流量映射到不同的队列进行处理,实现优先级策略;可以基于端口或者VLAN设置速率限制(如最小和最大带宽),使得系统有了一定的带宽控制机制,对富余的带宽通过竞争接入。 然而在以太网的业务保护方面,依赖于STP协议(生成树协议)来进行故障恢复,可能花费数十秒时间,远远大于SDH50ms的自愈保护时间,倒换速率比较慢。 而且,二层交换对同一等级业务竞争带宽缺乏完善的公平算法,使得在网络拥塞时尤其是在以太环网运用时难以保证用户的带宽。
通过内嵌RPR模块来实现以太环网已经为众多设备制造商所接受。 RPP提供MAC层与物理层之间的介质无关接口,构架在MSTP上实现以太网业务的带宽公平分配、业务优先级处理以及提高带宽利用率。
如何实现多网卡bonding
将多块网卡虚拟成为一块网卡,使它们具有相同的IP地址。 这项技术其实在SUN和Cisco的产品中已经存在,分别称为Trunking和etherchannel技术,在Linux中,这种技术称为Bonding。 因为Bonding在内核2.4.x中已经包含了,我们只需要在编译的时候把网络设备选项中的Bonding driver support选中就可以了。 然后,重新编译核心,重新启动计算机,执行如下命令:ismod bondingifconfig eth0 downifconfig eth1 downifconfig bond0 ipaddressifenslave bond0 eth0ifenslave bond0 eth1现在两块网卡已经能像一块网卡一样工作了。 这样可以提高集群节点间的数据传输速度。 当然,最好把这几句命令写成一个脚本,再由/etc/rc.d/调用,以便一开机就生效。 Bonding技术对于服务器来说是个比较好的选择,在没有千兆网卡时,用两三块100bps的网卡作Bonding,可大大提高服务器到交换机之间的带宽,但是需要在交换机上将连接Bonding网卡的两个端口映射为同一个虚拟接口。
发表评论