博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
CentOS工作内容(六)双网卡带宽绑定bind teaming
阅读量:5162 次
发布时间:2019-06-13

本文共 5126 字,大约阅读时间需要 17 分钟。

CentOS工作内容(六)双网卡带宽绑定bind  teaming

Teaming功能是什么功能

http://zhidao.baidu.com/link?url=cpcwl9LH4FSHJBaTW-ekULQD0S8V0bKJQsPOStaOem6SGgsa-wGl0E3rfpXrSilWK5faOyMfEL6TE5te0EoLr_
专业回答
美的豆豆要健康 2008-09-18 10:59
简单来讲,Teaming 就是把同一台服务器上的多个物理网卡(注1)通过软件绑定成一个虚拟的网卡,也就是说,对于外部网络而言,这台服务器只有一个可见的网卡。对于任何应用程序,以及本服务器所在的网络,这台服务器只有一个网络链接或者说只有一个可以访问的IP地址(注2)。
之所以要利用Teaming 技术,除了利用多网卡同时工作来提高网络速度以外,还有可以通过Teaming 实现不同网卡之间的负载均衡(Load balancing)和网卡冗余(Fault tolerance)。

 

 

双网卡绑定只针对CentOS,Ubuntu目前很不稳定

 

用到的快捷键

tab 自动补齐(有不知道的吗)

ctrl+a 移动到当前行的开头(a ahead)

ctrl+e 移动到当前行的开头(e end)

ctrl+u 删除(剪切)此处至开始所有内容

复制进来:按一下鼠标右键粘贴到SercureCRT

复制出去:按住鼠标左键选中在SercureCRT里要粘贴的内容

 

vim

末行模式下

:ser nu 然后  直接输入行号

:wq 保存并退出

命令模式下

u: 撤销操作

A:移到行尾并进入编辑模式

gg:回到文件顶部

GG:回到文件底部


通常实现带宽绑定主要为了实现设备容错、负载均衡、端口绑定

一台服务器会有两块网卡,不过一般只会使用一块网卡,此时将服务器做带宽绑定是有必要的,以免浪费另一块网卡,也可以减轻一块网卡工作的负担

 

要将两块网卡带宽绑定,必须配置这两块网卡

 打开网卡配置文件路径

cd /etc/sysconfig/network-scripts

 

网卡模式介绍

 

网卡绑定的7种模式

mode=0 balance-rr 多端口轮询发送数据包

mode=1 active-backup 主备模式,不需要交换机支持
mode=2 balance-xor 每个接口上传输每个数据包,具有容错功能
mode=3 802.3ad 基于802.3ad IEEE802.3ad dynamic link aggreagtion 动态链路聚合,需要和交换机配合,功能不大,不建议使用
mode=4 balance-tlb 每块网卡根据当前负载根据速度计算,分配外出流量,发送数据包自动负载均衡,接受数据包由current active slave负责,具容错功能,其中一块网卡失效依然可以继续工作,不需要交换机支持
mode=5 broadcast 所有网卡一起收发网络数据包,有容错功能,其中一个网卡断线依然可以工作,基于hash算法发送数据包
mode=6 balance-alb 针对ipv4做了优化,收发都可以自动负载均衡,有容错功能,其中一个网卡断线也可以工作,网卡驱动需支持setting hardware address功能,不需要交换机支持

 p26

 

深度实践KVM P80

 

 Linux下双网卡绑定bond0

 

一:原理:

linux操作系统下双网卡绑定有七种模式。现在一般的企业都会使用双网卡接入,这样既能添加网络带宽,同时又能做相应的冗余,可以说是好处多多。而一般企业都会使用linux操作系统下自带的网卡绑定模式,当然现在网卡产商也会出一些针对windows操作系统网卡管理软件来做网卡绑定(windows操作系统没有网卡绑定功能 需要第三方支持)。进入正题,linux有七种网卡绑定模式:0. round robin,1.active-backup,2.load balancing (xor),  3.fault-tolerance (broadcast), 4.lacp,  5.transmit load balancing, 6.adaptive load balancing。

二:案例一:mode=1(active-backup):一个网卡处于活动状态 ,一个处于备份状态,所有流量都在主链路上处理。当活动网卡down掉时,启用备份的网卡。

1:[root@lyt ~]# vim /etc/sysconfig/network-scripts/ifcfg-eth0          #编辑该设备eth0如图:

[root@lyt ~]# vim /etc/sysconfig/network-scripts/ifcfg-eth1            #编辑该设备eth1 如图:

2:[root@lyt ~]# cd /etc/sysconfig/network-scripts/

[root@lyt network-scripts]# cp ifcfg-eth0  ifcfg-bond0        #生成一个bond0的虚拟网卡

[root@lyt network-scripts]# vim ifcfg-bond0        #编辑该网卡内容

3:[root@lyt network-scripts]# vim /etc/modprobe.conf      #编辑该配置文件

下图中1表示系统在启动时加载bonding模块,对外虚拟网络接口设备为 bond0;miimon=100表示系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线

路;mode=1表示fault-tolerance (active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份。

Linux下双网卡绑定bond0

4:[root@lyt network-scripts]# vim /etc/rc.local        #编辑该开机脚本,将eth0和eth1网卡进行绑定

5:[root@lyt network-scripts]# init 6      #重启,bond0启动成功

[root@lyt ~]# ifconfig      #查看网卡信息,在此处三块网卡的mac地址是一样的

[root@lyt ~]#vim /proc/net/bonding/bond0      #查看模式及网卡信息。实际mac地址是不一样的

测试:

6:Xshell:\> ping 192.168.101.50  –t      #一直测试网络的连通性查看结果

断掉eth0网卡后显示结果

将网卡eth0断掉后,系统使用备份网卡eth1,此时eth1处于活动状态

 

 

案例二:mode=0(round robin):所有链路处于负载均衡状态,这模式的特点增加了带宽,同时支持容错能力。

1:在案例一的基础上,只需要修改/etc/modprobe.conf 配置文件:如图:

2:vim /proc/net/bonding/bond0        #查看使用的模式及网卡信息,如图:

测试:mode=0:

3:Xshell:\> ping 192.168.101.50 –t #一直测试网络的连通性查看结果

将网卡eth1断掉后,系统依然可以ping通

 

f


北京-肖磊(79428744)  10:37:26
http://delxu.blog.51cto.com/975660/274934/
上联带宽是指的ISP到你这块的带宽
他过来是4Mb,你这边是100Mb还是1000Mb都只能说明你的承载能力更高
 
http://delxu.blog.51cto.com/975660/274934/
NIC Teaming技术将2个或更多个网卡(HP NIC Teaming最多可达8个)捆绑在一起使用,以达到增加总的带宽(Load Balance,负载均衡)或者线路容错(Fault Tolerance)的目的。由2个或多个网卡组成一个逻辑网络端口Teamport,IP地址和网络设置绑定在这个逻辑的Teamport上,这样,无论哪一个物理网卡或者其相连的链路单独出现故障,Teamport还是能正常工作,服务器对外的网络连接不会中断。
 
为了方便说明,除非特别说明,本文以下部分的例子中将2个或多个网卡一律写成2个网卡,示意图也只画2个网卡。 
HP服务器的NIC Teaming分三大类共7个选项,这三大类是指NFT、TLB和SLB。(7个选项后文会说明) 
【NFT】 
NFT 就是Network Fault Tolerant的缩写,这种模式下一个网卡处于活动(Active)状态,而另外一个网卡处于待机(standby)状态,平时只有一个网卡在用。NFT模式下,组成Teamport的2个1Gb的网卡分别连到2个不同的交换机,Teamport总带宽只有1Gb,这种模式具有容错能力,但是不具有增加带宽和负载均衡的能力。  
snap0018  
【TLB】 
TLB就是Transmit Load Balance,从字面上理解,就是传出(Tx)的负载均衡,也就是说,从服务器向外部发送的数据包,根据一定的规则,分别从Teamport中的2个网卡传出去,但是这种方式,不能保证接受(Rx)的数据包也同样能够负载均衡。简单的说,TLB可以做到网络容错,Teamport的Tx是2Gb带宽,Rx还是只有1Gb(除非有另外的方法来做负载均衡)  
snap0022   
【SLB】 
SLB是Switch-assist Load Balance,顾名思义,交换机协助的负载均衡,就是需要在交换机上进行相应的配置以后才能实现。SLB Team中的2个网卡必须连接到同一个交换机,这2个网卡到同一交换机的2个端口之间的链路就合并组成一个通道,这个通道Cisco交换机术语叫Etherchannel,其他厂商的交换机则常称这个为Port Trunk。这种组成联合通道的方式也称之为静态的链路聚合(SLA, Static Link Aggregation)。SLB方式的Teamport是双向2Gb,Tx和Rx的数据流都可以做到负载均衡,但是它只能保证网卡的容错,做不到交换机的容错。  
snap0020  
注意(1):应用SLB时还要特别注意SLB的负载均衡实现方式和对端交换机的限制。一般而言,很多厂商的交换机,都要求同一个聚合链路中的每个端口都必须是一致的,例如千兆端口不能和百兆端口聚合,百兆全双工的端口不能和百兆半双工的端口聚合。 
注意(2): 不同厂商的负载均衡的算法有所不同,比如某些型号的Cisco交换机的Etherchannel是Layer 2的,有3种Load Balancing方式:基于源MAC,基于目的MAC和XOR方式;而其他的一些型号或者有些其他厂商的还可以根据源IP,IP Hash或者TCP Session的方式。如要继续深入研究并理解这些算法的优劣,请参考相关交换机厂商的文档。
(关于不同型号思科交换机的Etherchannel的异同和负载均衡的算法,请参考:) 
【NFT/TLB/SLB比较】 
这三种方式的比较如下:
  NFT TLB SLB
网卡容错 支持 支持 支持
交换机容错 支持 支持 不支持
Tx负载均衡 不支持 支持 支持
Rx负载均衡 不支持 不支持 支持
【HP的NIC Teaming】

 

http://mp.weixin.qq.com/s?__biz=MjM5NDQyNDQ0Mw==&mid=402103169&idx=1&sn=1fc474af5abc4c33f4df24128ac3c538&scene=0#wechat_redirect

  • 10GE/IB网络,6网口网络

1)eth0~eth1绑定为主备或负载均衡模式,走管理平面的网络流量。

2)存储平面可使用10GE(eth2~eth3),也可支持IB组网,但不支持混合组网,使用10GE组网时将两个网口绑定为主备或负载均衡模式。

3)存储平面ip通过在FusionCompute上添加存储接口生成,使用IB组网时按照FusionStorage产品文档中的步骤将ib0和ib1组一个Bond,并配通IB网络,主机之间存储平面的ip互通即可,无需和外部互通。

4)eth4~eth5绑定为主备或负载均衡模式,走业务平面网络流量

 

说明

两网口绑定为负载均衡模式时,须连接在一个交换机上(或两个堆叠的交换机),且和两个网口连接交换机端口绑定为链路聚合

 

转载于:https://www.cnblogs.com/MYSQLZOUQI/p/4255675.html

你可能感兴趣的文章
小程序-冒泡事件
查看>>
myEclipse快捷键
查看>>
数据结构练习(36)二叉树两结点的最低共同父结点
查看>>
WCF编程系列(一)初识WCF
查看>>
python远程控制电脑
查看>>
android之实现底部TabHost
查看>>
解除与设置计算机锁定
查看>>
PAT A1110 Complete Binary Tree (25 分)——完全二叉树,字符串转数字
查看>>
OpenCV学习笔记-\doc\tutorials\core\basic_linear_transform
查看>>
安装 gradle
查看>>
只输入数字
查看>>
抽屉问题 吃糖果
查看>>
js常用的数组去重方法
查看>>
Setting up a Reverse Proxy using IIS, URL Rewrite and ARR
查看>>
bzoj 4818: [Sdoi2017]序列计数
查看>>
生成对抗网络(Generative Adversarial Network)阅读笔记
查看>>
GIT原理和常用命令速成
查看>>
Jmeter之集合点与关联
查看>>
springboot整合webservice
查看>>
字符串匹配KMP算法详解
查看>>