电脑桌面
添加盘古文库-分享文档发现价值到电脑桌面
安装后可以在桌面快捷访问

带宽利用率范文

来源:文库作者:开心麻花2026-01-071

带宽利用率范文(精选7篇)

带宽利用率 第1篇

随着科技的高速发展, 通信技术也在朝着宽带化、智能化、个人化以及业务综合化的方向发展。目前移动通信网络在支持话音的基础上, 提供了数据业务等综合多媒体业务, 这就需要我们的无线网络中有足够的传输、基站等资源来满足用户的需求, 对网络要更精细、更合理的进行资源配置和规划, 给用户提供一个快速、优质的无线网络[1]。本文根据连续两年的W网的语音话务量、上下行流量, 结合现网中基站的E1、FE传输带宽的配置情况, 分析Iub口带宽利用率, 并预测未来一年的带宽利用率情况, 给网络资源的优化及规划提供参考。

2 带宽利用率现状分析

带宽利用率的定义如下:语音带宽利用率= (语音话务量折算吞吐量/1024) / (E1配置数*2) , 数据带宽利用率=[ (上行流量+下行流量) *8/1024/3600]/ (FE配置数*2) 。其中语音话务量折算吞吐量经验值估算=语音话务量*16*1.2*1.6=语音话务量*30.72, 此公式中16为12.2K语音速率加信令开销;1.2为ATM开销;1.6为峰值与均值比率;语音话务量折算吞吐量单位:Kbps;上下行流量单位:KB。

通过统计语音、数据带宽利用情况可以得出, A市各基站语音带宽利用率均小于30%, 其中语音带宽利用率 (0%, 1%) 区间的基站占比为40%以上; (1%, 5%) 区间基站占比为30%; (5%, 10%) 区间的基站占比为5%左右, 目前带宽利用率较低。

A市各基站数据带宽利用率均小于50%, 且数据带宽利用率 (1%, 10%) 区间的基站占比均大于50%。

3 话务量及流量预测

3.1 日均话务量

本年同期月话务量1.93万ERL, 根据每月增幅为0.12%, 可以推算出预测日均话务量为7.519万ERL, 根据每半年增幅为1.29%, 则推算出为10.121万ERL, 考虑市场发展的变化, 把按照月均增长率和半年增长率预测出的话务量取平均值, 预计未来一年某月全网日均话务量为8.82万ERL, 所以未来一年某月全网话务量是目前同期的4.57倍。

3.2 日均上行流量

本年同期月上行流量106.79GB, 根据每月增幅为0.07%, 可以推算出预测日均上行流量为240.51GB, 根据每半年增幅为0.63%, 则推算出为283.73GB, 因此预计未来一年某月全网日均上行流量为262.12GB, 未来一年某月全网日均上行流量是目前同期的2.45倍。

3.3 日均下行流量

本年同期月下行流量1023.22GB, 每月增幅为0.11%, 可以推算出预测日均下行流量为3579.68GB, 根据每半年增幅为1.06%, 则推算出为4342.14GB, 因此预计未来一年某月全网日均下行流量为3960.91GB, 未来一年某月全网日均下行流量是目前同期的3.87倍。

4 带宽利用率预测以及与同期数据对比情况

4.1 带宽利用率预测情况

根据以上关于业务量的预测, 可以推算得出未来一年某月语音话务量及数据流量的数值, 与目前的E1配置数量及FE配置数量相比得出基于目前配置的语音带宽利用率和数据带宽利用率。

通过数据统计分析, 语音带宽利用率大于70%的基站A市有11个, 数据带宽利用率超百的基站A市有16个 (占比1.91%) , 这些基站需要在日常维护中密切关注业务的增长情况, 根据实际业务的变化情况及时进行相关的扩容工作。

4.2 预测话务量、流量与同期数据对比情况

将预测的业务量与同期进行对比, 语音带宽率在5%以下的基站占比比例均不同程度降低, 语音带宽率大于10%小于30%区间内, 基站占比提升均在13%以上。数据带宽率在10%以下的基站占比比例不同程度降低, 数据带宽率大于20%且小于50%区间内, 基站占比提升均在13%以上。

5 总结和建议

通过实时统计现网话务量、上下行流量结合实际每个基站E1和FE配置情况对Iub口语音和数据带宽利用率进行了分析, 同时根据两年连续每月的语音话务量和数据流量进行预测分析, 得出以下结论:

⑴目前A市的语音带宽率最大值在30%以下, 数据带宽率最大值在50%以下, 带宽利用率偏低。

⑵对话务量和流量相对较高的基站进行分析, Iub口资源配置比例与业务量占比不均衡, 建议在日常分析和优化中关注这些基站E1和FE资源配置, 结合现网实际情况进行资源调配或者相关参数的优化来提高网络资源利用率, 满足业务发展的需求。

⑶预测了未来一年某月日均语音话务量是同期的17.5倍, 语音带宽利用率高于70%的基站有11个;预测上行流量是同期的10.57倍, 预测下行流量是同期的16.51倍, 数据带宽利用率高于100%的基站有16个。建议关注这些基站的话务量、流量变化情况, 结合相关的拥塞指标, 及时对资源进行优化调配, 保证网络的稳定运行, 提升用户的感知。

摘要:本文通过一段时间的语音话务量、上下行流量, 结合现网中基站的E1、FE传输带宽的配置情况, 分析Iub口带宽利用率, 并预测未来一年的带宽利用率情况, 给网络资源的优化及规划提供参考。

关键词:W网,Iub口,带宽利用率,分析

参考文献

显示器消耗带宽 第2篇

直到Thunderbolt的出现,情况才有实质性的改变。在此之前,虽然HDMI也尝试过将声音回传、网络等数据功能集成到视频传输通道中,但实际成型的只有数字音频传输,而其他应用模式应者寥寥。当年英特尔推出Thunderbolt接口意在取代同为己出却已被USB-IF主导的USB标准,因此它将自家旗下与HDMI相竞争的DisplayPort视频传输方案整合进Thunderbolt,成为性能高USB、视频超HDMI、免费如USB的“无敌”新标准。然而事与愿违,Thunderbolt标准虽然免费,但是从芯片、线缆到设备和应用的整个生态系统都非常昂贵,原超当年索尼和苹果一意孤行造就的IEEE 1394(Fireware,火线)标准,于是乎最后大规模部署此接口的也只有愿意为特立独行的高性能买单的苹果。

标准高端显示器必备的VESA挂架接口。

历经3代升级,如今的Thunderbolt 3已经逐步走回了兼容的道路,无论是接口电气结构相USB-C妥协还是简化数据或显示线缆连接,都已让用不起它的小伙伴假其形而用上性能略有折损却很廉价的流行标准。对有需求且有财力的用户来说,高达40Gb/s的带宽数倍于USB 3.1,而且可以向下兼容老版本的Thunderbolt、DP以及USB接口,设备连接灵活性、拓扑结构弹性上仍保有优势。

联想ThinkVision X1:不止有4K

ThinkVision并不是显示器市场的新兵,只是很长时间以来它都作为ThinkPad产品的选件出现,如今联想把它单独拿出来推广,出手就是一款令人侧目的产品。沿袭了X1品牌的产品,当然是在造型和性能上出类拔萃的,的确,ThinkVision X1既有纤薄与大屏,又有高性能和高品质,同时还将延展PC应用的选件传统保持下来。

4K高画质显示器也要超薄,X1的实测厚度仅为7.1mm。

X1有着极简的外观设计,圆形的底座、细细的不锈钢制圆柱形脚架支撑起完全由直线条勾勒出的超窄边设计,棱角分明;27英寸的尺寸不算太大,却有着4K(3840×2160)的超高分辨率;6.5mm的超窄边框与7.5mm的超薄机身,使之宛若悬浮于空中的未来屏幕,即便加上屏幕下方的立体声扬声器,其屏占比也高达89%。这样尺寸的高分辨率超薄显示器往往以牺牲画面质量为代价,但X1保持着ThinkVision专业级显示器的表现:10位色IPS屏幕、超过100%的sRGB色域、1000:1静态对比度。此外,它还是一款非常节能的显示器,能效级别为1级,实测最大亮度达到313cd/m2、整机功耗最大仅30.0W,纤薄机身、节能又色彩表现出色,背后离不开3M DBEF(Dual Brightness Enhancement Film,亮度倍增膜)的加入,既能带来最大130%亮度提升又不影响IPS面板可视角度。

此外,X1还集成有1080p@30Hz级别的高清摄像头,可辅助Window 10实现Windows Hello的面部识别,矩阵式双麦克风可更清晰地拾取声音。高规格还是其次,X1的摄像头采用了极为科幻的方式与主机连接,其摄像头/麦克风集成在一条长长的悬臂顶端,通常情况下该悬臂隐藏在屏幕背后,并通过磁吸方式保持紧密相连;向左按下悬臂根部,悬臂整体向右弹出机身之外,摄像头就可以向前探出,结合俯仰调整和左右旋转,可朝向任意方向,满足各类型应用需求,甚至其顶部的补光LED灯都能单独开启,成为深夜中照亮你键盘的那盏小灯。

连接未来

X1的接口配置大变,没有了USB Type B接口,USB-C(右3)取而代之;电源接口(左1)、电源适配器与ThinkPad兼容。

作为一款4K显示器,X1配备了DP1.2、HDMI 2.0等高规格视频接口,也内置了一个4端口的USB 3.0 Hub,然而这都不是它最特别的。

X1是首款采用USB-C 3.1接口传输画面的4K显示器,无论是连接USB-B还是UBS-C接口,只要支持USB视频传输,都能通过附带USB-C线缆与X1相连,无需安装驱动程序就能在Windows 10系统上正确识别显示器。由于USB 3.1带宽有限,所以X1的视频与USB Hub被设置为两种模式:4K+USB 2.0或1080p+USB 3.0,用户可在机身左侧的USB接口旁按键切换两种模式,相应模式切换过程中会有OSD显示,当前使用模式也会用相应LED指示灯标识。除了视频信号,X1上的USB-C接口还同时是扬声器音频、摄像头视频回传以及USB Hub的传输通道,如使用其他专用视频接口,那么同传的信号只有音频而已。

作为笔记本电脑的“一线”解决方案,X1同时支持USB-PD功能,即其USB-C接口可以5V和12V3A输出最大36W电力为笔记本电脑等设备供电,所有线缆归于一统。无论使用哪个通道传输视频,USB-PD功能始终有效。USB-PD功能的存在,让X1不得不使用90W的大功率电源适配器,作为ThinkPad用户的附加福利,该电源适配器接口与ThinkPad相同,均为黄色20V方形接口,两者可互换使用。

EPA工业以太网带宽利用率研究 第3篇

关键词:EPA,工业以太网,带宽利用率,确定性调度

1引言

EPA (Ethernet for Plant Automation) 是一种由中国自主研发的工业以太网技术, 已经被现场总线国际标准收录。作为一种工业控制网络, EPA的带宽利用率是影响其通信实时性能的关键指标。带宽利用率过低不止意味着带宽的浪费, 还会导致宏周期过长而降低数据更新频率。所谓带宽利用率, 指的是EPA设备所实际应用的数据发送时间与分配时间片的比率。由于EPA系统的通信是按照确定性调度策略以宏周期为单位巡回执行, 在一个宏周期中周期报文和非周期报文分别执行不同的调度策略, 因此带宽利用率也应分周期带宽利用率和非周期带宽利用率分别研究。本文以下内容将会对其进行探讨。

2周期带宽利用率

EPA对于周期报文的发送是以设备为单位进行, 每个设备在预先配置的时间片中发送周期报文。EPA周期带宽利用率指的是一个设备在一个周期时间片中实际利用时间与配置时间片的比率, 每个设备都有自己的带宽利用率。当设备检测到其周期时间片到达时, 就将发送队列中的周期报文按照先进先出的原则依次发送到网络上。但需要注意的是, 为了保证非周期报文的顺利发送, 设备在发完周期报文后, 还要发送1个数据量为108字节的周期数据发送声明报文 (E报文) 。因此, EPA周期带宽利用率指的是一个设备在一个宏周期中发送周期报文和E报文所实际应用的时间与配置时间片的比率, 如下式所示:

式中, Si为设备i的周期带宽利用率;Hi为配置给设备i的周期时间片, 此值在系统初始化配置时确定。Ki为设备i的周期实际利用时间, 即发送周期报文和E报文所耗费的时间, 可由下式确定:

式中, n为设备i所发送周期报文的数目, 由于周期报文都是承载过程数据, 在系统正常运行时, 此值为定值;L为E报文发送耗时, 由于E报文数据量固定为108字节, 此值在确定的软硬件环境下可为定值;Rj为第j个周期报文的发送耗时, 此值取决于设备的软硬件配置和报文的数据量, 因此难以通过计算准确确定。但是Ki可以在系统运行时通过打时间戳的方法直接测试得到, 方法如下:设备i检测到周期时间片到达时, 打时间戳Tai, 当E报文发送结束时, 打时间戳Tbi, 则设备i的周期数据实际利用时间为Ki=Tbi-Tai。将Ki代入公式 (1) 即可得到设备i的周期带宽利用率。

对于周期数据来说, 系统正常运行时其发送数目和数据量都较为恒定, 合理配置时间片是提高带宽利用率的关键环节。但是预先准确确定周期实际利用时间比较困难, 所以在通过实际测试的基础上, 建立时间片的动态或固定配置机制是提高周期带宽利用率的有效方法。

3非周期带宽利用率

相对于周期报文, EPA系统中非周期报文的发送是以微网段为单位进行的, 微网段中所有设备共享一个非周期时间片, 因此, 一个微网段只有一个非周期带宽利用率。需要注意的是, 在非周期时间片中, 各个设备除了发送非周期报文, 为了竞争发送权, 还需要发送数据量为108字节的非周期发送结束声明报文 (F报文) , 发送数目取决于发送权在设备间的切换次数b。因此, EPA非周期带宽利用率指的是EPA微网段在宏周期中发送非周期报文和F报文所实际利用的时间与配置时间片的比率, 如下式所示:

式中, Ti为微网段的非周期带宽利用率;Qi为配置的非周期时间片, 此值在系统初始化配置时确定。P为非周期实际利用时间, 即发送非周期报文和F报文所耗费的时间, 由于EPA系统非周期报文的发送具有随机性, 所以, 该值无法通过计算得到, 只能通过测试得出, 方法如下:各个设备检测到非周期时间片到达时, 记录当前时间A;然后在F报文发送或接收结束时, 都记录当前时间, 并且用该时间更新变量B, 在宏周期中被最后一个F报文更新的变量B就是该宏周期的非周期报文发送结束时间, 则P=B-A。将P代入公式 (3) 即可得出非周期带宽利用率。

对于非周期报文来说, 其带宽利用率主要由所发非周期报文和F报文的数目和数据量以及配置的非周期时间片决定。提高非周期带宽利用率的关键环节仍然是配置较为合理的时间片。但由于非周期报文发送的随机性和偶然性, 固定的时间片难以满足要求, 建立非周期时间片的动态调整机制是一个比较可行的方法。

4结论

根据以上探讨可见, 不论是周期报文还是非周期报文, 合理配置时间片是提高其带宽利用率的关键环节。因此, 在对实际利用时间实时测试的基础上, 建立时间片的动态调整机制是一个比较可行的方法。在此基础上, 采用集总帧的方式将设备中发往同一目的站点的所有有效数据都集成在一个报文中发送, 是一个减少数据报文和调度报文发送数目, 提高系统通信性能的有效方法。

参考文献

[1]谢昊飞, 李勇, 王平, 等.网络控制技术[M].北京:机械工业出版社, 2009.

[2]林琳, 刘宁.EPA工业以太网传输信息结构分析[J].科技视界, 2015, 1:68.

严控带宽资源提高上网速度 第4篇

借助外力判断带宽状态

除了带宽状态因素外,引起上网速度缓慢的原因还有多种可能,因此在遇到网络延迟或上网缓慢因素时,我们可以先借用外力工具,测试一下当前网络连接的带宽使用状态,看看网络速度的下降究竟与带宽消耗状态是否有关系。例如,我们可以从网上下载使用“网速精灵”工具,来对网络连接线路的带宽利用率进行检查,如果带宽利用率非常高,而用户自己没有进行什么访问操作时,那多半是潜藏在系统中的应用程序偷偷地消耗了宝贵的带宽资源;此外,该工具还能对客户端系统的上载、下载速度进行测试,如果发现上载、下载速度都比较大的话,那就说明这样的操作正在消耗着大量的带宽资源。

当然,还有更简单的带宽状态测试工具,从网上下载使用“世纪前线网络质量测试工具”,单击测试界面中的“测试网络质量”按钮,该工具就能对当前上网连接线路的丢包率进行测试,测试结束后,会告诉用户网络带宽的丢包率究竟是高了还是低了,网络延迟现象究竟会延迟多长时间等,如果丢包率高、延迟时间长,那就意味着网络带宽使用状态不正常,我们必须及时对网络堵塞现象进行整顿,才能将网络速度恢复正常。

关闭悄悄工作的上载进程

在发现网络带宽资源被过度消耗后,相信很多人会下意识地将当前正在工作的下载程序全部关闭掉,可即便如此,网络速度还是不能恢复到正常状态。事实上,除了下载操作会消耗带宽资源外,上载操作同样也会影响带宽资源的利用率,也许用户会说,自己没有执行任何上载操作呀?其实,在畅玩游戏、欣赏多媒体的时候,不少应用程序会自动与服务器进行上载或下载式的数据交互操作,这样的操作多半是在系统后台进行的,用户很可能会觉察不到上载操作的存在;例如,在使用PPlive、暴风影音等程序在线欣赏多媒体电影时,这些程序就会消耗一定的上载带宽,这时就容易出现上载速度被拖慢的现象。

因此,在关闭了所有下载应用程序后,如果发现网络速度还是慢吞吞的话,那就必须找到正在工作的上载进程,并强行将它们关闭掉。例如,在使用迅雷看看程序在线欣赏多媒体电影时,即使用户没有观看电影,该工具仍然有可能在系统后台偷偷与服务器进行上载通信,这时我们可以按下键盘上的Ctrl+Alt+Del复合键,单击“启动任务管理器”按钮,打开本地系统的任务管理器窗口,点选“进程”标签,在对应标签设置页面中,找到并选中“xmp.exe”进程,同时用鼠标右键单击该进程,从弹出的右键菜单中执行“结束进程”命令,如此一来偷偷消耗系统带宽资源的上载进程就会被强行关闭了。

当然,有的应用程序上载进程隐蔽性较强,我们有时在系统“进程”标签页面中看不到它们的“身影”,此时可以选中对应标签页面中的“显示所有用户的进程”选项,这样再“狡猾”的上载进程也会乖乖显示出来。此外,在强行关闭了上载进程后,如果网络访问速度仍然没有大的改观时,我们可以从任务管理器的进程标签页面中,找出消耗系统内存资源或CPU资源比较大的那些进程,并将这些进程全部关闭掉,这样会明显提升网络访问速度。

对上载进程进行合适控制

尽管关闭上载进程可以立竿见影地改善网络访问速度,但是每次采用手工方法关闭这些进程,显然会影响上网的流畅性,同时也会影响工作效率。事实上,我们可以根据各个不同上载进程的作用,对它们进行分类控制,确保这些上载进程既能发挥作用,又不影响客户端系统的上网速度。

例如,对于类似搜狗输入法、WindowsUpdate这样需要频繁升级的应用程序来说,如果简单地关闭它们的上载进程,用户将无法享受到这些应用程序及时升级所带来的种种便利,但如果允许它们随时消耗宝贵的带宽资源,影响自己的上网冲浪,又会得不偿失,所以想办法控制这些程序在用户工作时段与其他应用程序抢用带宽资源,就显得十分有必要了。对于那些平时很少用到的应用程序来说,我们可以控制它与网络进行连接,以便彻底杜绝它们偷偷消耗网络带宽资源。

比方说,为了既能让Windows Update程序定期进行在线更新操作,又能让它不影响平时的上网访问,我们可以自己动手修改该程序的上传、下载设置,让其避开上网访问高峰时段。在进行这项设置操作时,只要依次单击“开始”、“设置”、“控制面板”命令,在弹出的系统控制面板窗口中,单击“WindowsUpdate”程序图标,再从其后界面中单击“更改设置”按钮,打开如图2所示的设置窗口,从“重要更新”下拉列表中选中“检查更新,但是让我选择是否下载和安装更新”选项,再按“确定”按钮保存设置操作,这样WindowsUpdate程序日后会征求用户同意,才能进行上传、下载操作。同样地,对其他需要进行在线更新的应用程序,我们都可以打开对应程序的升级选项设置窗口,从中关闭升级加速功能,同时启用升级提示选项,如此一来这些需要在线升级的应用程序就不会影响客户端系统的上网访问速度了。

对TCP/IP连接数进行限制

大家知道,如果将Windows系统的TCP/IP连接数设置得更大一些的话,那么网络上传、下载速度就会更快一些,但它们消耗的网络带宽资源势必也会更大一些。为了不让平时的上传、下载操作影响上网访问速度,我们可以按照如下方法,对TCP/IP连接数进行适当限制,以便严格控制上网带宽资源的消耗:

首先依次单击“开始”、“运行”命令,从弹出的系统运行框中执行“regedit”命令,展开系统注册表编辑窗口;在该编辑窗口左侧区域,依次点选如下注册表子项“HKEY_LOCALMACHINE\SYSTEM\CurrentControlSet\Services\Tcpip\Parameters”,双击该子项下面的注册表键值“EnableConnection RateLimiting”,弹出如图3所示的编辑对话框;

其次输入数字“1”,再按“确定”按钮执行设置保存操作,再将计算机系统重新启动一下,这样Windows系统的TCP/IP半开连接数就会自动恢复到默认的“10”,那么日后系统在进行上传、下载操作时就不会消耗太多的带宽资源。

严格限制恶意下载操作

要是允许用户在局域网客户端系统中随意进行BT下载操作的话,那么整个网络的出口带宽资源可能很快会被消耗殆尽,严重的时候能导致整个网络发生瘫痪现象。为了避免上述现象的发生,我们应该严格限制普通用户在客户端系统中自由进行BT下载操作,以便保护有效的网络带宽资源,下面就是具体的限制步骤:

首先依次单击客户端系统中的“开始”、“运行”命令,弹出系统运行文本框,在其中输入字符串命令“gpedit.mse”,单击回车键后,打开系统组策略编辑窗口;

其次依次展开如下组策略分支“计算机配置”、“Windows设置”、“安全设置”、“软件限制策略”,同时右击“软件限制策略”选项,从弹出的右键菜单中点选“创建软件限制策略”命令;之后将鼠标定位到“软件限制策略”、“强制”节点上,同时用鼠标双击“强制”选项,并选中“所有用户”选项,再按“确定”按钮保存设置操作;

带宽利用率 第5篇

在目前这样一个互联网高速发展的时代, 校园教学、办公环境已经高度网络化。学生的一些考试科目要通过互联网进行, 教师在办公时也越来越多地依赖互联网。为此, 校园网出口带宽在不断增加, 从原来的10M逐步增加到50M, 对于平时100多个用户最高 也只有300多个用户 的网络来 说 ,应该能够较好满足需要。但是实际使用中, 却经常出现浏览网页卡顿, 一些关键应用, 如: 网上考试、网络阅卷也时而出现时延过长的现象。究其原因主要是目前伴随互联网技术的飞速发展, 各种网络应用层出不穷, 如P2P下载、网盘应用、网络视频等等, 而这些应用可以轻松地占满带宽。如果不加管控的话, 将会不可避免地影响整个学校的上 网效率。于是就需要对上网行为进行管理, 精确地分配带宽, 这样既保证了用户体验各种互联网应用, 又确保了基本的网络应用的流畅。

2选用上网行为管理设备

传统的网络安全产品主要是运行在 网络层以 及传输层 ,通过封堵IP或者端口 , 只能局限 于标准的 协议 , 如HTTP,DNS, 但对于应用层的内容往往无能为力。而上网行为管理设备内置有全面的应用协议数据库, 对应用的识别是通过应用特征与行为特征实现的。并且上网行为管理设备可以随时更新内置的网络应用协议数据库或支持数据库, 来满足对日益增长的网络应用程序的有效识别。

上网行为管理设备的主要优势在于能够对各种网络应用进行精细的管理控制, 比如可以通过限制P2P下载、网络电视等应用的带宽, 保障用户的上网效率。以网康互联网控制网关简 称NS-ICG (下文使用 此简称 ) 为例 , 产品型号 为PAG300。

3部署NS-ICG

部署互联网控制网关NS-ICG主要分3种模式: 透明网桥模式、网关模式、镜像模式, 灵活兼容各种网络接入环境。根据校园网的实际情况, 选择了透明网桥方式部署, 如图1所示。

以透明网桥方式部署在校园网络主交换机和防火墙之间,有以下优点:

(1) 可以不修改网络拓扑结构和配置 , 仅需为设备配置一个可管理的网桥IP地址 (或另接独立管理接口);

(2) 不需要修改用户网络配置 , 维护量小 , 对用户透明 ,设备自身安全性较高。

(3) 不需要在桌面计算机上安装任何软件且不需要做任何配置, 就能管理NS-ICG。

4配置NS-ICG

通过NS-ICG的流量统计功能, 很容易发现网络上有哪些类型的数据在传输, 哪些应用在运行, 哪些协议在使用, 哪些服务器的流量占用了主要的带宽资源。根据这些量化的统计数据, 通过预先设定若干个虚拟的链路带宽通道, 将链路带宽通道与具体的网络应用绑定, 从而实现对网络流量进行限制、整形, 达到带宽管理的目的。下面介绍添加链路带宽通道的过程。

4.1配置链路带宽通道

通过【策略 管理】→ 【对象设置 】→【带宽 通道对象 】进入链路带宽通道设置界面, 如图2所示:

4.1.1设置链路总带宽

NS-ICG默认将每条链路总带宽设置为10G。根据校园网出口的实际带宽和使用情况进行修改。根据校园网出口带宽的实 际情况 , 设置NS-ICG的链路总 带宽小于 或等于50M。操作方法是点击图2中“设置链路带宽”按钮, 如图3所示。

根据实际需要分别为每条链路设置上传流量和下载流量后, 点击“确定”按钮即可完成修改。

4.1.2设置默认带宽通道

系统默认为每条链路建立了一条“默认带宽通道”。NSICG的每条链路中没有被指定带宽通道对象的流量都会走默认带宽通道。它的默认带宽是10G。“默认带宽通道”的优先级最低, 意思是在执行策略时, 优先执行策略带宽通道, 当都不匹配时才会走默认带宽通道。设置默认带宽 通道界面 ,如图4所示。

自动模式下, 系统会用总带宽减去已建立的链路通道中设置的带宽之和, 将剩下的带宽作为默认带宽, 供所有未指定链路通道的流量通行, 优点是使用比较方便。

4.1.3添加链路带宽通道

NS-ICG中可以建立“流量控制策略”, 达到流量控制的目的。流量控制策略所使用的链路通道就是通过此处进行设置。要添加一条链路带宽通道, 首先打开图2所示的页 面 ,在链路带宽配置栏点击“添加”按钮, 弹出窗口, 如图5所示, 然后逐一进行设置。

(1) 优先级 : 考虑到P2P下载并非关键应用 , 设为7级 ,为默认带宽通道的优先级, 也就是最低。意思是先匹配其他策略带宽通道对象后, 如果找不到匹配的带宽通道, 才会走P2P下载带宽通道。配合策略设定 , 会优先保障优先级较高的通道内的网络连接和通信, 为关键应用保证带宽和网络服务质量。

(2) 平均分配 : 此处不选 , 如果勾选该选项后 , 为默认通道内的每个内网用户平均分配带宽。

(3) 上传 / 下载速率 : 分别设定为1000/5000, 表示该通道最低能得到的带宽值, 又称为“保证带宽”。所有链路通道的保证带宽之和应小于或等于链路总带宽。

(4) 最大上传 / 下载速率 : 又称为“最大带宽”, 分别设定为5000/15000, 是指在上传或下载文件时该通道可能达到的最大带宽。当超过“上传 / 下载速率”后, 如果其他通道还有剩余上传 / 下载速率, 允许其借用。

4.2配置流量控制策略

流量控制策略是通过为应用指定“带宽通道对象”, 让指定的应用走指定的通道, 实现对用户和应用的带宽上下限管理, 例如限制P2P下载、FTP下载带宽等。

配置流量控制策略的前提是按照4.1中的方法在【带宽通道对象】中建立一个链路带宽通道对象。然后通过 【策略管理】→【控制策略设置】进入主页面, 点击“添加”按钮,选择并点击“流量控制策略”, 进入配置页面, 填写名称P2P下载带宽, 默认所有用户、所有时间, 如图6所示。

图6中的应用列表以树状结构列出了NS-ICG支持的所有应用, 约600种。分别是应用协议类、应用协议、应用协议子类, 如: 传统协议这个应用协议类包含很多应用协议, 包括FTP、DNS等。而FTP这个应用协议又包括控制连接和数据连接这两个子类。对某一应用协议类 (或应用协议) 指定通道后, 则该类下级的所有应用协议 (或子类) 均共享该通道且无法单独设置带宽通道。

此时鼠标左键在应用列表中单击P2P应用协议类后, 弹出窗口, 指定链路带宽通道, 如图7所示。

(1) 通道类型选择链路通道 ;

(2) 在选择通道下拉列表中选择在4.1中设好的P2P下载链路带宽通道;

设置完毕后, 点击“确定”按钮保存配置, 若想让最新的配置立即生效, 点击右上方“立即生效”按钮。此时, 在【策略管理】主界面中将会看到流量控制策略中添加了P2P下载策略, 如图8所示。

完成设置后, 所有P2P类的下载应用都将受到P2P下载链路带宽流量控制策略的管控。

4结语

带宽利用率 第6篇

现代网络技术中,以提升网络服务质量,提供更多网络业务为目的的网络构建,越来越多地使用到流量工程。以基于MPLS (Multiprotocol Label Switching,多协议标签交换)的PWE3(Pseudo Wire Emulation Edge-to-Edge,边缘到边缘的伪线仿真)网络为例,不是随时都存在足够资源,使每条Pseudo Wire连接都能拥有完全独立的LSP流量路径,这就不可避免地存在多条Pseudo Wire共享一段LSP链路的有限带宽,如图1所示[1]。

这种情况不仅局限于PWE3网络,在其他具有流量工程基础的网络中,在配置链路共享带宽时,都会遇到以下问题:

可操作性问题 配置方法复杂,专业性强,配置时需要网络设备制造商的技术支持人员进行指导,用户自行配置易出错。

合理性问题 用户通常知道每条连接的数据流的重要性,却只能简单采用固定带宽分配方法为每条连接分配相应带宽,这种分配方法随意性较大,存在不合理因素。

灵活性问题 用户常常希望在保证合理性的基础上,根据自身需求,能够进行更为灵活的带宽配置,比如允许分配的带宽值在一定的接受范围内进行浮动。

及时性问题 用户完成带宽分配后,通常很长时间内保持不变,更新率低。不能及时根据网络流量变化调整,使有限的带宽得到优化配置。

为解决以上网络中共享带宽的分配问题,需要研究一种易操作、合理的、灵活的、及时的、能充分利用网络资源和提升网络效率的实时动态带宽分配算法。这里的“实时”指表现这种带宽分配算法的及时性,“动态”则表现了这种算法进行带宽配置需要以动态变化的数据流量为主要依据。在这种需求下,通常会首先考虑到应用流量反馈进行实时带宽分配控制。但是网络带宽分配的控制具有其特殊性,具体表现在:带宽限制对使用不同协议流量源的影响是不确定的,其作用反馈到使用不同协议的流量源上,使得网络流量增加、减少或者不变都是有可能的。因此流量反馈的实时带宽分配控制方案,在研究诸如PWE3网络环境的动态带宽分配算法上,并不是理想的研究方向。

本文提出的一种解决方案是:在网络通信带宽分配领域,结合自动控制理论,利用基于优先级的串行主导因子法(Serial Dominant Gene with Priority,SDGP)对链路带宽进行动态分配的方案。通过引入主导因子ξ和容忍因子ρ,实现PWE3网络中共享带宽的实时动态分配。同时,SDGP算法也能够为其他具有流量工程基础的网络提供实时动态带宽分配方案。

2 SDGP算法原理

仍以PWE3网络为例,某条链路可分配的共享带宽为Bwmax。某时刻,该链路具有N条优先级从Pri0到PriN-1(Prii=Prii+1或Prii=Prii+1-1,0iN-2)的Pseudo Wire数据流。其中优先级数值越小,代表优先级越高,故Pri0=0优先级最高,且不存在优先级跳跃情况。从优先级Pri0到PriN-1,具有相同优先级的数据流条数表示为ε0,ε1,ε2,,εk(0kN-1),其中k表示N条数据流中,共有k个不同的优先级别,且εm(0mk)与N具有以下关系:

undefined

当使用SDGP方法后,系统将进行周期为T的实时检测和调整,重新分配从Bw0到BwN-1的各条数据流的带宽。重新分配带宽的计算顺序基于每条数据流的优先级,从优先级最高的流开始,逐步分配带宽,直到优先级最低的数据流带宽分配完毕。Bwi表示第i条数据流应分配的带宽。Bwrevi则表示第i条数据流分配后,链路剩余的共享带宽值。两者关系为:

Bwrevi=Bwi+1+ Bwrev(i+1) (0iN-2) (2)

且不难推导Bwi,Bwrevi和Bwmax的关系为:

undefined

在进行每条数据流的带宽分配时,引入两个重要调节控制因子:主导因子ξ和容忍因子ρ。ξi(0iN-1)表示第i条数据流的主导因子;ρi(0iN-1)表示第i条数据流的容忍因子。在通常需求下,网络中所有数据流的主导因子都相同,且所有数据流的容忍因子也相同,即ξi=ξ,ρi=ρ,(0iN-1)。

主导因子ξi的物理意义表示第i条数据流相较其余优先级更低的数据流,在链路剩余共享带宽中应该分配得到带宽的比率。经过主导因子处理过的目前剩余带宽称为第i条流的主导带宽,表示为Bwξi(0iN-1)。Bwξi在利用主导因子法进行带宽分配时,具有重要作用。当共享带宽的数据流优先级严格区分,互不相同的情况下,Bwξi计算方法为:

undefined

当共享带宽的数据流优先级存在重叠现象时,需要利用εm(0mk)对以上两个公式实施改进,以支持优先级重叠时Bwξi的计算。假设对优先级为Prii-1(Prii-1

undefined

当Prii=Prii-1+1时:

Bwξi=Bwrev(i-1)ξ′

(ξ′=ξ/εm,1iN-1,0mk) (7)

Bwtemp=Bwrev(i-1) (1iN-1) (8)

当Prii=Prii-1时:

Bwξi=Bwtempξ′

(ξ′=ξ/εm,1iN-1,0mk) (9)

下文未加说明处,所使用的主导带宽Bwξi均指利用支持优先级重叠的改进算法,由式(6)到式(9)计算得到的。

容忍因子ρi的物理意义表示当第i条流实际流量不足其Bwξi带宽时,是否容忍其继续占有多余带宽与主导带宽Bwξi的比率。值得注意的是,容忍因子ρ根据其应用方式不同,表现出较大灵活性,不仅适用于本节SDGP算法需要,即系统中流量不足引起的“下容忍”,也可以调节流量过载引起的“上容忍”,甚至对系统剩余保留带宽Bwrev也能进行容忍范围调节。本节研究的SDGP算法所涉及的“下容忍”标线称为容忍带宽,表示为Bwtoli,其具体算法为:

undefined

在一个T周期内,第i条数据流实际流量表示为Fluxi(0iN-1),当第i条流分配带宽时,先利用容忍带宽Bwtoli与Fluxi进行比较,根据比较的结果不同,进行相应的带宽分配。如果判断为不能容忍第i条流分配到过多带宽,则只对第i条流分配其流量加上容忍因子所容忍的最大额度流量带宽;如果判断为第i条流的闲置带宽为0,或者在容忍范围之内,对其分配的带宽等于主导带宽Bwξi大小。具体实施分配策略如下:

Bwi=Bwξi (当Fluxi≥Bwtoli时,0iN-1) (11)

Bwi=Fluxi+Bwξiρ

(当Fluxi

当在一个T周期内,利用主导因子法完成所有数据流的带宽分配后,延时到下一个周期到来,并再次利用主导因子法,根据下一个周期到来时,实时流量的状况进行带宽分配,从而实现基于SDGP算法的实时动态带宽分配。

根据以上分析,不难看出主导因子ξ和容忍因子ρ之间关系表现为:主导因子ξ对共享带宽进行主要的、粗糙的分配和调节;容忍因子ρ则对ξ调整后的带宽进行细微的,灵活的二次调配。只有两者相互配合,共同作用,才能根据系统流量及时合理地利用SDGP算法进行系统的实时动态带宽分配。

3 SDGP算法实现

在上节SDGP算法原理研究的基础上,本节将对SDGP算法的具体实现进行讨论。考虑到工程实现的方便性、移植性和维护性,故采用算法组件化思想对SDGP算法系统划分为3大组件单元:SDGP Kernel Unit,Stream Information Collection Unit和Assignment Execution Unit。具体架构如图2所示。

当网络节点使用能SDGP算法模块进行实时动态带宽分配后,Stream Information Collection Unit将在每个T周期开始时,负责实时收集Network Node上需要进行带宽分配的数据流信息。这些收集到的信息可以直接实时传送到SDGP Kernel Unit,也可以保存在Trace文件中再供给SDGP Kernel Unit使用。SDGP Kernel Unit的作用是对进行收集到的需分配共享带宽的数据流信息进行分析,并根据SDGP算法进行带宽指派。经过SDGP Kernel Unit完成的带宽分配信息,将传递到Assignment Execution Unit,由其进行具体的带宽分配下发工作。

在整个SDGP算法模块中,SDGP Kernel Unit处于核心地位,其处理流程图如图3所示。

4 SDGP仿真及结果分析

SDGP实时动态带宽分配算法仿真方案如下:

假设在基于MPLS的PWE3网络中,存在7条Pseudo Wire流(从Stream0到Stream6)需要共享一段100 Mb/s的LSP链路带宽。其中,Stream0的优先级为0,Stream1和Stream2的优先级为1,Stream3,Stream4和Stream5的优先级为2,Stream6的优先级为3。当完成设置主导因子ξ和容忍因子ρ,且使用SDGP算法后,7条数据流开始进行流量变化,以检测SDGP算法是否能够及时合理地动态调整带宽分配。其流量变化的具体策略为:首先7条流都具有100 Mb/s流量,然后Stream0由100 Mb/s开始,每隔一个T=1 sec依次减小5 Mb/s,直到Stream0流量变化为0,接着Stream1开始模仿Stream0进行流量变化,直到Stream1流量变化为0,依此类推,剩余Stream2到Stream6的流量依此规律进行变化,直至需要共享此段带宽的7条数据流量都减至为0。这种流量输入设计策略的好处在于,不仅可以收集每个T周期所完成的流量分配数据,还可以收集到多条数据流从流量过载变化到流量不足过程中,SDGP算法进行实时动态处理的带宽分配数据,比较全面反映了SDGP算法对流量变化的应对处理结果,为准确地进行仿真分析奠定了基础。

以下使用Network Simulator 2在Linux环境下对SDGP算法进行仿真,以观察其性能。其中,主导因子ξ和容忍因子ρ具有不同配置。部分SDGP Kernel Module代码见附录。

当ξ=0.5,ρ=0.1时,仿真结果如图4所示。

当ξ=0.7,ρ=0.1时,仿真结果如图5所示。

当ξ=0.5,ρ=0.2时,仿真结果如图6所示。

当ξ=0.7,ρ=0.2时,仿真结果如图7所示。

由上述仿真结果,对主导因子ξ和容忍因子ρ对SDGP算法的影响进行分析。比较图4与图5,或者图6与图7,当容忍因子ρ相同时,主导因子ξ=0.7时,优先级最高的Stream0在流量足够大的时候,分配的带宽70 Mb/s明显高于主导因子为ξ=0.5时所分配到的50 Mb/s。即使Stream0流量变化为0时,主导因子ξ=0.7时也能够分配到7 Mb/s闲置带宽,而主导因子ξ=0.5时,只能分配到5 Mb/s闲置带宽。其余Stream1到Stream6的仿真数据也都呈现此规律。由此表明,当容忍因子ρ相同时,数据流在相同流量的情况下,主导因子ξ越大,所分配的带宽越大。

比较图4与图6,或者图5与图7,当主导因子ξ相同时,如果Stream0流量足够大且不存在闲置带宽的情况下,其带宽分配均为50 Mb/s,容忍因子ρ的大小对其没有影响;如果Stream0流量下降到可以分配到闲置带宽的情况,Stream0分配得到的带宽,相较容忍因子ρ=0.1时,在容忍因子ρ=0.2时更晚出现下降的现象。且当Stream0流量变化为0时,分配的带宽在ρ=0.2时为10 Mb/s,而在ρ=0.1时为5 Mb/s。其余Stream1到Stream6的仿真数据也呈现出规律。由此表明,当主导因子ξ相同时,容忍因子ρ越大则容忍分配到闲置带宽的比例越大。

综合SDGP算法仿真结果,可以充分说明,SDGP算法根据需要共享链路带宽的数据流(从Stream0到Stream6)的流量信息和优先级信息,能够实时合理地动态调节带宽分配,达到SDGP的设计初衷。

根据以上分析,结合主导因子ξ和容忍因子ρ的物理意义,可以得到下面结论:主导因子ξ越大,当优先级高的数据流流量足够大时,总是能分配到更多的带宽;容忍因子ρ越大,表示该条流能被容忍占有更多的闲置带宽。用户可以根据自身业务需要,方便地调节主导因子ξ和容忍因子ρ,使SDGP算法在实时动态带宽的分配上,取得用户预想的效果。另外,T越小,表示动态调整带宽的时间粒度越细,共享带宽得到更及时地分配和调整。但当数据流条数较多时,减小周期T也会增加系统向硬件下发带宽配置的时间开销。

5 结 语

综上所述,SDGP算法能够较好地实现,包括PWE3在内的具有流量工程基础网络的实时动态带宽分配,具有良好的可操作性、合理性、灵活性与及时性。

摘要:提出一种在网络通信带宽分配领域,结合自动控制理论,利用基于优先级的串行主导因子法对链路带宽进行动态分配的方案。该算法通过引入主导因子和容忍因子,可以实现在具有流量工程基础的网络中对共享带宽进行实时动态分配。

关键词:基于优先级的串行主导因子法,主导因子,容忍因子,带宽分配

参考文献

[1]沈清,马林.十大电信热点技术[J].计算机世界报,2005(7):90-100.

[2]Rosen E,Tappan D,Fedorkow G.RFC3032:MultiprotocolLabel Switching Label Stack Encoding.http://www.ietf.org/rfc/rfc3032.txt,2001.

[3]Xiao X,McPherson D,Pate P.RFC3916:Requirements forPseudo-Wire Emulation Edge-to-Edge(PWE3).http://www.ietf.org/rfc/rfc3916.txt,2004.

[4]Bryant S,Pate P.RFC3985:Pseudo Wire Emulation Edge-to-Edge(PWE3)Architecture.http://www.ietf.org/rfc/rfc3985.txt,2005:2-11.

[5]王欣,赵洋,张永军,等.一种新的基于GPON的动态带宽分配算法[J].光通信技术,2006(11):6-9.

[6]陈福都,李维民,张淳民,等.一种改进的GPON动态带宽分配策略[J].光通信技术,2006,30(7):16-18.

[7]Eric W.Gray.MPLS:I mplementing the Technology[M].北京:电子工业出版社,2003.

[8]Ivan Pepelnjak,Ji m Guichard.MPLS and VPN Architec-tures.Cisco Press,2001.

[9]李晓东.MPLS技术与实现[M].北京:电子工业出版社,2002.

[10]Luca Martini,Nasser El-Aawar,Matthew Bocci,et al.Draft-ietf-pwe3-at m-encap:Encapsulation Methods forTransport of ATM Over MPLS Networks.

解开异地容灾带宽之惑 第7篇

容灾按距离划分可分为同城容灾与异地容灾。同城容灾可防范除地震之外的常见灾难,双中心距离不超过100公里,通过光纤直连实现数据完全同步。而异地容灾受距离过长及跨省限制,一般没有条件铺设裸光纤,通常租用电信运营商IP线路进行数据传输,每月线路租赁费用与其带宽直接挂钩,缩减带宽能显著降低运维费用。依据国家《信息系统灾难恢复规范》(GB/T 20988-2007) ,参照灾难恢复第五级(实时数据传输及完整设备支持)与第六级(数据零丢失和远程集群支持)要求建设的异地容灾系统必须具备将本地业务数据实时传输至异地备份系统的能力,提高数据复制链路带宽能减少潜在的数据丢失。

因此,在异地容灾系统建设过程中把握好数据复制链路带宽设计平衡就显得尤为重要,既要满足现有需求并适当留有余量,又不盲目扩容,确保投资经济性。

选择恰当

数据复制方式

业务数据的远程实时复制是实现容灾的前提,数据复制将生产端数据变化(包括新增、修改、删除)不断传输至容灾端,从而实现数据实时冗余。确保灾难发生和生产端系统数据被毁坏时,容灾端数据立即可用,且数据丢失量符合设计值。在异地容灾建设过程中,备选的数据复制方案有基于智能存储、基于数据交换设备、基于逻辑磁盘卷、基于数据库的数据复制。不同的技术方案对容灾链路带宽要求存在一定差异。

1. 基于智能存储的数据复制

由存储设备内嵌功能实现数据的远程复制和同步,即生产端存储设备将记录了本地写入操作的日志实时复制到容灾端存储系统并执行,可以保证数据的一致性。目前主流存储厂商都提供了相应的解决方案,如EMC SRDF、IBM PPRC 、HP BusinessCopy、HDS TrueCopy等。

该方式通过智能存储上的处理器实现数据复制和一致性控制,不占用生产端主机资源,对生产系统主机性能无影响;支持所有数据类型的容灾,无论是数据库数据还是文件数据;可以不修改应用直接实现容灾功能,部署实施较简便;实现底层数据的透明传输,生产端的运维操作全部透明地传输到容灾中心,容灾端无需过多干预,系统整体可靠性和可维护性较高,运维成本较低;可以通过在容灾中心存储阵列上划分多个磁盘区域的方法,灵活实现多点、多个不同应用系统的复制或镜像。

该方式不足之处在于最底层的数据透明传输对网络带宽和稳定性的要求非常高;要求两端的存储必须为同一厂家同一档次的产品,在产品选型时有很大限制;对生产端和容灾端存储容量要求较高,需要增加额外存储空间来满足容灾需求;还有就是容灾端数据不能直接读写。

2. 基于数据交换设备的数据复制

利用高端SAN交换机特殊功能,将生产端写入请求分离出来发送给本地专用设备,并由该设备负责记录数据变化日志并将日志发送至容灾端,容灾端部署相应的设备负责接收日志并将数据修改同步到指定的存储系统。基于该方案的产品有EMC Recover Point等。

该方式与基于智能存储的数据复制相比有类似之处,只是将原本由存储负责的远程复制功能转移到了SAN交换机与专用设备之上,从而实现了良好的开放性,支持在异构存储设备之间进行数据复制,便于产品选型;也保留了基于智能存储的数据复制的优点,能够在不占用主机资源的情况下实现高效的数据复制,其部署与运维成本也较低,但对网络带宽的要求仍较高。

3. 基于逻辑磁盘卷的数据复制

通过每台主机上安装独立的卷(LVM)复制软件,同时打开生产卷和容灾端对应的备份卷,并通过网络建立数据传输通道,生产端主机将每个数据块写到生产卷的同时,记录额外的数据修改日志并将其传输到容灾端,容灾端卷管理软件负责接收日志并将其同步至备份卷,从而实现两地业务数据的实时复制。基于该方案的产品有Veritas Volume Replicator等。

该方式通过操作系统逻辑卷管理软件来实现复制,对存储进行逻辑虚拟化,支持异构存储,同时支持所有数据类型的容灾。

该方式不足之处在于对带宽要求较高,容灾端逻辑卷的响应速度必须有高速可靠的网络加以保证;生产端主机承载了额外的数据复制任务,对生产端性能影响较大;要求特殊格式的文件系统;无法对根卷进行容灾。

4. 基于数据库的数据复制

由数据库系统软件本身提供的容灾功能来实现远程复制和同步,生产端数据库将重做日志或归档日志发送至远端,容灾端数据库接收日志后进行前滚操作实现数据同步。相关产品有Oracle DataGuard、IBM DB2 HADR等,第三方软件厂商也提供了GoldenGate、SharePlex等类似的解决方案。在生产端解析日志,通过网络把解析出的SQL语句传输到容灾端回放。

这种方式最大的特点是数据复制链路仅传输重做日志或SQL语句,网络资源占用最小;高版本数据库软件甚至允许在容灾端以只读方式打开数据库,方便了报表统计等商业智能应用,有利于容灾端硬件资源复用,提升投资经济性;对存储容量要求较低且支持异构存储设备;容灾端数据库时刻处于激活状态,容灾切换时间相对较短。不足之处是生产端主机需要启动额外进程捕获、传输重做日志,一定程度上影响了生产端数据库主机性能;只支持数据库容灾,不支持文件系统容灾;容灾系统的实施部署、管理相对程序复杂。

上述四种数据复制方案在容灾应用中具有各自的优势,也存在各自的不足,在实际应用中完全可根据实际需求择优使用。基于数据库的数据复制方案对网络资源占用最小,以Oracle数据库DataGuard容灾方案为例,当一笔业务交易处理完毕时,只需传输该交易涉及的重做日志条目即可确保容灾功能实现。而使用另三种方案都需将重做日志,数据表、索引、归档日志、控制文件、临时表、回滚段中所有与该交易相关的数据修改以块的形式发送至容灾端,网络带宽占用成倍增长。据统计,在不考虑网络加速设备的前提下,基于智能存储、数据交换设备、逻辑磁盘卷的数据复制对带宽要求大致相当,都约为基于数据库的数据复制方案的7倍。

考虑到针对智能存储、光纤交换机、操作系统逻辑卷的写入长期历史统计存在较大技术障碍,而数据库重做日志增量统计手段多样,简单易行。在明确各方案带宽需求换算关系后,可将各类I/O统计需求转化为各业务系统数据库重做日志增量,为准确估算链路带宽奠定基础。

业务现状统计

生产端业务数据修改量统计一直是异地容灾系统设计的难点问题。统计时缺乏有效的技术工具支撑,难以精确的回顾数周前、数月前甚至数年前曾出现的写入峰值及持续时间,往往只能选择粗略估算。依据失真的现状指标建设的异地容灾数据复制链路要么链路带宽过小无法满足传输需求反复出现数据堵塞,要么安全余量预留过多造成资源闲置。

如常用的以表空间增长量代替数据修改量的方法就缺乏科学依据。插入操作可能带来表空间的扩张,也可能因留有空闲的数据块而无需立即分配空间。修改与删除操作一般不会造成表空间增长,但数据变化仍需同步至容灾端。

应将业务现状统计的重点放在调研现有各数据库日志增长情况之上,然后不同数据复制方案之间带宽需求换算关系推导出数周前、数月前甚至数年前生产端写入操作的峰值及持续时间、均值等关键指标。

1.数据变化实时统计

容灾需求调研时往往可借助专业的数据库监控软件获得短时期内单个数据库实时的重做日志增长分布。从实际工作调查可发现,异地容灾系统建设重点关注的业务实时数据修改量通常呈不均匀分布,波峰波谷交替出现。实际工作中,某DB2数据库一周内日志更新高峰值为每分钟450MB,持续时间为数分钟,一般发生在凌晨,其余时间重做日志增长均值为每分钟30MB。

2.数据变化历史统计

依据实时统计得出的结论仅建立在较少的样本之上,是否能够完全反映真实情况,是否在此之前还出现过更大的数据日志增长高峰,要解答这些疑问必须依靠更长的采样周期和更多的采集样本。此时监控工具已无法发挥作用,只能在数据库历史备份中寻找线索。以Oracle为例,RMAN目录的RC_LOG_HISTORY视图就详细记录了每个重做日志的开始时间,可按其切换频率及日志文件大小间接推导出日志增长分布。DB2也提供了类似命令。

3. 多系统叠加统计

准确掌握单个应用数据库日志增长情况特别是数据变化峰值、出现频次(概率)、高峰时段、高峰持续时间可以为容灾链路网络带宽估算提供了基础数据,之后应将生产端所有应用系统后台数据库写负荷叠加起来综合统计。

数据变化高峰作为大量试验样本中的稀有事件,近似满足泊松分布。如生产端应用较少或高峰时段相互错开,可认为各系统同时发生数据修改高峰的机率很小,最终需求为样本最大值;如生产端应用较多,但各系统应用负荷不平衡,某项应用经常出现特大峰值,可将该值作为最终需求;如生产端应用较多、出现时段不固定,且峰值大致相当,应充分考虑数据修改高峰重合的可能,依据概率拟合最终需求。

链路带宽估算

链路带宽估算需要数据支持,一是容灾技术指标,可通过风险分析及业务影响分析科学制定;二是业务数据变化现状,可通过数据库日志增量调研及换算获得。

当RPO设计值较高时(N分钟级),通信链路必须确保在N分钟内将波峰量数据传输至容灾端的能力,允许的数据堆积量很小,带宽大小取决于波峰时写入负荷。当RPO设计值适中(N小时级),可充分利用负荷波谷时链路的空闲能力延时传输负荷波峰时来不及发送的数据,达到“削峰填谷”的效果,此时带宽大小可取波峰波谷间的写入负荷的平均值。

带宽利用率范文

带宽利用率范文(精选7篇)带宽利用率 第1篇随着科技的高速发展, 通信技术也在朝着宽带化、智能化、个人化以及业务综合化的方向发展。目...
点击下载文档文档内容为doc格式

声明:除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。如若本站内容侵犯了原著者的合法权益,可联系本站删除。

确认删除?
回到顶部