NFV技术范文
NFV技术范文(精选8篇)
NFV技术 第1篇
1 NFV技术概念
NFV即网络功能虚拟化, 是指通过使用x86等通用性硬件和虚拟化技术, 来承载很多功能的软件处理, 从而降低网络的设备投入资金。NFV技术可以通过软硬件解耦和功能抽象, 使网络设备功能独立于专用硬件, 资源可以充分灵活共享和调度, 大大缩短通信运营商的开发新设备时间, 实现盈利目标。NFV还可以基于实际业务需求实现安排部署自动化、弹性伸缩、故障隔离和自动诊断和修复等。
2 SDN技术
SDN是一种新型网络架构, 是多种技术的综合运用。通过网络控制平面与数据转发平面分离过程, 实现网络构架的编程化控制设计理念, 使得SDN技术成为一种新型的网络构架技术, 软件自定义网络由转发层、应用层、控制层三部分构成。转发层用于实现分组及交换功能;应用层用于网络业务的呈现、网络模型的抽象。控制层实现控制转发分离和逻辑集中控制。SDN技术的应用将会影响和改变通信运营商网络的各个方面。
3 NFV和SDN的关系
SDN和NFV都是近些年来通信运营商为了满足新的应用的需求, 研发的新一代网络技术, 两者各有侧重是从分别从网络连接和网络节点的角度解决网络问题。SDN是一种网络连接技术, 它与传统网络连接技术相比具有合理、高效调度网络资源的特点。NFV是一种新型的网络节点虚拟化技术, 基于通用服务器和虚拟化技术, 通过软硬件解耦和硬件抽象, 实现管理效率的提升和资源灵活共享的功能。SDN和NFV两者是网络连接与网络节点的关系, 两者共同作用形成网络。
4 NFV技术的发展
从通信运营商角度来看, NFV是通信运营商为提高自身经济效益, 降低网络设备资金投入量而提出的最终设备架构。由于NFV能够将网络设备统一到工业化标准的高性能、大容量的服务器, 交换机和存储平台上, 同时不需要安排新的硬件设备, 实现网络功能的软件化降低设备成本。
从设备商角度看, SDN/NFV设备研发工作是以参考通信运营商NFV的需求或者SDN Open Flow等标准和ISP需求, 为运营商提供的不同场景下的NFV设备或者为ISP在不同场景下定制的SDN设备, 如果SDN和NFV技术的共同特点就需要将两种技术相结合, 研发指定的设备。
5 NFV应用场景
NFV典型应用主要是在CPU密集、网络吞吐能力要求比较高的场景, 如无线接入、固网接入、企业、家庭、CDN、数据中心等不同场景。通信运营商可在使用该技术时根据自己的网络实际情况选择应用场景中的一个或者是几个综合应用。网络功能的虚拟化消除了网络功能和硬件之间的相互依存的关系, 为虚拟化网络功能创建标准化的执行环境和管理接口, 形成了多个虚拟化的网络功能以虚拟机的形式共享物理硬件的环境。硬件汇集是为了实现灵活共享NFV基础设施资源池。NFV基础设施资源池的创建类似于基础设施即服务 (Iaa S) 、平台即服务 (Paa S) 和软件即服务 (Saa S) 的类似云计算的服务方式, 其中VNF所有者不一定拥有运作和经营的VFV基础设施。例如:在移动网络中, 演进的分组核心和IP多媒体系统, 用于虚拟化可能有移动性管理实体。NFV在在CDN方面的应用, CDN服务提供商通常部署靠近网络边缘的内容缓存以改善客户体验质量。高速缓存可以为网络提供商提供专用的硬件, 缓存资源在自身生命周期内大多未得到有效利用, 设置虚拟化缓存可以实现底层硬件资源的合并, 以提高缓存资源利用率。
6结束语
NFV作为网络设备的虚拟化, 能够降低设备的成本, 缩短运营商新业务的开发周期。NFV标准化在完成基本框架搭建的基础上, 正在向互联互通和借口的标准划定义方面发展。SDN和NFV技术应用前景受到运营商和设备上的广泛关注, 但目前技术还存在许多的问题和挑战, 只有通过实践不断完善SDN/NFV技术, 投入市场进行检验研究成果, 对于反馈结果进行调整和完善工作, SDN/NFV技术才能获得长远发展。
摘要:随着市场经济的不断发展, 衍生出各种新兴技术, NFV技术是一种为了解决现有通信设备的不足而产生的。本文旨在通过介绍NFV技术的产生背景、概念、SDN、SDN和NFV的关系、NFV技术进展及其应用前景。
关键词:NFV技术,SDN技术,应用场景,标准组织
参考文献
[1]郑毅, 华一强, 何晓峰.SDN的特征、发展现状及趋势[J].电信科学, 2013 (09) :102-107.
[2]赵河, 华一强, 郭晓琳.NFV技术的进展和应用场景[J].邮电设计技术, 2014 (06) :62-67.
[3]薛淼, 符刚, 朱斌等.基于SDN/NFV的核心网演进关键技术研究[J].邮电设计技术, 2014 (03) :16-22.
[4]赵慧玲, 史凡.SDN/NFV的发展与挑战[J].电信科学, 2014 (08) :13-18.
[5]李晨, 段晓东, 陈炜等.SDN和NFV的思考与实践[J].电信科学, 2014 (05) :1-13.
[6]华一强, 郭晓琳, 杨艳松.NFV及其在IP网中应用的探究[J].邮电设计技术, 2015 (02) :110-112.
[7]沈成彬, 蒋铭, 曾涛.SDN/NFV技术的接入网应用[J].中兴通讯技术, 2015 (08) :21-21.
NFV技术 第2篇
Emulex SURF API可直接利用Emulex 10/40GbE适配器的网络处理功能。由于具有增强的3 层功能和优良的可编程性,Emulex SURF API可帮助电信服务提供商为队列和流量定向设置参数,从而为不断发展的NFV工作负载构建更高性能且更加经济高效的应用。通过使用Emulex SURF API部署Emulex 10/40GbE适配器,电信运营商可以在一个平台上解决客户的所有以太网连接需求,包括 NFV、内部IT运营、电信基础架构即服务(IaaS)、云无线接入网络(RAN)和内容交付网络(CDN),进行标准化以实现视频聚合。
Emulex已与6WIND建立合作伙伴关系,为OneConnect OCe14000系列10Gb和40Gb以太网适配器及聚合网络适配器提供Emulex PMD,帮助下一代NFV工作负载利用DPDK的优势,并使客户能够自由地为他们的服务器部署选择最佳网络连接。
DPDK由一组库和驱动程序构成,可加快x86平台的数据包处理。使用它可以直接访问数据平面应用的硬件,避开操作系统网络堆栈,从而进一步提高性能。
城域网迈向NFV需过几道技术坎 第3篇
随着NFV各种相关技术标准的成熟, NFV的技术理念和带来的种种好处也日益被业界所认同。但是到目前为止, NFV在城域网中的实际应用案例基本还是空白, 没有进入实质阶段。NFV要想在城域网破冰, 有几个关键问题亟待解决。
NFV的切入点
NFV的理念是将硬件和软件进行分离, 目前X86+DPDK的转发表现 (吞吐量、无丢包转发) 远逊色于传统的ASIC转发芯片。但是X86架构服务器的优势是计算能力远大于传统的网络设备, 并且在内存上几乎没有限制, 那么城域网NFV化必定是面向业务的, 而不是面向转发。城域网的NFV化必定是从对CPU计算能力要求高、内存占用大, 同时转发压力较小, 或者设备瓶颈在CPU和内存 (由于CPU和内存的限制, 转发利用率较低) 的网络设备开始, 例如BRAS、CGN、LNS、RR等设备都适合NFV化。
另外, 在NFV中软件和硬件是独立发展的, 一般软件的开发周期远小于硬件的开发周期, 软硬件解耦后, 业务快速推出到市场变得可能。基于客户需求进行设备定制化, 尤其是企业网应用中, 传统设备响应时间很慢, 越来越不能满足互联网时代的诉求。由于NFV只涉及软件的开发和调试, 无论是在时间上还是在成本上都有极大的优势, 如CPE、策略服务器等。
整体集成难度
按照ETSINFV的架构, 每个function block (功能块) 都遵循标准的接口, 他们之间是各自独立的, 并且每个function block按照标准的接口对外提供服务, 理论上讲, NFV不依赖于任何特定厂商的实现。
但是目前各个厂商之间还没有开始进行大规模的互通性验证, 缺乏互通性验证使得当前NFV很难按照ETSI的架构进行有效集成。如果NFV无法摆脱特定厂商的约束, 网络开放性会受到很大的影响, 如果没有足够多的厂商进入NFV领域, 那么业务的创新能力也会大打折扣, 不如预期想象的那么美好。
另外原本由一个厂商提供的设备和服务现在拆分成多个厂商提供的服务, 或者以前由一个PNF (Physical Network Function, 物理网络功能、模块) 提供的服务现在由多个VNFs提供, 整体NFV集成的难度和工作量、时间也会极大地增加。
安全性要求
NFV将虚拟化技术和网络技术结合到一起, 使得NFV的安全问题和传统网络设备的安全大不一样:除了传统的网络安全问题之外, 还需要考虑虚拟化带来的安全问题, 尤其是虚拟化和网络结合带来的新问题。
另外NFV是一个层次化的架构, 上层严重依赖底层提供的服务, 而且由不同的厂商提供, 为避免各层之间的攻击行为, 就要求它们之间能相互认证。考虑到知识产权和信息安全, 各层之间只能暴露有限的信息, NFV引入了一系列的预防手段, 这些目前都还没有得到有效的验证, 一旦NFV需要启动商用, 安全性问题的解决和实施方案迫在眉睫。
可靠性要求
传统的电信网络要求设备的可靠性达到6个9, 远高于IT技术中的要求。ETSI规定一系列的可靠性需求:NFV的业务不中断 (用户不感知) ;VNFs和VMs发生迁移后, 业务的SLA不发生改变;VNFs的迁移对其余相关联VNFs是透明的;这些相比传统设备的可靠性技术, 极大地依赖云技术, 涉及NFV多个function block和多个厂商, 复杂度大大增加。
目前来看使用云技术可以隔离硬件的故障, 但是要想达到ETSI的愿景, 还有很多工作需要做。
自动化部署
NFV中引入了Orchestrator (编排器) 来实现业务的自动化编排, 以降低运营商的OPEX。但是如何定义业务、业务需要多少NFs参与、每个NF (网络功能) 怎样分工、NF之间的关系、业务如何映射到各个NFs, 以及上述工作如何实现自动化部署, 目前也仍然没有一个比较好的实施方案。
动态scale-in/out
NFV另外一个吸引人的地方是硬件资源池化, NFs可以根据负载情况进行快速的动态scale-in/out。但是目前来看, MANO系统虽然可以监控VMs的CPU和内存利用率, 但是要将VNFs从一个VM (虚拟机) 热迁移到另外一个VM, 业务状态的同步、流量联动倒换等方面还存在许多不足。另外一个方面, 各个厂家对自己v NFs的业务负载监控实现也不完善, 并且在实现上也没有统一的标准, MANO无法有效监控到v NFs的业务负载, 当前还无法按照v NFs的负载进行动态scale-in/out。其次, 网络中应该如何scale-in/out目前只有一个感性的共识, 还没有进行深入地探讨, 比如切换的模式和阈值等。
厂商参与度
NFV引入后, 网络设备商的商业模式从“系统设备+服务”, 变成“软件+服务”。对于运营商和设备商都是一个巨大的转变, 如果商业模式理不清或者不能被双方所认同, 那么NFV就无法实质性地商业化, 也就无法吸引传统设备厂商和新的厂商进入这个领域, NFV进展就会非常缓慢, 商业化也会遥遥无期。
NFV引入策略与演进 第4篇
在“互联网+”、M2M以及新商业模式的影响下, 未来网络需要具备一些特征, 如:网络容量快速伸缩、动态多实例、更低的成本、实现自动运维和业务编排、网络能力开放、大数据智能分析等。而目前业界普遍关注的NFV (网络功能虚拟化) 的特性与未来网络特性重合度非常高。
NFV实现了IT与CT技术结合, 采用虚拟化技术实现了软件和硬件的解耦, 能够满足运营商的迫切要求。一方面, 运营商通过NFV技术实现网络资源的有效利用, 加快部署速度, 大幅缩短新业务的上线周期, 更好地提升用户满意度;另一方面, 可实现分层的设施管理和网络维护, 进行动态的资源调度和设备节能, 大幅降低网络建设和维护成本。
由此可见, 电信网络云化 (NFV) 是网络变革的必然选择。
电信网络的各层面均可引入NFV, 但是不同场景收益有差异。移动核心网和业务网引入NFV价值高, 主要是由于网元接口都实现了IP化, 控制网元可以集中部署, 因此有助于快速开展业务、降低TCO。
NFV整体发展路线
根据现有的NFV发展情况和5G规划来看, 支撑云业务的NFV整体路线可以归纳为4个阶段, 实现从虚拟化到云化, 打造可持续创新的电信网络。
第一阶段虚拟化阶段:软硬件解耦, 实现网元虚拟化。
第二阶段Iaa S阶段:底层资源池化, 实现网络功能虚拟化, 进一步降低成本。
第三阶段Paa S阶段:网络开发可编程, 从网元中抽取部分公共组件, 逐步实现服务编排, 通过service chain支持业务的快速动态调整。
第四阶段Xaa S阶段:最终实现全网全组件化, 实现经营创新。
基于SDN/NFV的目标电信网络架构
从SDN/NFV的整体发展情况看, 电信网络的接入、核心控制和业务逐步都会向NFV上转移, 通过编排, 按需形成所需的网络服务, 而且未来, 电信服务也会呈现出更开放的形态, 为更多用户能够使用到差异化的电信服务, 让更多第三方可以参与到差异化服务的开发和定制。根据SDN/NFV虚拟化、Iaa S、Paa S、Xaa S的发展线路, 未来的电信网络架构演进远期目标架构如图1。
随着客户对网络定制化需求的日益繁多, 运营商需要一种更为灵活的网络来满足客户这种越来越多样化的需求, 组件化和全方位的能力开放成为必须。一方面, 网络的能力会根据不同客户要求被切分成粒度更细的各种功能组件, 另一方面这些组件又可以通过开放出去的接口被第三方合作伙伴和客户调用, 用于创建自己的v DC和虚拟服务专网。
虽然各级DC的硬件资源依然对外共享, 但网络服务的架构和内容不再单一, 而是形成了一个个按客户需求定制的网络服务切片。这些服务切片, 既能更好的满足不同用户的差异化需求, 又因为服务组件和资源可以得到充分利用, 不存在功能过剩的情况, 因此网络成本也会得到极大的降低。
目前5G研究和发展的思路也正沿着与此相同的方向发展。因此以组件化和运营商网络能力全面开放为支撑的虚拟化专网 (网络切片) , 必将成为未来包容2G/3G/4G/5G网络接入能力的远期架构目标。
ZTE端到端NFV解决方案
ZTE端到端的NFV解决方案由MICT-OS和Elastic Cloud Service两大组件构成, 如图2所示。
Elastic Cloud Service构建在DC之上, 处于整个网络的业务层, 用于为用户提供更丰富更个性化的业务;MICT-OS是融合电信运营商运维系统, 用于管理业务层和承载层, 实现按需的业务编排, 根据用户的需求, 整网的资源情况采取最优的策略, 实现业务的快速部署和资源的最大化利用, 快速构建定制化网络, 有效降低建网成本。
一体化v CN (Unified v CN) 在NFV的基础上进一步实现核心网不同网元实体的子功能组件自由组合, 满足不同业务场景和演进需要。通过对网元的重构, v CN不再
通过对网元的重构, v CN不再以一个个标准网元虚拟化的形式出现, 相关组件可以根据不同应用场景和用户需求进行灵活组合和定制裁剪形成针对不同应用场景的云化核心网。
v C N的三层架构 (S O A Framework Based) 分为数据层、公用层和应用层。v CN方案具备如下特点。
●更高性能:全主用业务处理模式, 整机性能是传统架构的2倍。
●高可用性:多模块分布式, 每份数据都实现了M份备份。
●伸缩性更强:无缝在线进行Scale in/out, 伸缩容时长为秒级。
●扩展性强:增加任何新应用, 并不会对已有的系统产生较大影响。
●易维护:实现快速发布版本和升级版本。
●用户体验:无缝在线软件升级 (ISSU) 、无缝弹性伸缩, 对用户零影响。
ZTE NFV解决方案应用案例
中兴通讯Cloud Uni Core云化核心网解决方案遵循行业最新标准, 并且积极推动NFV和SDN开源生态系统。目前, 中兴通讯已加入70多个标准化组织, 提交了20000多个提案, 在中国、欧洲和美国申请了30000多个相关专利, 是网络虚拟化的主要推手。此外, 中兴通讯与业界主流厂家HP、Dell、Cisco、VMware、Redhat、Wind river、CYAN、Overture等展开合作, 致力于打造开放与标准化的虚拟化网络。
揭秘NFV和SDN迁移 第5篇
揭开流程的神秘面纱
在整个迁移过程中, 企业和服务提供商必须在质量和成本, 灵活性和控制力之间进行取舍。发展太快, 但却还不够快。这就是Ixia公司进入的市场, 提供业内惟一的生命周期解决方案来消除猜测, 并验证虚拟化每个步骤的好处。
虚拟化功能以及新加入的功能必须进行迅速而全面的验证。由于设置速度快且需要较少的物理资源, 虚拟测试解决方案加快并简化了开发与质量保证 (QA) 测试。测试虚拟机 (VM) 可以按需实例化, 许多虚拟评估和回归同时进行, 无需配备和共享物理测试员。测试可以帮助制造商定义和销售新产品, 并允许网络运营商比较在虚拟化基础架构中部署的产品。
在软件定义网络 (SDN) 中, 网络的控制从数据平面中被抽离并集中化。计划的配置和新服务的激活可以在采用引入真实用户流量之前进行建模。
随着部署的发展, 需要持续的实时监测来验证性能和安全性。主动监测也提供宝贵的反馈, 为后续发展提供信息。再次, 物理和虚拟解决方案的组合帮助涵盖所有的基础。随着部署发展至包括成千上万的虚拟机和功能, 就同时需要物理和虚拟测试。新的基础架构组件 (如虚拟机管理程序和虚拟交换机v Switch) 的漏洞也必须被验证。
N F V提高了敏捷性并降低了总体拥有成本 (TCO) , 还减少了对专门硬件的需求并且提高了资源利用率。与此同时, 新的架构元素 (如管理程序和虚拟交换机) 代表新的变数, 可能损害性能并引入新的安全目标。
Ixia的物理和虚拟创新
作出正确的决定就意味着在整个迁移过程中采用正确的验证方法。Ixia公司L2-7产品经理杨益锋说, Ixia公司提供业内惟一的生命周期解决方案以确保成功, 以及需要知道什么时候做什么的一线经验。Ixia公司为验证提供两个重要组成部分:虚拟化的测试和测试的虚拟化。借助其市场领先的L2/3和L4-7测试平台的虚拟版本Ix VM, Ixia公司在测试和可视性方面不断创新, 旨在从根本上优化SDN和N FV。Ixia测试消除了猜测, 并减少与迁移相关的风险和复杂性。我们的测试和可视性平台提供前进的信心、缩短产品进入市场的时间, 并确保最终用户体验 (Qo E) 的质量。
杨益锋表示, 借助Ixia的市场领先的Ix Load和Ix Network测试应用程序的虚拟版本Ix VM, 虚拟测试端口在管理程序层面插入。Ix VM在与被测V N F相同或不同的服务器上, 执行与物理测试员相同的一套测试, 隔离并验证性能。使用物理测试端口进行的传统测试和使用虚拟测试端口进行的测试测量关键绩效指标 (KPI) , 以及虚拟环境的独特方面, 如VNF和虚拟机性能、虚拟设备或服务链接。I x ia公司还提供物理和虚拟可视性解决方案, 有效地监测大规模有线、无线和基于云的网络。我们突破性的可视性架构在虚拟机移动时连续监测VNF, 这是恢复关键审计痕迹、强化安全性并确保合规性的关键。
NFV如何赋能传统城域网 第6篇
随着互联网业务的迅猛发展, 固网宽带和移动宽带接入的容量和质量成为业界关注的重点。网络的本质是用来承载业务, 业务需求是决定网络发展的方向, 城域网建设需要充分发挥网络优势, 将网络与业务适配。
城域网发展需NFV等新技术的支撑
通信设备商长久以来所提供的设备均是传统的控制和硬件一体的设备, 网络通过设备与设备之间的各类协议进行控制和管理。原有的网络由不同层级的网络设备组成, 当业务需要有更大的容量和更高的转发性能时, 运营商只能采取扩容的方式, 而机房的空间和能耗方面的限制使得扩容非常困难, 而不同类型业务对网络灵活性方面的要求也得不到满足。
电信运营商的城域网需要在网络层级方面变得更加扁平, 对业务的安全性和灵活性需要有更大的提高。这就需要SDN/NFV等新技术的支持, 实现控制与管理分离, 对网络进行灵活调配和管理。
其中, NFV (网络功能虚拟化) 技术是新出现的技术利器, 简单理解就是把电信设备从目前的专用平台迁移到通用的X86 COTS服务器上。2012年10月, 在ETSI由13个运营商成立了一个组织NFV-ISG, 致力于推动“网络功能虚拟化”, 并发布了NFV白皮书, 提出了NFV的目标和行动计划。
当前电信网络使用的各种设备, 均是基于私有平台部署的, 这样各种网元都是一个个封闭的盒子, 各种盒子间硬件资源无法互用, 每个设备扩容必须增加硬件, 缩容后硬件资源闲置, 耗时长、弹性差、成本高;在NFV方法中, 各种网元变成了独立的应用, 可以灵活部署在基于标准的服务器、存储、交换机构建的统一平台上, 这样软硬件解耦, 每个应用可以通过快速增加或减少虚拟资源来达到快速伸缩扩容的目的, 大大提升网络的弹性, 如图所示。
NFV优势明显
NFV的技术基础就是目前IT业界的云计算和虚拟化技术, 通用的COTS计算/存储/网络硬件设备通过虚拟化技术可以分解为多种虚拟资源, 供上层各种应用使用, 同时通过虚拟化技术, 可以使得应用与硬件解耦, 使得资源的供给速度大大提高, 从物理硬件的数天缩短到数分钟, NFV的主要优势如下。
● 降低运营商采购/运维成本及能耗。
● 快速业务部署, 缩小创新周期:包括提升测试与集成效率, 降低开发成本, 软件的快速安装取代新的硬件部署。
● 网络应用能实现多版本及多租户。支持不同的应用、用户、租户共享统一的平台。网络共享的支持水到渠成。
● 使能不同物理区域以及用户群的业务个性化, 业务规模能够快速方便得以伸缩。
● 使能网络开放, 业务创新。可能孵化新的利润增长点。
NFV结构浅析
同当前网络架构 (独立的业务网络+OSS系统) 相比, NFV从纵向和横向上进行了解构, 按照NFV设计, 从纵向看分为三层:
基础设施层:NFVI是NFV Infrastructure的简称, 从云计算的角度看, 就是一个资源池。NFVI映射到物理基础设施就是多个地理上分散的数据中心, 通过高速通信网连接起来。NFVI需要将物理计算/存储/交换资源通过虚拟化转换为虚拟的计算/存储/交换资源池。
虚拟网络层:虚拟网络层对应的就是目前各个电信业务网络, 每个物理网元映射为一个虚拟网元VNF, VNF所需资源需要分解为虚拟的计算/存储/交换资源, 由NFVI来承载, VNF之间的接口依然采用传统网络定义的信令接口 (3GPP+ITU-T) , VNF的业务网管依然采用NEEMS-NMS体制。
运营支撑层:运营支撑层就是目前的OSS/BSS系统, 需要为虚拟化进行必要的修改和调整。
从横向来看, NFV分为两个域:
业务网络域:就是目前的各电信业务网络。
管理编排域:与传统网络最大区别就是, NFV增加了一个管理编排域, 简称MANO, MANO负责对整个NFVII资源的管理和编排, 负责业务网络和NFVI资源的映射和关联, 负责OSS业务资源流程的实施等, MANO内部包括VIM、VNFM和Orchestrator3个实体, 分别完成对NFVI、VNF和NS (Network Service:即业务网络提供的网络服务) 3个层次的管理。
NFV技术已迈开商用步伐
就NFV技术在城域网建设方面的应用来看, 国内运营商已经迈出了数据中心NFV化的第一步。2015年, 各运营商都在以实验室测试和现网试点相结合的方式逐渐推进NFV的运营商网络商用。在私有云和政企云方面, 已经将最新的NFV技术引入了商用。最典型的是公有云VPC业务, 通过在x86架构的虚拟机上部署防火墙、VPN网关等, 将企业网络扩展到公有云中, 为企业进行统一的网络管理, 包括:网络配置、安全策略、管理策略等。通过部署QoS、WAN优化等, 提供一致的业务体验。不仅让企业员工通过VPN安全、快捷地访问公有云, 而且企业公有云和私有云二层安全互联, 实现资源统一管理、动态调配、应用灵活部署和自由迁移。
在以带宽运营为主要运营模式的传统运营网中, 业务边缘节点设备已经出现了计算能力和转发能力的不匹配。随着增值业务的部署, 传统的城域网边缘路由器越来越凸显出其业务特性开发响应周期长、L4-L7业务能力偏弱的问题。通过利用NFV技术, 全球运营商开始探索部署x86架构下的虚拟CPE (v CPE) 、虚拟BRAS (vBRAS) 和虚拟NAT (vCGN) 等资源池, 使得业务边缘的用户接入控制能力得以灵活扩展。
NFV可应用场景不断拓展
运营商首先在vCPE方向上进行实践, 将原来散落在用户家庭接入网关的高级功能上收到汇聚节点, 在家庭侧只需要部署最简单的二层接入设备, 大大降低客户端的投资和维护成本。这种部署模式绝不仅在于替代现有的家庭网关, 而在于盯准智能家庭路由器市场, 建立城市千万家庭的网络业务门户。很多国际运营商已经在vCPE上开展智能家居业务、视频云、存储云等业务, 与家居解决方案商、内容提供商、虚拟运营商以及品牌小区实现合作运营, 实现前后向业务增值。
BRAS和CGN也尝试向NFV方向发展。在国内运营商城域网中, BRAS是最为关键的网络设备和角色类型。以BRAS及其以下的接入网为模块, 不断复制模块扩容的方式建设城域网是最为典型模式。这种模式网络配置相对固定, 可以很好地实现简单业务的网络扩容, 但是也存在非常明显的问题:城域网内各个BRAS之间各自为政, 无法实现资源共享。这使得用户多的地方只能多部署几台BRAS, 多从接入网拉连一些光纤链路到BRAS机房, BRAS和链路的利用率都不高。
在x86的架构下, BRAS和CGN作为VNF部署在标准服务器上, 标准服务器可以通过平滑扩展的方式增强计算和转发能力, 并且能够更好地适应L4-L7业务能力。在城域网业务边缘层形成一个新的vPOP, 将各种VNF相对集中部署形成资源池, 资源池内可以面向用户、面向业务灵活调整资源, 从而提升全网使用效率。同时在城域网范围内集中部署vPOP的Controller, 实现资源状态的查看、配置、维护、调整等功能。
对于移动核心网来说, 演进的分组核心EPC和IP多媒体IMS系统的网络文件系统NFS, 可以利用NFV整合在相同的硬件资源池中;基站的功能, 例如链路层、物理层以及相关协议处理不同的无线标准, 如3G/4G及未来的5G等, 也可以利用NFV, 在一个集中、共享的硬件资源池中实现动态资源分配。
另外, NFV在内容分发网络CDN也得到广泛的应用。目前, CDN提供商、运营商利用高速缓存技术, 使用专用的硬件为用户提供这种服务。由于硬件资源的设计为高峰时满负荷, 这些缓存资源在生命周期内大多数时间未能得到充分利用。而利用和部署NFV实现虚拟化缓存, 底层硬件资源可以被合并, 并在多个供应商的CDN缓存和其他的VNFs中实现动态共享, 从而可以有效提高缓存资源使用率。
NFV技术 第7篇
随着云计算技术的发展以及“互联网+”计划的提出, 运营商网络面临巨大压力, 如何变革网络以适应未来业务发展需求, 成为业界关注焦点。而SDN/NFV可以把原来经典网络进行系统的抽象化, 是实现网络转型的最佳选择。
SNS Research的报告显示, 2015~2020年, 网络服务提供商在SDN/NFV方面的投资将持续提升, 年复合增长率将高达54%, 预计到2020年可达200亿美元。
SDN/NFV带来了新一轮网络变革, 近年来业界对SDN/NFV进行了大量测试, 而2015年是SDN/NFV走向部署的关键一年。
SDN从数据中心走进现网
从全球范围来看, 北美运营商在SDN领域进展最快, 比如, AT&T基于SDN技术实现的“随选网络”服务, 在2015年上半年已扩展至美国100个城市。国内运营商动作也不慢, 在验证测试方面甚至做得更彻底, 只是业务方面稍微落后, 还没有全面商用。
我国三大运营商已全面拥抱SDN/NFV, 以构建“智能化”的网络, 适应未来网络发展需求。运营商引入SDN, 基本确定了先数据中心、再核心网、接入网的思路。目前SDN已在多省的云数据中心落地, 产生了初步成效, 并且逐步走向传输网以及企业专网等应用场景中。
2015年9月, 中国联通发布了新一代网络架构CUBE-Net2.0白皮书。CUBE-Net2.0将基于SDN/NFV等技术实现网络重构, 是中国联通积极拥抱SDN/NFV、实现网络架构优化和转型的重大进展。中国电信则成立云计算开放技术联合实验室, 打造SDN/NFV开放生态系统。
厂商也将SDN作为业务转型的着力点。例如, 华三通信携手淘宝网建成了国内最大的SDN网络。中兴通讯的Elastic Net系列解决方案已在全球部署了10多个SDN/NFV网络, 涵盖运营商网络基础设施、云数据中心、企业网等应用场景;该方案在2015年全面参与了国内运营商在SDN/NFV各领域的测试实践。华为则在OIF、ONF、IETF等主流标准组织担当核心职位并贡献多种应用场景, 与西班牙电信、沃达丰等运营商开展T-SDN领域联合创新, 亦携手天津联通开通全球首个基于ONOS开源架构的SDN IPRAN企业专线业务, 实现IPRAN专线业务的快速部署。
除了企业加快自我研发的步伐外, 为有效解决SDN所面临的挑战, 目前业界已经成立了诸如“SDN产业联盟”等组织, 以开放合作的态度支持SDN产业从技术向商用迈进, 联合产业界各方共同推动SDN产业的健康发展。下一步, 混合云是云数据中心引入SDN的新驱动, 基于SDN技术的组网是运营商混合云的新方向。
成立联合实验室助推NFV发展
2015, 业界对NFV的关注程度日益提高, 同时, 电信运营商、电信设备提供商及IT设备提供商也将其在云计算、开源、软件定义网络领域内积累的技术应用于NFV, 推动NFV的落地实现。
目前大部分运营商对于NFV尚处在规划和调研阶段, 然而2015年12月, 浙江电信在现网成功落地v BRAS, 为电信运营商的NFV旅程注入了一剂“强心针”。
ETSI NFV ISG和OPNFV作为主要的NFV标准化组织, 起到了非常重要的行业引领作用。NFV的发展也需要运营商的推动, 中国移动于2015年初携手戴尔、华为、惠普、英特尔、广达、红帽、思博伦、风河系统公司以及中兴成立了OPNFV实验室, 这是亚洲首个OPNFV实验室。
为了加速NFV的部署进程, 中国电信北京研究院则与中国惠普有限公司合作共建“NFV联合实验室”, 该实验室是中国电信成立的第一个针对NFV技术研究的联合实验室, 将加速NFV在国内运营商中的落地实施。
电信设备商、IT服务提供商在推动NFV落地的进展中也不落后, 华为在全球建立了多个NFV/SDN开放实验室, 与中国移动、英国沃达丰、德国电信、NTT docomo等全球30多家运营商完成Cloud Edge解决方案概念验证测试和网络预商用, 打造多赢的NFV/SDN生态环境。风河系统公司则与Brocade、Check Point、Info Vista和Riverbed四大NFV软件合作伙伴紧密合作, 推出了虚拟业务客户端设备 (v BCPE) 的参考设计。
成立联合实验室、与产业链各方进行广泛的合作, 已成为业界推动NFV落地的重要方式。
SDN/NFV全面落地亟需克服多重困难
SDN通过软硬件解耦, 实现网络软件化, NFV能为网络带来更好灵活性, SDN与NFV的搭配, 可更好地支持负载均衡、广域网优化的虚拟网络功能, 因此ONF也预计, 2016年在运营商网络和企业云领域, SDN和NFV的结合将更加普遍。
电信运营商需要为全社会提供高可靠的服务, 因此在新技术的引入上非常谨慎。对运营商而言, 部署SDN/NFV网络在技术层面问题正不断得到解决, 更多的是运营商的运营模式、组织架构、运维体系、采购模式需要同步变革, 这些方面的挑战更大。
例如传统网络以网元为核心运维, SDN网络则以业务体验为核心运维;商业模式从卖语音、卖流量转变为卖软件、卖服务, 这种变革需要一个过程。
除了理念之外, NFV在标准、技术、商业模式、产业链等方面也面临着一些挑战。从标准的角度来看, ETSI虽然最早提出了NFV的技术架构, 但在具体的实践过程中, 还有很多细节需要优化;同时在NFV部署过程中, 不同的产业阵营拥有不同的诉求, 不同厂商之间的互联互通和互操作性也是很大问题。
人才挑战也成为SDN/NFV商用的一大困难。SDN/NFV方便运营商快速推出业务以应对OTT的竞争, 这就要求运营商有很强的软件应用开发能力, 但现在的实际情况并不理想, 国内运营商中拥有丰富软件开发经验的人才资源并不多。
NFV技术 第8篇
近年来国内外学者对SDN下的流媒体开展了前瞻研究,文献[3,4,5]研究了云平台环境下部署流媒体集群;李晨在文献[6]中探讨了SDN和NFV的发展;郑梦青在文献[7]中对SDN的3D视频编码与传输技术进行了研究;文献[8]实现了SDN网络平台面向组播业务关键技术;文献[9]将流媒体集群并发技术应用到点直播系统中;文献[10]设计了GENI电影,依靠SDN传输的可伸缩视频直播服务;文献[11]研究并设计了基于开放流网络的流媒体传输模型;文献[12]用缓冲HTTP流媒体直播结合SDN的方法改善了5G无线网络通信;文献[13]提出了在SDN用分层自适应的学习方法来传输视频流;文献[14]用SDN实现了服务器的负载均衡。针对流媒体直播服务器并发性低下和Red5集群不能均衡负载,采用集群技术结合SDN和NFV技术,设计并实现了基于SDN和NFV技术架构的Red5直播集群。
1 基于SDN和NFV的直播集群设计方案
1.1 关键技术
1.1.1 SDN架构
SDN是Emulex网络一种新型网络创新架构,其创新之处在于网络的可软件编程,即用软件动态地实现传统网络设备的功能。其核心技术Open Flow通过将网络设备控制层与数据层分离开来,实现了网络流量的灵活控制[15],在视频直播时,可以将控制流和视频流分开来,合理分配带宽,使网络作为管道变得更加智能。其设计思想最初来自美国的未来互联网计划(Future Internet Network Design,FIND),其最大优势在于网络设备控制流和数据流的解耦合、网络各种应用状态控制的集中化、灵活的软件编程能力,可以有效地解决当前网络架构扩展性差、网络组织灵活度低、应用实施繁琐、高端网络设备成本高等问题,并极大降低了网管员的工作量和工作难度。
国际上对未来互联网体系结构的研究主要包括美国的New Arch,FIND和GENI欧盟的FIRE等项目。IETF组织也参与了对下一代网络体系结构中的关键技术研发。ONF是一家非盈利的组织机构,致力于SDN的发展和标准化,是当前业界最活跃、规模最大的SDN标准组织。ONF针对SDN提出了SDN的架构图,如图1所示。
SDN将传统网络的架构解耦合为应用、控制、转发3层架构,网络不仅提供传输数据的功能,而且跟虚拟化后的计算、存储资源一样成为一种可动态调配的服务资源。这种服务资源经过虚拟化后,将不再成为制约新业务应用的瓶颈。
1.1.2 NFV架构
NFV是欧洲电信联盟提出来的,ETSI网络功能虚拟化行业规范工作组由国外52家网络运营商、电信设备供应商、IT设备供应商和技术供应商联合组建,其致力于NFV的研究,通过对NFV的研究使IT虚拟化技术标准化,让更多不同类型的网络设备跟符合行业标准的服务器、交换机和存储设备相互融合[16]。其通过使用x86等价格便宜、性能稳定通用性硬件设备以及标准的虚拟化技术,去实现很多网络设备的功能。这样可以节约购买昂贵网络设备的成本。网络机房里面存放大量的服务器、存储设备,还有大量不同厂商生产的不同的网络设备,维护起来成本高,部署起来复杂,新业务上线很慢,网络功能的虚拟化解决了这个难题。NFV架构上线后把所有功能挪到标准的服务器上实现,NFV架构如图2所示。
在图2中,NFVI就是基础设施,进行管理和虚拟化,目标是为了在上面提供这些称之为VNF的功能。这些功能单元运行在虚拟化出来的虚拟机或容器里。最右边NFV MANO这一块是整个系统的管理部分。
1.1.3 Red5集群技术
集群(cluster)是由一组相互独立的、通过高速网络互联的计算机组成的系统,其目的在于提高应用系统性能、降低成本、提高可扩展性、增强可靠性,其任务调度则是集群系统中的核心技术。集群按照用途分为科学集群、高可用性集群、负载均衡集群。负载均衡集群可以利用计算机集群的计算机平摊处理接受的任务。接受的任务处理过程中的负载分为网络流量负载和应用程序处理负载,两种负载方式均适合向使用同一应用程序的大量用户提供多线程并发服务。集群的每个节点都参与一定规模的处理负载,并且可以对集群的每个节点动态分配负载量,以达到负载均衡的目的[17]。使用网络流量负载服务时,应用系统接受了入网的大流量,就会发送给集群内所有节点上运行的网络服务程序来分担处理。同时,还可以根据每个节点上不同的网络环境、不同的可用资源进行优化。Red5集群采用边源服务器的模式,边服务器(Edge Server)用来接受来自于客户端的连接,并将多个相同用户域的连接进行合并多路复用,统一转发给源服务器(Origin Server)进行处理,在源服务器处理完数据后再转发给边服务器,再由边服务器转发给客户端用户[18]。Red5集群由源服务器和边服务器组成,架构图见图3。
Edge Server的主要作用是用Simple MRTMPEdge M-anager管理连接,Edge Server上不需要部署服务;其监听客户端端口9035,此端口用于接收客户端请求,并向Origin Server取数据发送给客户端;Edge Server和客户端之间建立长连接,故有连接数限制。Origin Server监听9035端口等待边连接,一旦与边服务器连接后注册连接,将资源转发给Edge Server。
1.2 基于SDN和NFV的直播集群整体架构
基于SDN和NFV的直播集群由采集设备、硬件编码器、SDN网络、NFV架构的云平台、Red5直播集群、接收用户6部分组成。整体架构如图4所示。
如图4所示,摄像机采集节目后发送到硬件编码器进行压缩编码,硬件编码器经过SDN网络将直播数据推流到Red5直播集群,Red5直播集群的所有服务器由基于NFV架构的云平台虚拟实现,基于NFV架构的云平台可以按照直播服务所需划分虚拟机。采集的数据推流到Red5直播集群后发送到接收用户。
2 方案各模块实现
2.1 节目数据采集设备和硬件编码器
数据采集设备主要是摄像机,摄像机采集节目数据后通过高清晰度多媒体接口(High Definition Multimedia Interface,HDMI)发送给硬件编码器。硬件编码器输入高清HDMI音视频信号,经ARM926EJ-S Core600 MHz进行编码处理,经过C64x+TMDSP Cor2G DSP芯片压缩处理,输出标准的TS网络流,直接取代了传统的采集卡或软件编码的方式,采用硬编码方式,系统更加稳定,图像质量更好,由于支持移动推流,可以通过3G/4G网络快速地把高清视频上传至服务器。
2.2 SDN网络
SDN控制器采用锐捷网络SDN控制器RG-SE04,RG-SE04支持ONF组织定义的业界通用的协议。利用Openflow协议进行流表下发,进而对网内所有支持SDN的交换设备进行控制。目前支持到最新的Openflow版本V1.3.1,并且向下兼容V1.0。锐捷SDN控制器内支持NFV功能,并且能够利用网络功能虚拟化技术将多个不同的网络设备提供的功能进行抽离,例如虚拟防火墙、虚拟应用网关等一起放入SDN控制器内部进行运行。SDN交换机采用锐捷网络RG-S6010-48GT4XS交换机,其支持Openflow v1.3协议。
2.3 基于NFV架构的云平台
NFV技术就是将传统的CT业务部署到云平台上,通过实现网络设备的虚拟化(虚拟化实现软硬件分离)和云化(云化实现应用系统随业务量的伸缩部署和硬件资源的共享),重新定义网络,实现开放、智能、敏捷。借助NFV,可改变传统网络的封闭特性,缩短业务创新周期、降低运营成本,实现从传统语音、数据流量业务向数字化服务的转型。基于NFV技术的云资源服务平台采用VMware Vcloud suite,计算资源平台采用12台Dell Power Edge G11 R815,网络资源平台采用支持Openflow的RG-S6010-48GT4XS交换机,存储资源平台采用IBM System Storage SAN Volume Contrller IBM Storwize V7000。4个平台整合在一起形成云平台,其负责划分Red5直播服务器。
2.4 Red5直播集群的实现
大规模直播时,连接数众多,会增加服务器压力,导致服务器响应缓慢,此时需要许多直播服务器共同分流用户。基于边源模式Red5集群可以分流用户连接,其实现过程如下:
1)将所有的Server分别安装Red5软件,将安装好的Red5服务器划分为origin server与edge server。
2)配置edge server:对conf/目录下的red5-edge.xml,red 5-edge-core.xml进行配置,其应用于edge server的Spring bean配置。通过配置reds-edge-core.xml中的mrtmp Client字段,来制定origin Server的地址和端口,即更新点到源服务。配置具体实现代码:
然后使用red5-edge.xml把red5.xml替换掉[19]。启动服务./red5.sh。
3)配置origin server:打开origin server 9035端口,此端口用于边和源的连接。将origin server中conf/目录下的red5.xml替换为red5-origin.xml。
4)部署应用到origin server的webapps/,启动服务器./red5.sh。
3 方案的测试
3.1 传统网络架构下并发性测试
测试设备选用普通千兆交换机和VMware Vcloud suite划分虚拟机(2台Red5 edge server、1台Red5 origin server)。测试server配置中,CPU为AMD Opteron Processor 6376,内存8 Gbyte。测试软件为LoadRunner。测试环境为同一个交换机下构建局域网测试,且多个用户同时请求服务。测试目的是测试Red5集群可承受的最大并发。期望结果是对客户端的请求随并发用户数的增加逐渐加快,到达一定峰值后不再上升,并开始下降。测试要素为并发用户数,并发时间是3 min。最大并发数测试结果如图5所示。
3.2 SDN架构下并发性测试
测试设备选用RG-SE04、RG-S6010-48GT4XS、VMware Vcloud suite划分虚拟机(其中2台Red5 edge server、1台Red5 origin server)。测试sever配置中,CPU为AMD Opteron(tm)Processor 6376,内存8 Gbyte。测试软件为LoadRunner。测试环境为SDN网络环境测试,且多个用户同时请求服务。测试目的为测试Red5集群的可负载的最大并发数。期望结果为对客户端的请求随并发用户数的增加逐渐加快,到达一定峰值后不再上升,并开始下降。测试要素是并发用户数,并发时间是3 min。SDN开启负载均衡下最大并发数测试结果如图6所示。
由前文3.1节与3.2节的最大并发性测试结果可知,在SDN和NFV架构下Red5集群最大并发数高于传统网络架构下Red5集群最大并发数。分析原因,传统网络架构下Red5集群负载均衡方式为网络共享式;基于SDN和NFV架构的Red5集群负载均衡方式可根据用户所需动态调整。
4 结论
为了提高直播系统并发性,将SDN和NFV架构应用到现有的集群系统,实现了基于SDN和NFV架构的直播集群。在实际测试中验证了基于SDN和NFV架构的直播集群的并发性能,说明基于SDN和NFV架构的直播集群是一种可行的提高并发性的方案。
摘要:针对当前直播系统并发性能低下,结合软件定义网络(Software Defined Networking,SDN)和网络功能虚拟化(Network Function Virtualization,NFV)技术的新型网络技术快速演进,在综合考虑直播集群技术优势的基础上,设计并实现了基于SDN网络和NFV技术架构的Red5直播集群,并在实际环境中跟传统网络架构的Red5集群系统性能进行对比测试。测试结果表明,此直播集群系统比传统网络架构的Red5集群系统并发性高。
NFV技术范文
声明:除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。如若本站内容侵犯了原著者的合法权益,可联系本站删除。


