电脑桌面
添加盘古文库-分享文档发现价值到电脑桌面
安装后可以在桌面快捷访问

iSCSI协议

来源:莲生三十二作者:开心麻花2025-11-191

iSCSI协议(精选6篇)

iSCSI协议 第1篇

关键词:iSCSI,SCSI,网络存储,Linux

1 引言

随着数字图书馆、视频点播、远程数据容灾等高I/O请求服务普遍应用于各个领域,存储区域网络(Storage Area Network,SAN)得到了广泛应用。目前,SAN通常采用光纤通道技术(Fiber Channel,FC)来构建。FC SAN具备高性能、高可用性、高可靠性、便于集中存储管理等优点,但其也存在价格高昂,设备互操作性差、连接距离有限等弱势。伴随因特网技术的发展,基于TCP/IP的SAN受到越来越多的重视,有i FCP、FCIP、i SCSI三种实现协议,其中i SCSI协议允许用户通过TCP/IP网络来组建SAN,传送SCSI命令以及存储数据。

2 iSCSI协议概述

i SCSI(Internet SCSI,也称SCSI over IP)是于2003年2月被IETF批准通过的网络存储标准,RFC编号为“3720”。i SCSI技术对传统技术进行了继承和发展,其一,SCSI技术是被磁盘、磁带等存储设备广泛采用的存储标准,其二,采用的TCP/IP协议是现行网络中最通用最成熟的协议,基础设施建设非常完善。这两点为i SCSI的发展提供了坚实基础。

i SCSI的基本原理是使用TCP/IP协议封装SCSI命令和数据,使其可以在IP网络中传输。在SCSI协议里,SCSI命令是由启动端(Initiator)向目标端(Target)发出的,这两个称谓被沿用到i SCSI协议中,以C/S的观点,可把启动端视为“客户”,把目标端视为“服务器”。i SCSI协议的体系结构如图1所示,一端的SCSI数据包先被封装成i SCSI的PDU,然后封装相应的网络协议发送到另一端,再依次解封装还原成最初的SCSI数据包。i SCSI传输的是面向存储设备的底层I/O数据块,可以像FC协议一样应用于SAN中。作为支持IP协议的最重要的底层接入技术之一的以太网的速度已达到万兆甚至更高,在这种高速以太网环境下,i SCSI可以达到甚至超过FC的性能。i SCSI还可以直接用在光纤LAN、ATM/SONET/FR WAN、无线网络等数据网络中,使i SCSI设备的部署更加灵活。凭借IP的优势,以i SC-SI技术为核心构建的IP SAN相对于FC SAN具备更大的发展潜力。

3 iSCSI协议工作机制

在TCP/IP网络中实现i SCSI协议通信的过程是,先在发送端把SCSI命令和数据封装在i SCSI PDU中,再将i SCSI PDU依次经过TCP层封装、IP层封装和数据链路层封装,最后经由IP网络进行传输,而在目标端执行相反的操作。当采用i SCSI协议连接的两个SCSI设备进行通信时,下层的i SCSI协议操作对它们是透明的,SCSI设备只需将其要发送的数据及目的地址告知其下的i SCSI层(i SCSI结点)即可。获得这个地址后,i SCSI结点需要先与目标端的i SCSI结点建立一个i SCSI会话,建立会话的步骤包括建立TCP连接、通信双方身份认证、通信参数协商。当会话成功建立后,两个对应的i SCSI结点之间的通信就将通过该i SCSI会话来进行。当通信完毕,对应的两个i SCSI结点会通过一系列的注销操作来结束该i SCSI会话。通信过程中如果发生网络拥塞等阻碍通信继续进行的情况时,i SCSI将启动它的故障处理及恢复机制。从建立会话、进行通信、故障处理与恢复到结束会话的所有i SCSI协议层的操作都是通过在两个对应的i SCSI结点之间交换i SCSI协议数据单元来完成的,RFC3720标准共定义了18种不同类型的i SCSI协议数据单元。

4 iSCSI协议的实现

4.1 实现iSCS 协议通信的方法

在TCP/IP网络中实现i SCSI协议通信有以下3种方法(见图2):

(1)纯软件的实现方式:用普通以太网卡进行网络连接并接收数据链路层数据,由主机CPU和软件从中提取i SCSI PDU中所封装的SCSI数据和命令,相反过程的操作也由主机CPU和软件实现。通常是在Linux操作系统下,利用其源码开放性,用一个i SCSI驱动模块替换其中的部分SCSI代码。

(2)i SCSI TOE网卡(TOE,TCP/IP卸载引擎)实现方式:TOE技术使用硬件承担了原本应由主机CPU完成的TCP、UDP、IP、ICMP等协议处理任务。采用具有TOE的网卡实现i SCSI协议,主机CPU和软件就只需完成i SCSI协议数据单元的封装、解封装,下层的处理工作由网卡完成。

(3)i SCSI HBA卡(HBA,主机总线适配器)实现方式:由i SCSI主机总线适配器完成i SCSI、TCP、IP等协议以及链路层、物理层的处理任务,主机CPU和驱动程序软件只需承担少量的管理任务。

上述3种实现方式中,纯软件实现方式需占用主机CPU资源,1Gb的以太网最多可能会消耗500MHz的CPU,随着CPU处理能力的不断提升,采用软件方式实现i SCSI对于一些预算少,规模小、任务轻的应用是游刃有余的。下面讨论一种在Linux下的i SCSI实现。

4.2 Linux下iSCSI的实现

在SCSI协议中,用户产生的读写请求由文件系统解析为SCSI命令、消息和响应,被传送到SCSI HBA,由其通过SCSI总线来访问Target设备。通过完成以下组件可实现基于i SCSI的存储系统:(1)支持TCP/IP的i SCSI协议栈;(2)i SCSI Initiator子系统和i SCSI Target子系统;(3)i SCSI Initiator和i SCSI Target之间的通信网络。

i SCSI协议的设计利用了Linux内核中SCSI子系统的高中低三层驱动结构,其中(1)SCSI较高层是内核最高级别的接口。由一组驱动器组成,如SCSI磁盘。(2)SCSI中间层连接较高层和较低层,接受SCSI事务请求并进行排队,进行错误和超时处理。(3)较低层驱动LLD是SCSI HBA卡的驱动,负责在Initiator和Target之间传送数据、命令、状态、消息等。LLD可用光纤通道或i SCSI来替代,在Initiator和Target之间传送SCSI请求。scsi_host_template是LLD中重要的数据结构,连接中间层和较低层,它代表SCSI设备驱动程序,包含了设备处理外部请求所需要的所有函数指针。LLD向中间层注册scsi_host_template函数模板,中间层通过这些函数来访问和控制LLD,从而访问和控制SCSI设备。i SCSI协议主要在LLD层实现,通过重写scsi_host_template函数模板,实现i SCSI Initiator LLD。对于从中间层下来的命令或数据,如果命令是发给i SCSI Target设备的,则i SCSI Initiator LLD就截获此命令或数据,并打包成i SCSI PDU通过网卡发送到与其相连的i SCSI Target端。对于从i SCSI Target端发送来的包含响应或数据的PDU,Initiator LLD会从中提取出相应的信息并传递给中间层,中间层再向上传送,从而实现了i SCSI的功能。

对于i SCSI Target端,要通过TCP/IP网络存取Target设备需要在Target设备上实现TCP/IP协议栈,并在Initiator和Target实现i SCSI协议。由于在硬件上实现TCP/IP协议较复杂,i SCSI协议采用软件方法实现一个Target模拟器在Linux内核中运行,它包含通用SCSI Target中间层模块和底层的i SCSI驱动两个独立部分,它们之间通过应用程序接口来实现交互。底层的i SCS驱动负责处理与i SCSI协议相关的事务,如接收从Initiator发送过来的i SCSI包,解析出SCSI的CDB,并通过应用程序接口传给通用SCSI Target中间层模块;而通用SCSI驱动中间层模块则用来处理SCSI命令,并传送到本机的SCSI子系统,再由本机的SCSI HBA来访问具体的SCSI设备。图3给出了i SCSI子系统模型。

5 结束语

本文在分析i SCSI协议基础上给出了Linux下实现i SCSI协议的一种实现模型,对于i SCSI存储技术作了较为全面的综述,并提出了可行的实现解决方案。随着高速网络技术的发展,i SCSI将继续在网络存储领域为各行业提供较高性价比的网络存储解决方案。

参考文献

[1]龚黎云,程巍,高传善.IP SANs iSCSI协议研究.微型电脑应用,2004,20(1)

[2]谢长生,傅湘林,韩德志.一种基于iSCSI的SAN的研究与发展.计算机研究与发展,2003,40(5)

[3]周敬利,徐锋,余胜生.Linux下基于iSCSI存储系统的实现与性能评测.计算机工程与科学,2004,26(6)

iSCSI协议 第2篇

HyperSCSI协议,最早是于由新加坡数据存储研究所(DSI)所开发,被设计用来通过RAW以太网来传输SCSI数据及指令。它允许用户通过网络远程使用SCSI或者基于SCSI的设备,就像在本地使用那 样方便。DSI是新加坡国立科技研究所(A*STAR)和新加坡国立大学(NUS)共同出资组建的研究机构。

与HyperSCSI协议不同的是,iSCSI协议是在英特网工程任务小组(IETF)的赞助下开发的,它使用 TCP/IP来发送SCSI指令。

HyperSCSI的支持者声称,它不仅在价格上跟光纤通道及iSCSI相比有很大优势,而且在性能上也比其它基于IP的存储解决方案优秀。

由于通过使用RAW以太网发送数据块,HyperSCSI协议彻底摒除了导致iSCSI速度偏慢的TCP/IP协议。事实上,HyperSCSI的开发者声称,它的性能可以和光纤通道相媲美,而只增加21%的CPU资源占用率以 及3.4倍的中断请求(IRQs:外围设备启动或者停止时向CPU发送的信号)。他们同时指出,如果要达到同光纤通道相同的性能,iSCSI需要增加33%的CPU资源占用率,以及增加6倍的IRQs。

“这是很吸引人的方案”,惠普公司企业级Unix部门的资深I/O项目经理Graham Smith 评 论说:“这完全解决了TCP/IP协议所带来的问题”。但是惠普到目前为止还没有在其产品上使用HyperSCSI协议的计划,

不仅仅如此,由于HyperSCSI去年是作为开发源代码软件发布的,它是免费的而且受到GNU公共授权 (GPL)的保护。试验过HyperSCSI的Linux桌面系统提供商Pogo Linux的系统工程师Jesse Keating说到:“你可以不受限制地任意更改源代码”。

有了这些优势,你应该预期业内人士都将看好这种协议,然而事实却是,许多人被问及这个协议的时候,回答是:“Hyper是什么?”。

过去很多年中厂商一直谈论的是iSCSI,惠普公司的Smith表示很难预料推广HyperSCSI的难度,因为它主要是由数据存储研究所开发的,看上去有点像某个大学的项目。当然,不得不承认的是,许多好的技术都是通过这种途径研究出来的。

除了“出生低贱”之外,HyperSCSI 还受到共享关系的不利影响,将SCSI放到raw以太网 上可以提高性能,但是放弃TCP/IP 也有其不利的方面,Smith表示,没有TCP/IP ,就没有真正的错误恢 复机制,不能保证数据包被正确发送,同时看上去在扩展性方面也有限制。

当然,也有业内人士持不同的看法,iSCSI软件供应商PyX科技公司的总裁兼CTO Andre Hedrick表示 :“我认为它就像是一个装上马达的啤酒罐,它可以跑得很快,但是希望不会碰上什么障碍,因为 没有任何保护措施”,他确信如果iSCSI没有内部支持,它也不会有今天的热度。

另外Hedrick 指出,HyperSCSI不是基于行业标准的,这会造成被困于单一供应商中而无法自拔的情况,他还指出,现在HyperSCSI只在Linux上有应用。

iSCSI协议 第3篇

为满足教学与学习需要, 几乎每间职业学校都建立了通用机房开展计算机应用基础教学, 以笔者所在学校为例, 在校生规模在11000人左右, 就建立了14间共计7 0 0多台电脑的通用计算机室。随着机房规模的不断扩大, 机房的管理和维护成本越来越高。不少学校采用硬件还原、软件还原等模式来管理。一方面这些系统容易穿透而失去还原能力, 此外大部分的还原在多系统环境下都不是十分稳定, 这些都为维护带来巨大压力。因此有必要采用更加有效的管理模式, 满足系统快速恢复、多系统稳定引导、学生作业稳定保存等需求。

远程系统引导是将系统镜像存放在网络服务器的虚拟磁盘中, 客户端计算机启动时使用P X E协议从服务器的虚拟磁盘中加载系统镜像到本地内存中执行的过程。多台主机共享系统镜像, 使用虚拟磁盘软件的磁盘快照功能, 可以达到系统快速恢复、软件快速部署功能, 解决目前管理的困局。

2 IP-SAN存储技术简介

当前, 为各种应用服务所产生数据提供的存储技术主要有三种:直接附加存储 (DAS) 、网络连接存储 (NAS) 以及存储区域网络 (SAN) 。调查发现:采用NAS网络存储和S A N存储网络架构的受访比例大幅上升, 这显示出越来越多的用从分散的存储孤岛, 开始走向数据集中的存储架构。

早期的S A N采用的是光纤通道 (F C, Fiber Channel) 技术。FC-SAN使用光纤交换机, 使用FC协议, 通过光纤 (或者铜缆) 连接主机和存储设备。这种技术具有配置价格高、速度快、维护负责的特点。2003年, ISCSI协议出现并成为标准, 为了区分, 业界就把S A N分为F C-S A N和iSCSI-SAN。以光纤搭建的存储网络称为FC-SAN, 以iSCSI技术搭建的存储网络叫做IP-SAN。

IP-SAN存储技术是在传统IP以太网上架构一个SAN存储网络, 把服务器与存储设备连接起来, 它把SCSI协议完全封装在IP协议之中。简单来说, IP-SAN就是把FC-SAN中光纤通道解决的问题通过更为成熟的以太网实现了, 从逻辑上讲, 它是彻底的SAN架构, 即为服务器提供块级服务。

IP SAN存储技术技术有其独特的优点:节约大量成本、加快实施速度、优化可靠性以及增强扩展能力等。采用iSCSI技术组成的IP-SAN可以提供和传统FC-SAN相媲美的存储解决方案, 而且普通服务器或PC机只需要具备网卡, 即可共享和使用大容量的存储空间。与传统的分散式直连存储方式不同, 它采用集中的存储方式, 极大地提高了存储空间的利用率, 方便了用户的维护管理。

iSCSI是基于IP协议的, 它能容纳所有IP协议网络中的部件。通过iSCSI, 用户可以穿越标准的以太网线缆, 在任何需要的地方创建实际的SAN网络, 而不需要专门的光纤通道网络在服务器和存储设备之间传送数据。iSCSI可以实现异地间的数据交换, 使远程镜像和备份成为可能。因为没有光纤通道对传输距离的限制, IP-SAN使用标准的TCP/IP协议, 数据即可在以太网上进行传输。

3 解决方案

本解决方案的示意结构如图1所示, 一台服务器是基于ISCSI协议的网络存储服务, 提供系统镜像的虚拟磁盘;一台服务器配置为NetBoot/i的服务器端, 提供远程系统协议PXE支持, 同时启用DHCP服务, 为远程启动的计算机提供IP地址分配:

相关说明:

1) S e r v e r 1网络存储服务器使用CCDISK虚拟磁盘服务管理软件。CCDISK是一款优秀的基于Windows平台的iSCSI服务器, 支持V M W a r e虚拟机磁盘格式的iSCSI服务器。只需要在服务器上的CCDisk虚拟盘里添加目录和安装软件, 客户端的本地虚拟硬盘里就有了相应的目录和软件, 不需要到每台机器进行安装。同时CCDisk提供了写保护, 不用担心客户端病毒、用户删除和格式化操作影响。

2) S e r v e r 2服务器是WindowsServer2003平台, 启动集成的D H C P服务。

3) 学生机保留原来的硬盘, 用来缓存系统的写操作, 减轻网络的压力, 保证网络的畅顺。

4) 远程启动软件使用NetBoot/i软件。netboot/i是一款国外知名的网络虚拟存储启动系统, 它可以将iSCSI的虚拟盘“变成”可以通过PXE启动系统的企业级软件。支持“本地回写”功能, 可以将工作站数据回写 (按官方的标准说法应该c a c h e) 放在本机的内存或硬盘上, netboot/i所具备的功能很适用于那些本身配备有虚拟磁盘服务器网络系统。

4 配置过程

4.1 CCDISK的安装与配置

本文使用CCDisk1.8试用版做系统测试, 建立基于iSCSI的网络存储系统, 构建虚拟磁盘。该试用版可以从遥志网站下载, 限制10用户。软件的安装过程很简单, 不需要做过多的配置。安装完成后启动服务, 建立虚拟磁盘和用户。如图2所示。

由于CCDisk仅支持1GB的服务器内容容量, 因此必须对其进行修改, 以发挥服务器的最佳性能。通过修改注册表, 可以使CCDisk突破内存的限制。使用RegEdit打开系统注册表, 在注册表中建立如图3所示的信息, 重新启动CCDISK服务:

4.2 Net Boot/i服务器端的安装与配置

NetBoot/i有多个版本, 它们分别对应是windows服务器端, 服务器/客户机部署工具、3 2位w i n d o w s客户端、6 4位windows客户端、基于linux服务端、基于linux客户端。本配置方案使用Windows2003 Server系统, 选择对应的安装选项安装, 中间没有什么过多的配置。同时, 需要的NetBoot/i服务器上安装微软的ISCSI客户端程序, 以使该服务器能够访问网络存储服务器。

(1) 基本配置。NetBoot/i服务端安装完成之后, 进入netboot/i的主界面。在树列表中选择Targets选项, 右键菜单选择“create New Target”输入我们自己的虚拟磁盘服务器的IP地址:192.168.2.2 5 4, i S C S I服务端的默认端口一般是3260, 这里保持其默认。参数设置完成之后, 应测试与网络存储服务器的连通性, 如图4所示。其中的用户名和密码要与创建虚拟磁盘时预留的用户名和密码一致。

(2) 客户端配置。接下来是在“Clients”中创建远程启动客户端。操作步骤是:在Clients上右键, 选择“New Client”功能, 输入客户端的名称及M a c地址。同时, 选择CCDISK中创建的虚拟磁盘, 作为连接的网络存储磁盘。

(3) 回写操作配置。无盘工作站因为频繁的回写操作而消耗了很大的带宽, 一直以来饱受诟病。NetBoot/i支持本地回写操作, 从而解决了回写操作占用带宽的束缚。本方案客户端仍然保留硬盘配置, 因此在配置选择“Tolocal HDD”, 让客户端的回写操作保留的客户端的本地硬盘上。

(4) TFTP配置。远程启动使用TFTP服务加载系统启动初始化信息, Netboot/i服务端安装时默认安装了TFTP服务。配置好它的本地目录、绑定的IP地址即为NetBoot/i服务端所在的IP地址:192.168.2.253。

4.3 DHCP服务器配置

运程启动就要用到PXE协议与服务, 网卡要能够自动获取正确的IP地址信息。本配置方案将NetBoot/i服务器同时作为DHCP服务器, 安装微软的DHCP服务功能。但微软的DHCP服务器缺少PXE所需要的60选项, 因此需要使用NETSH命令为DHCP服务器手工添加60选项。具体操作为:首先从附件中启动系统命令行工具CMD.EXE, 输入以下命令执行即可:

PXE服务还需要用到作用域中的66和67两个选项。在66选项中输入tFTP服务器的IP地址:192.168.2.253, 067选项的数据输入中嵌入字符串“c:TFTPBOOT”, 这个目录是由netboot/i服务端在安装时自动创建的, 这里存放就是我们通常所说的nbp文件 (bin文件) ;DHCP将IP分配给pxe后, pxe端就能通过tftp将这个bin取回, 执行bin来完成一系列的初化始工作, 指定TFTP服务器的主文件夹。

同时, 根据IP地址规划, 为DHCP服务器设置“192.168.2.2-192.168.2.55”的作用域, 作为学生机地址池, 租约期限设置为无限制方式。

4.4 学生机安装与配置

(1) NetBoot/i学生端安装过程

学生端的安装过程与服务端的安装类似, 整个安装过程非常简单。在安装的最后一步, 选择要用来绑定的本机网络适配器 (NIC) , 确认即可。安装完成后, 在开始菜单中可以找到emBoot的菜单, 启动即可开始响应的配置。

(2) NetBoot/i学生端配置

从开始菜单启动emBoot配置程序, 配置本地系统所在的文件夹和远程启动使用的网络接口卡 (在安装过程中已经选定, 此处可以更改) 。

(3) 安装微软iSCSI启动器

iSCSI启动器是IP-SAN存储网络中的客户端, 它可以使用IP-SAN存储设备中的存储空间在本地模拟出逻辑磁盘, 这样用户就可以像使用本地磁盘一样使用网络磁盘空间。目前微软提供的iSCSI启动器是2.0版本, 可以在微软的官方网站上免费下载。安装之后启动计算机管理工具, 使用其中的磁盘管理, 将远端CCDISK虚拟出的磁盘添加到本地的逻辑驱动器中, 本文测试时生成的逻辑驱动器符号是D。

(4) 上传系统操作

服务器端和客户端的各种配置结束后, 就要将学生端系统镜像上传到CCDISK虚拟磁盘服务器上, 以后学生机从网络启动时, 即可从远端虚拟磁盘服务器上加载系统镜像。利用NetBoot/i客户端所带的“System Copy”工具, 可以快速地将本地镜像上传。操作步骤类似于Ghost, 具体操作为:

第一步:选自Copy模式, 有磁盘模式和卷模式。因为学生机本地硬盘只有一个分区, 这里选择“Disk”磁盘模式。

第二步:选择原磁盘, 既是选择本地物理磁盘, 本测试项目中是Disk 0。

第三步:选择目标磁盘, 用来存放本地系统的镜像文件。此处选择使用微软iSCSI启动器虚拟出的磁盘DISK 1。

第四步:开始复制, 根据网络状况, 复制的时间长短不一。如果出现传送异常, 一般与iSCSI服务器端有关, 例如使用盗版的ccdisk出现了掉盘现象等。

(5) 远程启动测试

以上所有步骤结束之后, 就可以开始测试系统。进入学生端计算机BIOS, 设置启动模式为网络启动, 按F10保存退出。系统重新引导, 出现图5所示的画面, 表示系统一些正常, 可以从远程启动了。至此, 整个配置与测试结束, 达到了预期的目标。

5 结束语

基于iSCSI协议的SAN存储模式远程系统引导主要解决了以下几个问题:第一, IP-SAN存储区域网络的构建和基本配置, 它利用廉价而成熟的网络存储技术解决了远端系统镜像的存储问题, 同时解决了学生端文件的可靠存放问题。第二, 运程启动服务器的构建, 主要使用了NetBoot/i服务软件和微软的DHCP服务, 为学生端计算机提供IP地址租约和系统引导程序。第三, 学生端的配置与安装, 主要使用微软的iSCSI启动器软件和NetBoot/i客户端程序, 将CCDISK的虚拟磁盘加载到本地, 同时将设置好的客户端系统上传到网络存储空间。

本方案的优点在于:学生端系统镜像存储在网络服务器上, 安全可靠, 镜像恢复非常容易;所有学生端共享同一个系统镜像, 保证了系统的统一性;学生端本地磁盘仍然保留, 作为系统回写操作的缓冲区和临时文件存放区, 减轻了局域网的压力, 保证了系统的流畅运行。总之, 本方案既区别于传统的无盘工作站, 又使用了网络存储的先进技术, 具有一定的推广应用价值。

摘要:随着国家对职业教育的越来越重视, 职业院校的信息化程度越来越高, 生均电脑数量达到了20:1。许多学校对机房的管理模式基本延续以前的做法, 采用软件或者硬件保护还原模式, 但这些模式学生很容易穿透, 造成了系统频繁的故障。采用网络存储学生端系统镜像、学生端从远程启动系统的模式可以改变这种状况, 减少还原软件对系统造成的影响, 避免学生的渗透, 大大减轻机房管理人员的工作量。

关键词:iSCSI,SAN,远程启动,NetBoot/Ⅰ,IP-SAN

参考文献

[1]CCDISK1.8操作使用说明书.2011

[2]NetBoot/i使用操作说明书.http://210.22.253.203/viewthread.php?tid=5217

[3]Tom Clark.IP SAN权威指南:存储区域网络中的iSCSI、iFCP和FCIP协议[M].第一版.中国电力出版社.2010年

iSCSI协议 第4篇

随着流媒体技术的发展,其应用范围在不断扩展。特别是在视频监控领域,高清网络摄像机的出现和发展,对实时视频流媒体的存储提出了新的挑战。

实时流媒体存储的主要特点是以“持续写入”为主,以“随机读出”为辅,与传统的广播电视音像资料存储系统和文件系统应用有着明显的区别。

基于网络的视频监控存储系统的存储介质主要由磁盘阵列和相应的控制系统组成,根据其结构,可分为直连式存储(DAS)、网络附加存储(NAS)和存储区域网络(SAN)。

DAS是以服务器为中心的存储系统,在视频数量较多时,其响应能力下降比较严重,在大规模流媒体存储系统中很少采用。

NAS是直接连接在网络上的存储系统,是一种专用的存储服务器,通常采用CIFS和NFS协议,提供文件系统服务。N A S系统具有较好的网络共享能力,部署灵活,管理简单。但在大量网络并发传输持续数据时性能可能会显著下降。

SAN是一种专用的存储网络系统,提供统一的块级存储,所有存储设备可以集中管理,支持完善的冗余备份功能。S A N可以是交换式网络,也可以是共享式网络。FC-SAN的最大缺点是成本昂贵,限制了它的广泛应用。iSCSI的出现,提供了低成本SAN(IPSAN),促进了S A N的应用和发展。

网络视频监控系统对流媒体的存储需求特点可以概括为:大容量、高性能、高可靠性、部署灵活、低成本。研究表明,iSCSI性能要明显优于NFS/CIFS[1,2],采用iSCSI协议的IPSAN产品非常适合网络流媒体存储应用。

2 iSCSI简介

iSCSI(internet SCSI)[3]就是SCSI Over IP,将SCSI协议封装在IP数据包中,在IP网络上传输Block级I/O数据。目的是为了用IP协议将存储设备连接在一起。通过在IP网上传送SCSI命令和数据,ISCSI推动了数据在网际之间的传递,同时也促进了数据的远距离管理。由于其出色的数据传输能力,ISCSI协议被认为是促进存储区域网(SAN)市场快速发展的关键因素之一。因为I P网络的广泛应用,I S C S I能够在L A N、W A N甚至internet上进行数据传送,使得数据的存储不再受地域的限制。

iSCSI协议定义了在T C P/I P网络上发送、接收Block(块)级的存储数据的规则和方法。ISCSI技术的核心是在TCP/IP网络上传输SCSI协议,用TCP/IP报文、iSCSI报文封装SCSI协议,使得SCSI命令和数据可以在普通以太网络上进行传输。iSCSI在以太网上传输的封装结构如图1所示。

iSCSI遵循SCSI协议的客户机-服务器体系结构,客户端称为Initiator(发起端),服务器端称为Target(目标端)。

发起端将SCSI命令和数据封装到TCP/IP包,经过网络传输,目标端收到TCP/IP包之后,将其解包获得SCSI命令和数据并执行,完成之后将返回的SCSI命令和数据封装到TCP/IP包中再传送回发起端。整个过程对用户是透明的,使用远端的存储设备就象访问本地的SCSI设备一样。

Initiator可以使用软件或硬件实现,通常以软件实现,作为操作系统内核驱动的一部分,使用现有网卡和网络协议栈,通过编程实现。Windows系统自带Initiator软件,Linux系统下存在多种开源的Initiator软件,包括Core-iSCSI、Open-iSCSI、UNH-iSCSI等。

iSCSI Target一般指专门的连接网络的数据存储设备,也可以是运行相应Target软件的通用计算机。现在有众多的存储设备提供商可以提供商用IPSAN设备,当然也有象Openfiler、UNH-iSCSI等构建在Linux系统上的开源iSCSI Target软件。作为研究用途,软件设计人员完全可以参考iSCSI RFC文档自行开发iSCSI Target软件[4,5]。

3 系统设计与实现

本文研究内容是在iSCSI设备上实现实时流媒体存储,如何实现iSCSI Initiator和Target不是本文关注的重点,因此,这里选用商用IPSAN设备和Open-iSCSI开源软件作为研究的基础。

在视频监控领域,目前主要存在两种使用iSCSI实现实时流存储的结构,分别是:

(1)前端IP摄像机或编码器直接把码流写入IPSAN设备,如图2所示;

(2)在后端使用服务器接收数字视频流,然后写入IPSAN,如图3所示。

第一种存储系统结构简单,节省后端服务器设备,但是要求前端设备实现存储管理,而且存储码流采用iSCSI封装,而实时监控码流一般需要使用RTP封装,必须传输至少两路码流,对前端设备的网络传输处理能力要求较高,对接入网的带宽需求较大。

第二种存储系统需要在后端使用流媒体存储服务器完成接收RTP流,然后封装成iSCSI流并写入IPSAN设备,对前端设备要求较低,前端设备只需要发出一个R T P组播码流,就可以同时为存储和实时监控服务,节省了前端接入网带宽。存储系统主要依靠后端设备完成,与前端设备的具体实现无关。

显然,由于一般前端接入网带宽有限,而后端局域网一般能够提供足够的带宽和较好的传输质量,第二种结构更适合大多数系统,本文采用第二种结构进行研究,并搭建如下的实现环境:流存储服务器系统硬件使用通用的P C服务器,采用S U S E 1 1操作系统,采用MySQL数据库管理系统;前端使用H.264编码的网络摄像机,采用组播方式传输视频流,如图3所示。

系统主要由以下软件模块组成:

1、摄像机信息管理:包括摄像机名称、组播组、码流类型、码流带宽等信息管理;

2、存储计划管理:为每个摄像机制定存储计划;

3、码流接收处理模块:根据存储计划和摄像机码流信息接收R T P数据流;

4、存储模块:把接收的码流封装成iSCSI格式写入IPSAN设备。

5、视频检索信息处理:生成检索信息,并写入数据库;

6、回放和下载服务:接收用户回放或下载请求,并根据索引信息从I P S A N设备读出数据,封装到R T P数据包中发回请求者,请求者接收码流进行回放或下载保存;

7、系统管理:系统管理模块用户信息管理、系统运行状态监控、日志管理等功能。

存储设备上视频数据的组织,不同于文件的随机读写,而是采取顺序读写方式,分块存储。系统在写满一个预定义数据块后,根据该视频数据流对应的摄像机的IP地址、写入本数据块的起止时间,自动生成一个块索引值,存储到数据库中。按照存储计划,存储到期后可依次覆盖原有视频数据。本系统利用iSCSI协议直接写磁盘块,规避了文件系统的工作机制,可以有效减少文件系统造成的磁盘碎片,提高磁盘空间的利用率。

4 实验分析

为了测试上述系统的性能,搭建以下实验环境:

网络状况:千兆以太网。

流媒体存储服务器:4核Xeon CPU,2GB内存,千兆网连接。

IPSAN存储设备:16TB硬盘,配置R A I D 5,千兆网连接。

网络摄像机:H.264 1080P编码,RTP组播传输,8Mbps码流带宽。

测试实时流:在另外一台服务器上使用码流转发服务软件转发50路8Mbps码流,模拟50路8Mbps实时流的环境。

对设备写入48小时后进行测试。

4.1 流媒体写入性能

使用iftop查看网络吞吐量,如图4所示,可以看到,从流媒体存储服务器(192.168.0.23)到IPSAN存储设备(192.168.0.114)的流量持续大于400Mbps。IPSAN设备在测试时间过去2秒、10秒、40秒的平均接收流量分别为418Mbps、419Mbps和420Mbps。这个数据与预期结果相符,可以认为50路8Mbps码流全部写入到IPSAN设备中。

4.2 视频检索测试

使用测试程序分别对12小时、24小时、48小时、60小时和72小时的历史视频数据进行检索,响应时间分别为29ms、42ms、51ms、56ms和61ms,随着数据量的增加,检索时间也相应的缓慢增加。由于受测试设备存储空间限制,无法测试更长时间的数据,但是从图5的曲线可以推算,对于较大数据量,检索时间也在可承受范围之内。

4.3 视频回放测试

使用V L C软件通过R T S P协议对存储的视频进行播放,可见视频播放流畅、连续,没有中断,但偶尔存在少量马赛克现象,说明存在数据丢包现象。分析可能的丢包原因存在三个方面:实时流的网络传输丢包、存储丢包、回放过程的网络传输丢包。通过在流媒体存储服务器上使用工具软件抓包分析,发现实时流传输过程存在少量丢包现象。

上述结果表明,运行原型系统的一台服务器上能够满足50路8Mbps的高清视频流存储需求,其索引响应时间极短,可以满足一般系统需求。

5 结束语

本文以iSCSI协议为基础,对实时流媒体存储技术进行了探讨,设计实现了一个高性能的原型系统,并进行了系统性能测试。测试结果表明,原型系统的存储和检索性能可以满足高清网络视频监控系统的需求。本文对于正在迅速增长的高清网络视频监控系统中的流媒体存储提供了很好的参考。

摘要:本文简要分析了视频监控领域流媒体存储的主要特点,提出了两种使用iSCSI协议实现实时流存储系统的结构,针对使用流媒体服务器的结构,进行了系统原型设计和实现,并对其性能进行了测试。测试结果表明,原型系统存储性能满足高清网络视频监控系统的需求。

关键词:iSCSI,流媒体存储,组播,高清视频监控

参考文献

[1]郭劲,李栋,张继征等.iSCSI,CIFS,NFS协议的性能评测[J].小型微型计算机系统,2006,27(5):833-836.

[2]周敬利,徐锋,余胜生.Linux下基于iSCSI存储系统的实现与性能评测[J].计算机工程与科学,2004,(6):1-3.

[3]SATRAN J,METH K,SAPUNTZAKIS C,et al.Internet Small Computer Systems Interface[Z].RFC 3720,2004.

[4]康剑斌,汪海山,屠升平等.基于流命令的SCSI目标端设计[J].计算机工程,2008,34(8):41-43.

iSCSI协议 第5篇

随着信息产业的不断发展,数据的重要性已经远远超过了其物理存储载体,毕竟存储器坏了可以更换,但是数据丢失却不可挽回,因此人们需要稳固的容灾手段来满足对计算机系统高可用性的需求。如今各大公司已经纷纷推出高性能的存储区域网络(SAN),并且已经集成了一定的容灾功能,比如磁带备份、快照、数据镜像等等。然而这些功能基本上是通过硬件实现,其存储网络本身价格也十分昂贵,而且当需要实施远程数据备份时,更是需要支付高昂的投资。因此这些并不是一般企业可以承受的,仅有少数大型企业或类似银行这样的对数据安全有极高要求的国家级重要部门才有能力进行部署。于是业界制定了研究机构提出的针对中小型企业的廉价网络存储标准:采用以太网(Ethernet)作为传输媒介来代替光纤通道,采用成熟的TCP/IP作为底层网络传输协议来代替FC协议,这就是所谓的IPSAN。而iSCSI是其中最重要的一个存储协议,它定义了SCSI协议到TCP协议的映射,使得原来在总线上传输的SCSI指令集可以在TCP网络上得以实现[1]。如今基于iSCSI的网络存储产品已经相当丰富,基于iSCSI的数据容灾系统也已经有可用的成熟产品和各个研究机构的深入研究,如清华大学的TH-CDP系统[2]和罗德岛大学(RhodeIslandUniversity)的远程复制系统[3]。但是它们都是着眼于单个数据容灾技术,有优点亦有单一技术的某些弊端。本文在充分研究了多种数据保护技术以及现有网络存储产品的格局以后,针对成熟廉价的iSCSI产品,提出了一种适用于对数据可靠性有较高要求而投入资金有限的企业或部门的基于iSCSI的容灾系统框架(iSCSI-BasedDisaster-TolerantSystem,iSCSI-DTS)。

1容灾系统及其技术简介

容灾系统是指有能力通过容灾机制减弱或防止各种灾难带来的破坏的计算机系统,当系统遭受不可抗的自然力或人为破坏时,能够及时恢复系统正常运行,有效保护系统数据的正确,并最大限度维持系统服务的连续。其必须满足三个要素:冗余性、远距离性、全方位数据复制性。针对这三个要素,如今均有成熟的容灾技术来实现。

1.1冗余性

冗余是提高可靠性的根本,对于系统部件来说有双机热备和多机集群技术,其通过心跳侦测来发现故障服务器并激活备份服务器,在不需要人工干预的情况下,自动保证系统能持续提供服务。对于数据来说有RAID系统,其通过冗余独立磁盘阵列技术来提高数据的可靠性及存取性能。

1.2远距离性

由于灾难总是在一定范围内发生,因而必须保证足够长的距离才能使数据不会因同一灾难而全部丢失。现有实现远距离特点的技术有远程复制或远程镜像技术,它们通过将对一个服务器的操作完全应用到另一个远程的服务器上来保证两个服务器始终具有一致的状态。这样当灾难发生时,就可以将应用迁移到远程的服务器上来实现持续的服务,并在灾难后将应用迁移回原服务器。远程容灾的成熟产品相当丰富,如VERITAS基于VxVM卷管理平台的卷复制系统VVR[4],西北工业大学的基于LVM卷管理器的卷复制系统LVR[5]等等。

1.3全方位数据复制性

数据复制是实施数据容灾的根本技术,不同的复制策略适用于不同的数据容灾目标,现有的数据复制手段已经相当丰富成熟[6],其中最重要的技术有数据镜像、备份、快照和连续数据保护(CDP)数据镜像包括远程镜像,原理类似,远程镜像只是数据镜像远距离实现的一个特例;备份技术的实施成本比较昂贵,需要定期将数据拷贝出来,放到具有高容低价特性的磁带设备上,这种技术解决的问题是:当人为误操作或恶意软件导致数据非法更改时,如果仅仅使用数据镜像技术保持了最新数据副本的话,将无法恢复原始数据。备份技术由于实施成本的问题,一般每天或每周在固定时间执行,也就是说在数据恢复的时间点上无法做到细粒度;快照技术(Snapshot)是备份基础上的一种改进,快照技术采用Copy-on-Write,仅当在原设备上的数据块发生改变时才将改变之前的数据拷贝到快照池中在任何时间点都可以生成一个当前数据存储的快照,一个快照仅仅是一个映射表,其中包括快照时间点前原设备上未改变过的数据块,以及快照池中保存的快照时间点前的原设备的最新数据块,所以快照的过程比备份要快很多,而且重复数据也比备份要少得多但是快照只能获得在某一固定历史时刻的系统映像,无法满足任意时间点的恢复要求;而CDP的出现从根本上打破了这种局限性,CDP通过记录对数据存储的每一次更新操作,从而实现了细粒度的恢复时间点,做到了可以将数据恢复到任意时间点,为防范人为失误和恶意软件导致的数据更改提供了强有力的恢复机制。

2 iSCSI-DTS工作原理

2.1 iSCSI-DTS系统整体框架

iSCSI-DTS系统按地域分为源站点(Source Site)和备份站点(BackupSite)两部分,源站点和备份站点均由本地上层应用(UpperApplication)、服务器集群(ServerCluster)和数据存储中心三部分组成,其结构如图1所示。

本地上层应用:与站点在同一局域网内的客户端(Client),站点的服务器需要向其提供应用服务。

服务器集群:由为上层应用提供服务的一系列服务器(Server)组成。服务器与本地上层应用之间通过局域网交换机(LAN Switch)相连接,使用网络应用层协议(HTTP,FTP,P2P)工作;与下层存储中心则以iSCSI交换机(iSCSI Switch)相连接,用iSCSI协议传输指令和数据。其中源站点和备份站点还各有一台容灾服务器(Disaster-Tolerant Server),用于进行数据容灾及灾难恢复,细节将在下一小节进行阐述。服务器集群可以考虑部署多机集群功能,在某台服务器出现故障时提供连续的服务。而备份站点的本地上层应用和服务器集群一般处于备用状态,仅当源站点数据存储发生灾难损毁后才启动并接替源站点的工作。

数据存储中心:用来存放站点数据的设备。现在一般支持iSCSI协议的存储网络中存储设备都已采用了RAID磁盘阵列,其本身已经具有单个或多个磁盘故障的容灾能力。

2.2 iSCSIDTS容灾结构

iSCSIDTS系统中提供最核心数据容灾的功能是源站点和备份站点的容灾服务器(Disaster-Tolerant Server)以及源站点CDP数据存储(CDP Storage)、备份站点快照存储(Snapshot Storage)和备份站点镜像存储(Mirror Storage)。其具体容灾结构如图2所示。

首先解释一下结构中的各个部件:

容灾块设备(DTBD):iSCSIDTS系统自己创建的虚拟块设备,层次在文件系统以下,iSCSI块设备之上。该部件用来捕获上层应用的请求,并经过特定容灾模块的处理,提交给下一层的iSCSI启动端(Initiator);此部件还具有进行相应的灾难恢复的功能。容灾模块有Direct模块、DT模块、Mirror模块、CDP模块和Snapshot模块,按所处服务器角色不同,激活不同的容灾模块。

Direct模块:此模块位于源站点服务器,它不做容灾工作,只是将捕获到的请求转发给下层的iSCSI块设备,这里提到它只是为了逻辑的完整性。

DT容灾模块:此模块位于源站点服务器,它处理广义上的容灾工作,将捕获到的请求转发给源站点容灾服务器,由它来实施更加细致的容灾逻辑。

Mirror模块:此模块位于源站点容灾服务器和备份站点容灾服务器,它的工作是将源站点服务器捕获到的请求逐级转发到备份站点容灾服务器,然后按请求原始位置提交到镜像存储;此模块还具有镜像技术的最新数据恢复功能。

CDP模块:此模块位于源站点容灾服务器,它的工作是将源站点服务器捕获到并转发给源站点容灾服务器的请求,按CDP技术进行处理,提交到CDP数据存储;此模块还具有CDP技术的任意时间点数据恢复功能。

Snapshot模块:此模块位于备份站点容灾服务器,它的工作是将源站点服务器捕获到并经由源站点容灾服务器转发给备份站点容灾服务器的请求,按Snapshot技术进行处理,提交到Snapshot数据存储;此模块还具有快照抓取和快照恢复功能。

这里还需要解释数据是如何通过iSCSI协议逐级转发的,其中的关键部件就是DTBD。DTBD被上层的iSCSI目的端(Target)映射为iSCSI逻辑单元(LUN),并被上一级服务器挂载到系统中,表现为iSCSI块设备,而其上层又是当前级的DTBD。于是各级中的iSCSI块设备就被DTBD前后相连起来,实现了数据的逐级转发。

2.3 iSCSIDTS容灾流程

下面我们跟踪一个源站点上层应用提交的请求req在iSCSIDTS中的数据传输路径来更好地进行理解:req首先被DTBDSa的DT模块提交给DTBDSb,DTBDSb收到req以后向DT模块返回,随后DTBDSa的Direct模块将req提交给本地数据存储,完成上层的一次请求(我们采用异步容灾模式,如果采用同步则是当容灾工作全部完成才返回上层的请求,但这样会大大阻塞上层应用,除非是面对极其重要的数据才采用同步模式)。虽然数据请求已经完成,但是容灾工作才刚刚开始:DTBDSb在向DT模块返回req以后,其CDP模块和Mirror模块同时开始工作,CDP模块将req按特定的组织结构写入CDP Storage,而Mirror模块则将req提交到DTBDBb。DTBDBb收到req后Mirror模块和Snapshot模块同时开始工作,Mirror模块将req写入Mirror Storage的对应位置,而Snapshot模块则按其特定的组织结构将req写入Snapshot Storage。同步容灾模式是闭环控制,而异步容灾模式的完成响应在DTBDSb处中止,是开环控制,因此异步模式在提高了上层应用写入性能以后需要更为稳固的正确性保证机制。

2.4 iSCSIDTS容灾能力

在部署了上述iSCSIDTS容灾系统框架以后,存储网络的容灾性能将达到一个相当稳固的地步:(1) 当源站点因灾难全面损毁以后,备份站点的应用服务器可以马上启动,接替源站点进行数据服务,随后在源站点修复了以后,可以进行数据回迁;(2) 如果源站点发生了非法数据修改,可以通过CDP模块将数据恢复到之前的任意时间点;(3) 当源站点发生灾难全面损毁之前如果还有非法数据修改,在备份站点可以先进行最新Snapshot的恢复。此处说明一下,由于CDP技术所需的额外存储空间比较大,所以iSCSIDTS中的备份站点采用开销相对较小的Snapshot技术。如果预算足够,备份站点容灾服务器完全可以将Snapshot模块切换为CDP模块,提高上述第3种情况的容灾能力。

3 结束语

本文在对iSCSI协议和多种容灾技术深入调查研究的基础上,着眼于廉价存储网络,结合iSCSI协议提供的便捷优势,摈弃传统容灾系统的单一数据容灾技术带来的局限性,提出了综合利用多种数据容灾技术的iSCSIDTS系统。该系统不仅可以防止因设备故障或自然灾害带来的数据丢失,又能复原人为失误或恶意软件导致的数据改动,而且还能对上层应用提供不间断的数据服务。本系统一方面采用数据块级别的数据复制技术,与存储的具体数据类型无关,具有很强的通用性;另一方面,通过成熟的iSCSI协议实现了网络中的数据传输,再加上iSCSI协议的平台无关性,适用范围很广。

但同时,iSCSIDTS系统框架中还有很多问题尚未进行细致研究,比如:异步容灾模式的正确性保证、备份延迟问题的解决、同步容灾模式的性能提高、一致性弱化以后的容灾性能提升、系统容错性保证等等。相信在这些问题得到深入研究以后,iSCSIDTS系统将成为真正的高性能,高可靠网络存储容灾系统。

摘要:一个存储有重要信息的高可靠数据中心必需要做到既能防止因设备故障或自然灾害带来的数据丢失,又能复原人为失误或恶意软件导致的数据改动,而且还能对应用提供不间断的数据服务,这对其设计者提出了严峻的要求。提出了一种基于iSCSI的廉价容灾系统,该系统通过多种数据保护技术实现了一套符合上述要求的数据容灾解决方案。

关键词:iSCSI,远程镜像,快照,连续数据保护

参考文献

[1] Farley M.SAN存储区域网络(第二版).孙功星,等译.北京:机械工业出版社,2002

[2]喻强.基于ISCSI连续数据保护系统的研究和实现.硕士学位论文.北京:清华大学,2008

[3] Zhang M,Liu Y,Yang Q.Cost-effective remote mirroring using theiSCSI protocol.Proc 21st IEEE Conf Mass Storage Systems and Tech-nologies,2004:385—398

[4] VERITAS Volume Replicator 3.5:Administrator s Guide(Solaris).White Paper,Veritas,Software Corp.,2002

[5]董欢庆,李战怀,林伟,等.Linux平台远程逻辑卷复制系统的设计.计算机工程与应用,2004;18(6):109—115

iSCSI协议 第6篇

从专业的角度来分析, FreeN AS是一套完全免费的NAS服务器, 这种服务器的主要优势在于, 能够将一部普通的PC变成网络存储服务器, 帮助人们在日常的工作, 更好的存储数据和资料, 方便管理。而NFS主要指的就是网络文件系统, 这种系统是人们日常应用网络和计算机的必备系统, 对工作的影响是非常大的[1]。再来说一下ISCSI技术, 这种技术在现阶段的发展中, 属于比较前沿的一种, 它的主要功能就是可以实现在IP网络上运行的SCSI协议, 通过这种方法, 可以变相的起到一定的保障作用。基于Free NAS的NFS存储和ISCSI存储优化就是将3种系统的优势充分结合并且发挥出来, 本文就此进行一定的探究。

1 Free NAS为Xen Server pool提供共享的存储

对于现阶段的社会来说, 虚拟的网络成为了主导, 在此基础上, 又进行了一系列的深化与改革工作, 每一个国家在这个方面都会投入大量的人力、物力以及财力。事实证明, 在这个方面投入较多的时候, 意味着会有相应的回报。在经济效益和社会效益方面都会拥有一个较大的增长。现今的众多科研人员和技术人员将研究方向定位在了存储。虽然网络和计算机的一些技术比较虚拟, 但是其空间也是有限的, 当人们将数据存储起来的时候, 需要不断的拓展空间, 才能在一定程度上便利工作[2]。

1.1 安装和初始设置

基于Free NAS的NFS存储和ISCSI存储优化并不是随便提出的, 而是在大量的调查和研究以后, 将众多的数据进行分析以后得到的结果, 基于Free NAS的NFS存储和ISCSI存储优化不仅可以便利于人们日常的工作, 同时还能够在一定程度上对国家的发展产生较大的积极影响。所以, 今后需要在这个方面投入较大的时间和精力。本文认为, 要想在基于Free NAS的NFS存储和ISCSI存储优化当中获得较大的成就, 首先应该在安装和初始设置上进行一定的努力。以一台Think pad notebook作为host机, 此host机为64位, 支持DEP技术和VT技术 (Virtualization Technology) , 该host上安装WindowsX P系统。在host上安装VMware Worksta-tion和Xen Center, 其中Xen Center可以管理多个Xen Server, 并提供带界面的管理控制端。从以上的例子当中, 可以清楚的看到, 在一般的情况下, 安装和初始设置并不是特别的困难, 但也不能疏忽, 否则会对日后的工作产生一定的负面影响[3]。

1.2 实现用FreeN AS创建ISCSI存储

从传统的角度来说, 优化存储工作需要在很大程度上对原来的一些成果进行改良, 甚至是取消部分设置, 从头再来。世界上的很多科研人员都在这方面进行了一定的努力, 并且在很多的方面都加强了投入, 可是结果并不是特别的明显[4]。本文认为, 可以首先选择ISCSI enable, 使得Free NAS1提供ISCSI存储功能得以启动。再点击管理界面上的Initiators, 添加允许发动连接的发动器 (Initiators) , 给该Initiators取名为tag1。接着, 点击管理界面上的Target, 同理可创建Free NAS2中的ISCSI Target[5]。利用这种方式可以达到一个较好的存储目的, 帮助企业更好的管理数据。值得注意的是, 这种方式并不是唯一, 需要在客观上结合实际的情况, 否则单纯的按照固有的思维和方式来进行, 可能会造成一定的消极影响。

2 ISCSI和NFS读写过程概述

2.1 ISCSI Initiator读写过程

对于ISCSI来说, 很多人认为这是一种较为复杂的技术或者存储方式, 其实, 如果从理论上来分析, ISCSI并没有想象中的那么复杂, 主要是以IP网络为基础, 同时进行远程访问的网络存储标准。这种方式的适用范围较大, 而且能够运用较少的时间, 获得较大的积极成果[6]。另一方面, 通过ISCSI的相关命令, 可以封装在IP数据包内, 也就是说, ISCSI使得服务器访问远程地理空间的存储设备成为了可能。任何一个国家在看到这种“可能”的时候, 都会非常高兴, 这种方式不仅可以节省较多的时间和资源, 同时可以实现一个较大的增长[7]。

2.2 NFS Server读写过程

相对于以上的方式来说, NFS Server读写过程具有一定的优势, NFS网络文件系统主要分为2个部分, 一个是NFS server端和NFS client端[8]。这2个部分能够对不同的情况进行处理, 从客观的角度来说, 如果利用单一的“端”, 势必会在日常的工作中, 遇到较大的困难[9]。在NFS Server读写过程当中, 由于采用了Client—Server体系结构, 可以在处理问题的时候, 更加迅速, 对于命令、语言一系列的方式, 都可以较好的兼容。在现阶段的优化当中, NFS虽然是由Sun Microsystem公司设计并且实现的, 但是现在主要是用于Unix工作站, 换言之, NFS Server读写过程能够在不同的硬件平台和操作系统的计算机之间实现文件共享。在今后的发展中, 相信NFS Server读写过程会有一个更大的成就。

2.3 开销对比

通过系统的对比和分析, 当请求数据比较小或者进行元数据读写的时候, 每个数据包都在一定程度上主导了整体协议开销。其中的开销可能是以下2种开销当中的一个, 大部分的科研人员认为开销分为ISCSI中为数据结构控制开销和在NFS中为函数和过程调用开销。2种开销方式都能够在一定程度上决定优化结果, 但是并不是绝对性的, 在其他方面也要注意。随着请求数据不断的增长, 每个数据包的开销都开始被稀释, 而且会随着数据增长的大小而改变, 另一方面, 每字节开销也成为主导。通过以上的阐述来看, 不同的工作流对两个协议的进程开销影响是非常大的, 日后必须引起注意。

3 结语

本文主要基于Free NAS的NFS存储和ISCSI存储优化进行了一定的研究, 现阶段的成果虽然在一定程度上对工作产生了较大的积极影响, 但是未来的提升空间还很大。除此之外, 我们还需要对相关的领域进行一定的研究, 这样一来不仅可以促进基于Free NAS的NFS存储和ISCSI存储优化工作, 还能够对其他的领域产生较大的影响, 获得更大的进步。

参考文献

[1]王和平, 陈慧, 刘茜.巧用Free NAS搭建网络存储及备份系统[J].企业技术开发, 2012 (29) .

[2]华硕服务器搭配Free NAS构建企业存储系统[J].信息技术教育, 2007 (11) .

[3]任建奇.基于iSCSI的虚拟存储系统设计与实现[D]西安:西北工业大学, 2012.

[4]李彦广.基于行为预测的移动网络数据库访问方法研究[J].无线互联科技, 2013 (6) .

[5]Jiabin Deng, Juan Li Hu, Anthony Chak Ming LIU, Juebo Wu, Research and Application of Cloud Storage, Internaltional Workshop on Inteligent Systems and Application, zhongshan, IEEE Computer Society Press, vol.54, no.4, 2010.

[6]Jiyi WU, Lingdi PING, Xiaoping GE, Ya Wang, Jianqing FU, Cloud Storageas the Infrastructure of Cloud Computing, ICICCI, Kuala Lumpur, IEEE Computer Society Press, vol.119, no.3, 2010.

[7]李彦广.基于Spark+MLlib分布式学习算法的研究[J].商洛学院学报, 2015 (2) .

[8]Xu Wang, Beizhan Wang, Jing Huang, Cloud computing and its eytechniques, IEEE International Conferenceon CSAE, shanghai, CASE Press, vol.2, no.4, 2011.

iSCSI协议

iSCSI协议(精选6篇)iSCSI协议 第1篇关键词:iSCSI,SCSI,网络存储,Linux1 引言随着数字图书馆、视频点播、远程数据容灾等高I/O请求服务...
点击下载文档文档内容为doc格式

声明:除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。如若本站内容侵犯了原著者的合法权益,可联系本站删除。

确认删除?
回到顶部