电脑桌面
添加盘古文库-分享文档发现价值到电脑桌面
安装后可以在桌面快捷访问

IDC机房装修数据中心机房模型介绍

来源:文库作者:开心麻花2025-11-191

IDC机房装修数据中心机房模型介绍(精选7篇)

IDC机房装修数据中心机房模型介绍 第1篇

1、数据中心机房模型介绍

数据中心机房是为电子信息设备提供运行环境的场所,可以是一幢建筑物或建筑物的一部分,包括主机房、辅助区、支持区和行政管理区等。典型数据中心机房模型如图1所示。

典型数据中心机房工程按照功能划分,主要包括辅助设备区(UPS及其电池、柴油发电机组)、主机房、监控室、会商间和办公区等。在实际建设中数据中心机房功能区域的设置和平面布置可以视具体情况有所不同。数据中心机房的使用性质、管理要求及其在经济和社会中的重要性决定了其特殊性和安全性。它作为建筑物或建筑物的一部分,必然会受到外部环境的干扰,从而影响数据中心机房内电子信息设备的正常运行,轻者遭到经济损失,重者可能影响社会稳定,造成不可估量的重大灾难。外部环境主要包括不安全人员、雷电、水灾、电磁干扰、地震等。典型数据中心机房的风险识别和控制措施如图2所示。

基于数据中心的特殊性和风险控制的需要,典型数据中心机房工程所涵盖的工程内容主要包括以下几方面。

(1)装饰装修工程 ①机房区环境工程;

②办公区环境工程;

③监控区环境工程;

④动力区环境工程。

(2)电气工程

①柴油发电机系统;

②不间断电源配电系统;

③动力配电系统;

④照明配电系统;

⑤电源防雷系统;

⑥机房接地系统。(3)空调工程

①专用空调系统;

②辅助空调系统;

③新排风系统工程。

(4)消防工程

①自动报警系统;

②分区气体灭火系统;

③分区水喷淋系统。

(5)弱电工程

①楼宇设备自控系统;

②安防控制管理系统;③通信网络自动化管理系统;

④结构化布线系统;

⑤公共信息系统;

⑥监控中心控制系统。

典型数据中心机房专业分布如图3所示。

数据中心机房工程的用途决定了其设计和建设的复杂性。在工程设计和施工过程中应着重解决如下问题:可用性、可管理性、安全可靠、节能环保。

为了更好地解决上述问题,数据中心机房工程设计、施工等参与各方应综合各专业的技术要求,并进行有效的整合、协调和集成,使得各专业在数据中心机房中发挥应有的作用,并形成一个有效的整体,为其中的电子信息设备运行提供高效、平稳的运行环境。

数据中心机房工程设计和施工所涉及的问题极多。文中就几个横跨多个专业的问题展开讨论,并结合笔者多年的工程经验提出相应解决方案:冷热通道的气流组织;管线综合平衡;集中监控平台。

冷热通道的气流组织

数据中心机房的气流组织形式应根据电子信息设备本身的冷却方式、设备布置方式、布置密度、设备散热量、设备散热方式、室内风速、防尘、噪声等要求,并结合建筑条件确定。机房气流组织形式、风口及送回风温差如表1所示。

数据中心机房工程中机柜或机架高度应大于1.8m、设备热密度大、设备发热量大或热负荷大,一般采用活动地板下送风、上回风的方式。目前应用最广泛、最适用的气流组织形式为冷热通道的送回风方式。冷空气从机柜或机架的前面吸入,热空气从机柜后面排除。设备放置在机柜或机架内,将会达到极好的散热效果,如图4所示。

按照上述气流组织的要求,以下问题应得到很好的解决:

(1)静压箱的形成

根据《电子信息系统机房设计规范GB50174-2008》的要求,活动地板下的空间作为静压箱时,地板高度不宜小于400mm。活动地板下空间作为静压箱还应做好如下工作:

①应尽量选择优质的活动地板,以保证在长期低温恒湿环境下材料不变形,不膨胀。

②活动地板的铺装应加强质量管理,尤其在边角处理上一定要牢固,以免发生变形影响静压箱的密闭性。

③活动地板下的空间应做好封堵工作,尤其在管槽出入处、门(洞)口、轻质隔断等部位的封堵,以保证静压箱的密闭性。

④机柜或其它电子信息设备下方及下进线口应保证密封。

(2)保温处理

目前,多数数据中心机房工程选用机房专用空调。为了将机房温度控制在23℃±1℃,无论是水冷还是风冷系统,空调机组的出风口的空气温度一般在15℃以下。这样,整个静压箱的空气温度也将维持在此水平上。而机房下层作为办公区域,其空间温度一般维持在25℃左右。这样,机房地面(即下层楼板)上下会形成将近10℃的温差,极易在下层楼板结露,从而影响下层办公区域的使用。因此,地板下必须做好保温处理。保温材料的选择应满足消防要求,并应采用环保材料。目前,地板下保温材料多选用闭泡橡塑板。

(3)设备布置

为了保证气流组织顺畅,数据中心机房内设备布置应有利于空调送回风。目前广泛采用的方式为设备列与空调机组送风方向保持水平,避免交叉甚至垂直。图1所示的典型数据中心机房模型中,空调机组正面应与机柜(或设备)列正反面保持垂直。

机柜或机架的前门应朝向冷通道,而后门则朝向热通道。因为大量电子信息设备的风扇安装在设备后侧,这样将有利于冷通道吹出的冷空气在设备内主动流通,大大提高了散热效果。

在不同数据中心机房中可能安装不同类型的电子信息设备,但只要采用冷热通道气流组织,均应尽量按照上述原则进行设备布置。

(4)地板排布及风口安装

数据中心机房工程在采用冷热通道送回风方式时一般采用架空活动地板。目前,机房工程大量采用的是600×600(mm)的抗静电地板。选择风口地板时,应尽量选择与相应地板配套的风口地板。按照冷热通道气流组织要求,冷通道应安装风口地板,而在机柜或其它电子信息设备下方则应密封。照此原则,为了后期运行维护方便以及机房整洁美观,冷通道(设备列中)安装的风口板应尽量选择整板。结合地板的尺寸,如果冷通道放置两列风口地板(地板尺寸为600×600mm)时,宽度不宜小于1200mm(即可安装两整块风口地板),考虑到设备或机柜的尺寸,热通道的宽度可以做适当调整,以保证设备或机柜与地板缝协调。

数据中心机房设计时,设计人员应在地板平面图中注明风口地板安装数量和位置。风口地板的数量及安装位置应按照设备散热量、风口地板通风率、室内温差控制等因素综合考虑,由空调专业人员计算设计。在工程后期调试阶段,调试人员可以根据测试数据适当调整风口地板的数量和安装位置,但必须经过设计单位同意。

(5)管线综合

数据中心机房管线综合是一项复杂又必要的工作,具体解决方案详见后文。在采用冷热通道气流组织的机房工程中,管线综合应按照有利于气流组织顺畅的原则进行综合。

(6)回风保证措施

如图4所示,热通道的热空气应该顺畅地回到空调机组进行制冷处理,才能有效保证气流组织的顺畅性,从而有效降低设备温度。保证回风的措施主要包括:

按照图4所示,机柜或设备上方应该留有足够的空间才能有效保证回风要求。按照工程经验,机柜或设备的高度一般不超过2m,上方净空不宜小于0.6m。即机房的有效吊顶下净高应保持在2.6m以上,尤其是上走线方式的机房更应该保证不小于2.6m的净高。机房选址时应充分考虑建筑物的层高,以保证机房的净高。

在上走线机房内,管线综合时应充分考虑有利于回风的原则。

空调机组回风口应保证回风通畅,不应有遮挡。

(7)防尘处理

按照数据中心机房要求,静态条件下测试,机房内≥0.5μm的尘粒数≤18000粒/升。在采用冷热通道气流组织的数据中心机房内,空气的流动是十分顺畅的。这要求在气流组织通道内必须做好防尘处理。

地板下原地面应做好防尘处理。在地面保温和地板施工前,原地面应做好洁净处理,并刷(喷)防尘涂料,做好隐蔽检查记录。

原楼板(或有效转换层)做好防尘处理。在吊顶或转换层施工前,原楼板(或有效转换层)做好洁净处理,并刷(喷)防尘涂料,做好隐蔽检查记录。

数据中心机房内风管等保温材料应尽量避免使用玻璃丝绵等易起尘的材料。

(8)环保和节能措施

最新数据中心机房工程要求绿色和可持续发展,绿色数据中心机房是设计和施工参与人员今后长期一段时间共同的目标。

绿色数据中心工程涉及的专业多、内容也十分复杂。笔者结合工程实践经验,就采用冷热通道气流组织的机房工程在环保和节能方面的注意事项做如下介绍:

前文讲到为了有效回风,机房的净空不宜小于2.6m。但并不是说机房的净高越高越好。因为机房净空过高,气流组织空间加大,空调的负荷将加大,不利于节能。而机房净高在2.6~3.0m之间将会在回风和节能方面达到平衡。所以,机房选址时应尽量考虑这方面的因素。如果机房层高过高,一般建议增加二次吊顶及转换层,以降低机房净高。

为了保证气流通畅,机房空调机组将加压送风。空调设备出风口至最远端风口地板的距离俗称送风距离。送风距离如果较远,设备送风压力就大,而压力越大,机房噪声也将越大,而且空调效率也会大大降低。有人值守的主机房和辅助区,在电子信息设备停机时,在主操作员位置测量的噪声值应小于65dB(A)。为了降低机房噪声、提高空调设备效率,送风距离不宜超过15m。在机房选址、设计、平面规划时应考虑这方面的问题。

管线综合平衡

数据中心机房是涉及多专业的集成工程。为了更好地解决数据中心工程专业协调、环保节能、使用方便、可扩展性和观感美观等关键问题,数据中心管线综合是一项十分必要而又复杂的工作。在项目设计和施工前、过程中,设计和施工等参与人员应该结合本工程做好规划和落实。

目前,更多的数据中心工程采用上走线无吊顶方式进行管线综合设计。笔者就此类典型的数据中心机房工程在管线综合方面做如下介绍。(1)顶部联合支架安装

在采用上走线方式的数据中心机房中,顶部会有大量的机电安装工作,比如灯具、强弱电桥架、风管、消防报警、气体灭火管道、摄像机等。按照传统的安装方式,施工人员将在机房原顶板打大量的孔并采用膨胀螺栓连接。这种安装方式将产生如下不利影响:

①在原顶板大量打孔将有损原楼板结构;

②安装完成的设备不能移动位置,将不利于后期电子信息设备的安装和使用。

③可扩展性较差。随着机房后期发展,机房内设备有可能增加,相应强弱电线槽等将增加。如果采用传统的安装方式,势必在后期安装时将重新打孔,成品保护将是一个难题。

顶部联合支架安装方式将很好地解决上述不利影响。所谓顶部联合支架是指在原楼板下安装一层1200mm×1200mm网格∏型钢转换层。上述所有安装工作均在转换层受力,并与转换层卡接,而不是焊接。这样所安装的设备将可以在转换层上滑动,这样可以提高机房的灵活性及可扩展性。灯具的安装则采用倒∏型大龙骨,相应电源线敷设在大龙骨内,而灯具也可以根据实际需要在大龙骨上滑动。图5所示顶部联合支架安装实例。(未完待续)

(2)顶部气体灭火管道和报警管线排布和安装

顶部无吊顶的机房内只在顶部安装一层气体灭火管道和报警。消防报警应安装在顶部最高处,而气体灭火管道则紧贴转换层安装。

(3)顶部新排风管道排布和安装

为了保证机房内净高和气流组织顺畅,新排风管道排布应在满足规范的前提下尽量沿机房墙体贴顶安装,但不得安装在空调机组上前方或正上方,以免影响空调回风。此外,风管排布应与空调送回风方向顺直,不宜交叉甚至垂直。

(4)灯具排布和安装

无吊顶机房顶部的灯具应安装在设备或机柜列中上方,不宜安装在设备或机柜正上方。这样可以保证操作人员作业时有效利用照明。灯具的安装高度应在消防设施(气体灭火和报警)和强弱电管槽之间。

(5)上走线强弱电桥架排布和安装

采用上走线方式的机房在强弱电桥架安装时应结合机柜或设备的下线方式排布。比如某些机柜或设备在其背侧下线,相应桥架安装时应靠后侧安装,反之亦然。此外,为了保证桥架至设备下线弯曲半径符合规范,并且顺直美观,桥架高度以高出机柜200~400mm为宜,但距装修完成地面不宜低于2.2m,并要求机房内同类桥架高度尽量一致。

强弱电桥架安装时应与空调回风方向顺直,不宜交叉甚至垂直,尤其要避免在空调机组回风口附近交叉或垂直。

(6)地板下气体灭火管道和报警管线排布和安装

地板下气体灭火管道和报警管线应尽量贴近活动地板底部安装,并且与空调送风方向顺直,不宜交叉甚至垂直,尤其要避免在空调机组送风口附近交叉或垂直。(7)地板下线槽排布和安装

目前,无吊顶机房大部分采用弱电上走线,强电下走线。强电线槽在地板下安装时应与空调送风方向顺直,不宜交叉甚至垂直,尤其要避免在空调机组送风口附近交叉或垂直。

为了保证送风顺畅,线槽应在热通道地板下敷设。这里要特别说明空调机组电源电缆敷设时,线槽应在机组后侧安装,以免影响空调机组送风。

IDC机房装修数据中心机房模型介绍 第2篇

兹介绍我公司(姓名___________________)(身份证号码: _____________________)(联系电话:_______________________),前往贵公司IDC机房,办理:

□服务器上架,_____U □服务器下架,服务器编号______,IP地址为________________ □服务器维护,服务器编号______,IP地址为_______________ □其他事宜,具体_____________________________________ 请予接洽为感。

此介绍信有效期:____年___月____日至____年____月____日

公司(盖章)

IDC机房装修数据中心机房模型介绍 第3篇

近年大型IDC数据中心和综合枢纽通信大楼频繁遭受雷击故障,给通信行业造成巨大的影响和经济损失。国外大型IDC数据机房也同样频繁遭受雷电的影响,如据网易环球科技报道,近日谷歌位于比利时的IDC数据中心机房由于遭遇了4次闪电袭击,导致谷歌云平台(GCE)磁盘受损、部分云存储系统断线、数据丢失,经谷歌对受损磁盘进行努力修复,但仍然有不到0.05% 的磁盘仍然未能得到修复。所以雷电对IDC数据机房和综合枢纽楼的危害无论国内或者国外都存在,不能不引起我们足够的重视。

2大型IDC数据机房和综合枢纽通信大楼雷击故障情况

在粤东某大型A级枢纽通信大楼IDC数据机房位于17层大楼的中间位置11楼层,2015年6月10日19时IDC机房发生第9列电源机柜B路A相电源被雷击,同时B路空开及上端UPS空开跳闸外,发生掉电故障,对应的UPS输出也跳闸,直接影响客户近200多台服务器工作异常。本次雷击故障发生时,据维护人员反映,当时机房附近天空电闪雷鸣,雷电十分强烈。造成IDC机房雷击故障历时约1小时,雷击设备故障引起客户对该运营商的技术服务能力和机房设施环境提出质疑和投诉。

近2年来在珠三角某A类综合枢纽大楼也频频发生雷击故障,损害的主要设备有核心网机房内电源板、传输设备、软交换及电源等设备故障,其遭受雷击情况如下:

软交换:NIC板、计费服务器磁阵、SPC板;TG: NIPI板、UIMT板、TSNB板、CLKG板、SDTB板、 OMP板;SG:UIMU板、 后台服务器硬盘; 承载网: 3952交换机、8905交换机、防火墙NS1000、T64G交换机; SHLR:服务器风扇。

传输设备损坏11块板件;通信电源损坏6个电源防雷模块。

3大型IDC数据机房和综合枢纽通信大楼雷击故障原因分析

3.1粤东某大型A类枢纽通信大楼IDC机房雷击故障原因分析

3.1.1外部防雷装置检测

该A类枢纽通信大楼,楼高17层,IDC机房位于大楼的中部11层,与大楼共用外部防雷装置,共用大楼联合地网,其高低压配电由相距约50米的副楼新建低压房引入,IDC机房于2014年10月底竣工投入使用,至今年6月雷击事故发生时,刚经历第一个雷雨季节,即出现设备雷击故障。

IDC机房所处位置, 从防雷分区的角度讲, 属于LPZ1区内,理论上,该区域是较不易遭受直接雷击的区域,通信机房内的服务器等设备处于相对安全的保护区内。 但为何相对安全的设备却遭雷击损坏?而且该机楼刚刚于2015年5月对大楼外部在用防雷系统进行了防雷安全检查,该枢纽大楼的外部防雷装置(如接闪器、避雷针、避雷网、引下线等)及接地电阻(小于0.6欧)均满足相关通信行业标准的要求,能有效保护通信大楼的防直击雷安全。由此可见该大楼的外部防雷设施是没有问题的。

3.1.2接地系统检测

该IDC机房的交流工作接地、安全保护接地、防雷接地、防静电接地、屏蔽接地等都通过楼层汇流排,由一根185mm2的接地线接至负一层车库处如大楼地网的主地线排,该主地线排同时连接有光缆加强芯接地和其它设备保护地,大楼采用联合接地,经现场检测,大楼的地线连接方式满足GB50689-2011《通信局站防雷与接地工程设计规范》。

IDC机房供电由位于枢纽大楼东北侧新建的一栋二层副楼低压室供电,楼高约10米,一楼是油机房,二楼是变压器及高低压变配电设备。低压室设备防雷接地直接焊接至建筑基础钢筋,并连接至副楼大楼的总地排。经现场检测,低压室接地电阻小于0.5Ω。

故障原因之一:(1)技术检测人员现场发现,枢纽楼11楼IDC机房内楼层总汇流排地线连接松脱,严重接触不良,185mm2的总地线电缆,检测人员现场可以轻易徒手来回拨动,可以随意搬到任何位置,该楼层设备总地线形同虚设,见图1;(2)UPS设备地线在墙壁上的汇流排处,也连接不可靠,也可以用手任意搬动(但比楼层总地线连接处稍紧一点)。就是说,在UPS设备地线及整个11楼的总地线都没有可靠下地。因此IDC机房的接地电阻虽然能满足GB50689-2011《通信局站防雷与接地工程设计规范》中有关IDC机房接地电阻的要求,但楼层总地线严重接触不良,形同虚设,UPS地线也接触不良, 泻放雷电流的途径不畅通是造成D级防雷模块遭雷击的故障及IDC机房内200多台服务器工作异常的重要原因之一。

3.1.3电源防雷器检测

该IDC机房内交流电源列头柜上安装的都是德国某著名品牌的防雷模块,故障现场是除第9列B路A相的防雷模块被烧毁、B路空开及上端UPS空开跳闸、并影响客户200多台服务器出现异常外,别无其他异常。

经进一步检查,IDC机房低压配电室进、出线侧缺少B级交流电源防雷器;UPS交流输入配电柜处缺少C级电源防雷器;仅在IDC机房电源列头柜内配置了D级交流电源防雷器,其电压保护水平Up ≤ 1.8KV。从雷击现场来分析,若不是这些交流电源列头柜上防雷模块的钳压和泻放雷电流的话,IDC机房内更多的数据设备很有可能就会被雷电击坏。

故障原因之二:由于IDC机房缺失B级、C级电源防雷器,在室外电力电缆上感应的雷电压和雷电流没有被B级和C级电源避雷器有效的钳制和有效地泻放,导致感应雷电流沿着电力电缆,进入低压配电设备后,再沿着电力电缆进入到11楼的UPS设备,但由于UPS本身具有一定的防感应雷电压和过电流的耐雷击能力,或者由于有大电容的吸纳雷电流能量的效应,因此未立即跳闸,当感应雷电流到达D级电源避雷器后,击坏D级电源避雷器, 同时泻放了部分感应雷电流,而UPS第9路开关也由于大电容的瞬间释放能量的效应,此刻也跳闸,最终导致了本次雷击事故的发生,见图1。若不是D级电源避雷器的泻放雷电流的话,后端客户的服务器及相关的业务极有可能被影响得更为严重。

3.1.4小结及整改建议

该通信枢纽大楼IDC机房的接地系统基本满足《DXJS1029- 2011中国电信IDC机房设计规范》7.4.2节要求,采用联合接地,接地电阻小于1欧姆。但是还存在如下不足:

(1)地线不规范:11楼IDC机房总地线楼层汇流排处连接严重松动,同时UPS地线也松动,均接触不良,导致雷电流泻放途径不顺畅,是这次雷击故障的原因之一。 建议全面检查和整改IDC机房内所有地线,包括地板下的地线,各种地线在连接处一定要可靠连接牢固,地线线经符合规范要求,并做好标识。

(2) 电源避雷器(SPD) 配置欠缺: 根据 《DXJS1029-2011中国电信IDC机房设计规范》7.4.4节要求,IDC机房缺少B级和C级电源避雷器,导致外界感应的雷电压和雷电流直接流入低压配电设备、UPS设备和IDC机房内电源列柜,最终将列柜电源D级避雷器击坏及后端的200多台客户服务器出现异常,同时D级电源避雷器尽管已经损坏,但也一定程度上相应保护减少了后端客户服务器的损坏程度和数量。因此建议该综合枢纽通信大楼交流电源配电系统B级、C级和D级电源避雷器(SPD)的配置要求和保护水平参考如图2。

3.2珠三角某A类综合通信枢纽大楼雷击故障案例

3.2.1现场调查情况

该A类综合通信枢纽大楼分公司维护人员根据通信设备和电源设备雷击故障情况,早已经对该机房的故障现象进行了详细的排查分析工作,并针对基站地线排引下线线径过细等存在的问题进行了整改;此外分公司还排查了大楼接地电阻、电源避雷器、电源系统电压,均合格或在正常范围内;分公司维护人员通过采取上述一系列的整改措施后不久,该机房内随后又出现了两次软交换设备坏板的情况。于是该分公司就请广研院防雷专业人员现场察看和解决问题。

广研院防雷专业人员现场对该综合枢纽楼核心网机房勘查情况:

3.2.2外部防雷装置检测

该机房所处位置,从防雷分区的角度讲,也是属于LPZ1区内,理论上,该区域是较不易遭受直接雷击的区域, 该案例的外部防雷设施与上述粤东某大型A类枢纽通信大楼IDC机房的外部防雷设施情况类似,机房内的通信主设备均处于相对安全的保护区内。但为何相对安全的通信设备却频频遭雷击损坏?

3.2.3机房内部检测

(1)机房内部设备:核心网机房位于该大楼6层, 不但有传输设备、软交换等重要通信设备,同时还发现有大量基站设备。

(2)电源避雷器检查情况:软交换及传输设备的电源列柜D级防雷模块也多次遭受雷击,D级防雷模块有烧黑的迹象。但B级和C级电源避雷器完好无损,雷击后该分公司的维护人员及时更换了被雷击坏的通信主设备和电源列柜D级防雷模块。

(3)机房内地线系统情况:现场发现,机房内天馈线接地线虽然有独立专用地线排,但基站天馈线地线排与其它设备地线用一条地线直接电气连通,甚至与直流工作地线排都一起电气连通,就是说天馈线地线排虽然有独立地线排,但与室内直流工作地线和设备保护地线都彼此相互电气连通,这样就等于是室内所有的地线都全部电气连接在一起的!当室外天馈线地线上感应到雷电压和雷电流时,这些感应到雷电流和雷电压就会沿着天馈线地线直接进入到机房电源列柜上、金属走线架上(金属走线架上与天馈线金属部分有碰触现象), 将通信电源防雷模块打坏,并随着电源路经又流入到各种通信主设备当中,将通信主设备也打坏。楼层机房地线系统连接图见图3。

(4)调查还发现,6楼楼层总地线下地后,没有直接下地,而是在地下电光缆的走线槽道内与电光缆同沟架在走线槽内,并同槽布放了约20余米后才下地泻放雷电流,这样6楼楼层总地线在电光缆的走线槽道内不但无法泻放雷电流,而且还会将雷电电磁感应到同路由的平行布放的电光缆加强芯的金属构件当中,而在电光缆加强芯的金属构件上产生很高的感应纵电动势,最终会危害到光终端设备。

(5)建筑物天面防雷带引下线在地网入地点距离楼层总地线排入地网点之间距离太近,距离没有超过5m以上。

(6)基站天馈线在室内与金属走线架有碰触现象, 天馈线上雷电流容易通过这些接触点流入走线架,尽管该分公司维护人员已经对部分此类现象进行过整改,但仍然还存在有此类现象,至少整改不彻底。参见图4。

3.2.4雷击故障原因分析

(1)基站天馈线地线与设备保护地、直流工作地等混接是雷击的最主要原因之一。由于该机房的核心网等主设备和基站设备在同一个机房里,虽然基站天馈线地线设有专用的地线排,但该地线排与室内的直流工作地线排及主设备保护地线排之间均在机房内电气直接相连在一起, 导致室外天馈线外导体上由户外感应的雷电流有部分(也有部分雷电流通过天馈线专用地线排引至地下地网上)直接流入到直流工作地线排上和设备保护地线排上,并沿电源直流工作地和主设备保护地流入到电源设备和通信主设备上,雷电流将电源设备上的防雷模块打坏,残余的雷电流继续沿着电源线最终流入到其它通信主设备上,并将通信主设备击坏。这是造成该机房内多种通信设备屡屡被雷击的最主要原因之一。

(2)建筑物接闪器(如防雷带、避雷针、避雷网等) 引下线与楼层机房总地线入地网点距离太近。当建筑物防雷带上感应的雷电流沿地线下至地网入地点后,且距离楼层总地线下地网入地点距离较近时,就会有部分泄放到大地地网中的雷电流又会沿着楼层总地线流入到楼层机房总地线上而进入楼层机房内,并沿着机房室内地线系统最终流入到机房内的电源设备和通信主设备上,将通信主设备和电源系统打坏。

(3)楼层总地线不应与楼下电光缆在地下走线槽内同槽平行架设。由于楼层总地线与楼下电光缆在地下走线槽内同槽平行布放时,当楼层总地线中的雷电流在泻放到大楼地网的过程中,会在电光缆的金属构件上感应出很高的感应雷电压和雷电流,这些雷电压和雷电流会沿着光缆金属构件流入到机房内的电光缆终端设备上,对所连接的电光缆终端设备构成雷害。

(4)室内天馈线金属构件与金属走线架之间绝缘存在安全隐患。由于天馈线在室外暴露在空中,其外导体上会感应出很高的雷电压和雷电流,若在机房内与金属走线架的接触处绝缘存在薄弱环节的话,就很容易与金属走线架之间产生放电现象,并将雷电流引至与金属走线架相连的其它通信设备上,最终对通信系统构成雷害。

3.2.5整改建议

根据该A类综合枢纽机楼存在以上的防雷安全隐患, 建议该机楼应从以下几方面进行整改:

(1)基站天馈线地线在进入机房前,应在机房墙外做一个天馈线地线专用地线排,将天馈线的地线都汇聚接在该地线排上,并将该地线排直接用电缆(截面积为95mm2的铜电缆)在室外直接接入大楼地网,将大部分天馈线上感应到雷电流和雷电压拦截在室外,并直接引入大地。基站天馈线地线在大楼地网入地点处与机房其它楼层总地线入地点之间要保持至少5m以上的距离。

(2)机房内的直流工作地及设备保护地等地线接入楼层总地线排之后,用直径不小于120mm2的铜缆直接接入大楼地网,且其入地点应与大楼基站天馈线地线及大楼天面(如避雷针、避雷网、防雷带等接闪器)引下线入地点都相距5m及以上的距离(若该大楼的引下线是以大楼主钢筋为引下线时,则可以不考虑此要求)。

(3)将天馈线及其金属附件与机房内金属走线架之间绝缘要保持绝缘良好。在条件许可的情况下,为天馈线单独设一条走线架,该走线架与机房内其它设备走线架完全隔离开来;若无法实现走线架隔离,需要混合使用走线架时,则应该在室内的走线架上将天馈线及其金属构件与金属走线架之间要保持绝缘良好,避免天馈线金属构件与金属走线架之间有电气接触现象,否则会产生雷电流流入到走线架上,危害通信机房内的其它通信设备。

(4)将地面电光缆走线槽内同槽平行布放的各种地线取消,并将这些各种地线直接连接到大楼的地网上,并保持大楼楼层总地线与天馈线地线及大楼天面防雷带(如接闪器、避雷针、避雷网、防雷带等)引下线保持至少5m及以上的距离。

4结论

由以上两个A类大型IDC数据机楼和综合枢纽楼雷击故障原因的分析,我们可以总结出一下几方面的原因:

(1)大型IDC数据机楼和综合枢纽楼防雷措施一样都不能缺少。从防雷分区的角度讲,大型IDC数据机楼和综合枢纽楼都是属于LPZ1区内,理论上,该区域是较不易遭受感应雷击的区域,机房内的通信设备均处于相对安全的保护区内。然而事实雄辩地说明,即使是处在LPZ1保护区内的通信设备,若忽视应有的防雷措施,同样也会遭受雷击故障。比如粤东大型IDC数据机楼缺少B级和C级电源避雷器,导致外界感应雷电流沿着电力电缆流入到通信机房主设备和供电系统当中,对通信系统构成危害。

(2)施工质量不合格。地线系统施工不合格,比如粤东大型IDC数据机楼虽然有地线系统,但楼层总地线和通信设备及电源地线均在地线排上接触不良,形同虚设, 导致雷电流泻放途径不顺畅,造成雷击通信主设备和电源系统故障。

(3)室内地线系统不规范,乱接乱拉乱搭现象严重。 机房内基站天馈线地线与电源直流工作、交流保护地等地线电气混接在一起;楼层总地线又与建筑物接闪器(如防雷带、避雷针、避雷网等)引下线彼此之间距离太近,没有保持至少5m及以上的距离(若该大楼的引下线是以大楼主钢筋为引下线时,则可以不考虑此要求),使楼顶建筑物防雷引下线上的雷电流有部分会沿着楼层总地线进入到通信机房内,对通信设备造成雷害等。比如珠三角某A类综合枢纽楼机房雷击故障。

摘要:文章通过作者对南方某雷害严重的大型IDC数据中心和综合枢纽通信大楼频繁遭受雷击故障的情况介绍,并进行了详细的故障原因的案例分析,提出了相应的解决方案。指出了大型IDC数据中心和综合枢纽通信大楼内的通信设备虽然都处于LPZ1区内,是处于较不易遭受直接雷击的相对安全的保护区内区域,但为何这些相对安全的通信设备却屡遭雷击呢?文章通过对这些雷击案例的详细分析,希望能对其它的大型IDC数据机房和综合枢纽通信大楼免遭雷击故障提供一些借鉴作用。

IDC机房装修数据中心机房模型介绍 第4篇

机房的选择(只限北京地区)

主机托管过程中,选择机房是一个必不可少环节。这里值得注重的是站长们不要轻易相信IDC代理 公司给你的推荐,因为,IDC行业竞争越来越激烈,为了不丢客户和获得更大的利润,IDC公司不会考虑我们的使用效果,也不会帮我们选择最佳的资源产品,他们推荐的只是自己能拿到的机房资源和赚钱多的机房资源,更有甚者为了小小的提成把你带进最大的陷阱,所以,IDC的话没有一点可借鉴的价值,在选择机房 前站长同胞们一定要做好充分的调研,坚持自己的选择,别人人家给忽悠瘸了“"

下边就具体分析一下北京机房的基本情况:

应该说全国范围内北京地区的双线资源是最好的,目前解决南北互通最先进的技术—BGP技术在北 京也是最成熟的,同时价格也比较高,虽然没有价格优势,对于面向全国用户的站点,本人还是推荐北京的双线或多线路机房,究竟有很多大企业、政府部门、大型 网站等非常重要的服务器都托管在这些机房里,机房环境啊、电力供给啊、安全啊、线路的稳定性啊都有非常明显的优势。

下面是本人感觉综合情况比较好的机房(都是本人接触过的,没用过的没有发言权,不敢说人家不好)

一线机房:

北京亦庄网通机房

世纪互联(酒仙桥机房)

中电华通机房

光环新网机房

还有很多优秀的非一线机房:

国研机房

铁通(总部基地)六线机房

北苑机房

皂君庙机房

三元桥机房

歌华大厦机房

我说的一线和非一线主要是按照机房的规模、线路质量、设备配置等划分的,选择机房还有很多其他的因素,比如电力供给、机房环境、技术水平、安全设施、治理制度等等,当然也有价格差异。其实根据自己的应用选择适合自己的机房才是最好的选择。

通过本人多年的托管经验,从线路稳定性、速度、价格和用户的使用反馈,本人推荐:

国研机房(性能稳定,价格适中)

铁通(总部基地)六线机房(假如学生用户多的话,这个不错,价格也适中)世纪互联(酒仙桥机房)(线路效果非常好,假如不考虑价格,这个机房是不二之选)

北苑机房(新机房,线路超稳定,价格高,治理太严格不好维护)

亦庄机房(注重了,这个很混乱,最好的和最差的资源都在这)

机房不是唯一的标准:

在同一机房的不同区域也会存在不同的使用效果,就如同同一个机房内有共享资源(100M共享)和独享带宽之分。能不能享受到好的资源和IDC代理的实力等因素有关。

比如:同样在亦庄机房有双线和单线之分(根本就不是一个机房),经常有IDC代理把单线当成双 线卖,站长们无从考证,假如发现了他们也会找个种理由说双线就是这样,大不了第二年不做你了。曾经有铁通(总部基地)机房的IDC代理说:百度等知名网站 有服务器在我们机房里,你想一下,我们小站长可能享受百度的待遇吗??

假如有条件,我建议站长能到机房亲自考察,确定一下放服务器的机柜。IDC代理的选择

反对跳过代理找运营:

曾经看过网上有人说:“跳过代理找运营”,我觉得对于我们站长来说,这个说法不适合我们。因为 机房运营商的销售重点不是我们这些零散客户,而且有时为了保护代理的利益,其报给我们价格反而比代理报给我们的价格高很多。

服务方面,人家的大部分利润不 是来自我们,给我们作及时的服务很难,所以找一个合适的IDC代理是非常必要的。

我把IDC代理分成三类(大、中、小):

大型IDC:有自主机房,经营时间长,信誉可靠,服务周到,资源价格高(一般1U100M共 享能差1000元左右),上次去世纪互联,前台有N个巨漂亮的MM,这架势就便宜不了(我说的可是托管啊,呵呵”“)客户主要集中在企业、政府等高端客 户。假如有实力啊的站长,还是推荐照这样的公司,究竟人家实力雄厚,资源品质确实有保障。

中型IDC:手里把握着很多优势资源,有很好的办公环境,信誉可靠,对于我们站长来说服务应该是最好的(当然也有气人的),客户主要集中在中低端的零散客户(我们是他们最大的客户群),资源价格相对比较合理。假如只有一两台服务器托管,这类IDC代理是不错的选择。

小型IDC:其实我都不想分析他们了,有人看了这个一定会骂我的,一般这类的公司只有10个左 右的员工(有的甚至只有一两个人就开公司了),所有员工都是销售员,一般没有技术人员,服务很难保证,办公环境差,一般租个民房,放几台电脑就开始做业务 了,客户一般都是图片以才找他们,所以他们能拿到的资源也不会很好。

如何选择IDC代理:

其实给IDC分了类,怎么选择各位站长心里也有个谱了,我选择中型的IDC代理,我有四个理由:

1.站长最关心的就是价格,做站长就是要赚钱,都想在保证品质的基础上尽量降低成本,而这正是中型IDC公司所具备的。

2.中型IDC公司都追求个发展,都想尽量把客户留在自己公司,长期合作,所以手上的资源一般都不错(线路质量等),能保证你的网站稳定的运行。

3.信誉方面,大型和中型的IDC公司都是比较有保障的(个例除外),小型的IDC公司就不敢恭维了,小IDC公司偶然有抱着客户的服务器跑路的情况,有的干脆顶着IDC的名字,就是奔着骗你的服务器来的,我有一个朋友就被„„,太无情了,吃了大亏了。

4.服务方面,小IDC公司几乎就没有服务,大型IDC公司服务的对象是高端客户,只有中型IDC公司还当我们这些站长是“上帝”。NND,后半夜也让他帮我重启,哈哈”谁叫咱是“上帝”呢。

与IDC打交道的经验:

1.不能只看网站,有的小IDC网站做的相当有规模,而公司比我家还小—破这羊皮的狼,我建议选择IDC公司最好还是到公司坐坐,聊聊,看看规模,这一点很要害,因为以后你直接打交道的就是这些IDC公司的人,这也是整个托管中最要害的一环

2.砍价,IDC公司的报价或多或少就会有点水分,能砍多少就砍多少,但是也不要太离谱,人家也要赚钱吗?砍得IDC太难受了,他们就会想别的办法了,对我们不利呀。(我不用砍就是最低价,哈哈,咱在圈里混得好,哈哈“")

3.我果断不会把服务器托给小IDC的,小IDC公司可能会骂我了,我知道你们会说,大的IDC公司不也是从小做起的吗??对,其实有很多小的IDC公司确实 做的不错,确实也在一步步的发展,一步步的壮大,我会等你们壮大以后考虑和你们合作,IDC市场太混乱了,门槛也太低,对于我们小站长来说我冒不起那个险 啊,辛辛劳苦搞了个服务器,万一„„嗨。

价格的选择

价格问题是最敏感的问题,也是最轻易选择的,价格高的不一定是好货,但是,价格低的就一定不是 好货,大家想想,谁会做亏本的生意啊?在北京好资源根本就不愁卖不出去。北京的托管市场双线或多线1U/100M共享的价格一般在4500以上,4500 以下的根本就不用考虑(本人除外,有非凡关系,呵呵”),5000元以上的资源一般都是比较不错的!最后提醒大家,不要选择太低价格的资源,也不要当“冤 大头”,别花了钱买个劣质产品!

IDC机房装修数据中心机房模型介绍 第5篇

(一)国外IDC机房评测分级的标准(T4标准数据中心)根据美国标准TIA-942《数据中心的通信基础设施标准》,考量基础设施的“可用性”、“稳定性”和“安全性”,将IDC分为四个等级:Tier1,Tier2, Tier3, Tier4。T4机房最大的特色在于可以提供容灾服务。而目前国内所提供的数据中心服务以IDC为主,从级别上多为T2级水平,T3与T4级的差别主要表现在配电和数据中心规模上。

1.针对数据中心建设标准定义了四个级别: T1数据中心:基本型

T1数据中心可以接受数据业务的计划性和非计划性中断。要求提供计算机配电和冷却系统,但不一定要求高架地板、UPS或者发电机组。如果没有UPS或发电机系统,那么这将是一个单回路系统并将产生多处单点故障。在检修和维护时,这类系统将完全宕机,遇紧急状态时宕机的频率会更高,同时操作故障或设备自身故障也会导致系统中断。T2数据中心:组件冗余 T2数据中心的设备具有组件冗余功能,以减少计划性和非计划性的系统中断。这类数据中心要求提供高架地板,UPS和发电机组,同时设备容量设计应满足N+1备用要求,单路由配送。当重要的电力设备或其他组件需要维护时,可以通过设备切换来实现系统不中断或短时中断。T3数据中心:在线维护(全冗余系统)

T3级别的数据中心允许支撑系统设备任何计划性的动作而不会导致机房设备的任何服务中断。计划性的动作包括规划好的定期的维护、保养、元器件更换、设备扩容或减容、系统或设备测试等等。大型数据中心会安装冷冻水系统,要求双路或环路供水。当其他路由执行维护或测试动作时,必须保证工作路由具有足够的容量和能力支撑系统的正常运行。非计划性动作诸如操作错误,设备自身故障等导致数据中心中断是可以接受的。当业主有商业需求或有充足的预算追加,T3机房应可以方便升级为T4机房。T4数据中心:容错系统

T4级别的数据中心要求支撑系统有足够的容量和能力规避任何计划性动作导致的重要负荷停机风险。同时容错功能要求支撑系统有能力避免至少1次非计划性的故障或事件导致的重要负荷停机风险,这要求至少两个实时有效地配送路由,N+N是典型的系统架构。对于电气系统,两个独立的(N+1)UPS是一定要设置的。但根据消防电气规范的规定,火灾时允许消防电力系统强切。T4机房要求所有的机房设备双路容错供电。同时应注意T4机房支撑设备必须与机房IT设备的特性相匹配。2.建筑定级 建筑T1级别

对于可能引起数据中心瘫痪的人为地或自然灾害不做任何建筑防护措施;设备区地面活荷载不小于7.2kPa,同时楼面另需满足1.2kPa的吊挂活荷载。建筑T2级别

T2机房应满足所有T1机房的要求外应有建筑防护用于避免由于自然灾害或人为破坏造成的机房瘫痪;机房区域的隔墙吊顶应能阻止湿气侵入并破坏机械设备的使用;所有安防门应为金属框实心木门,安防设备间和安保室的门应提供180度全视角观察孔;所有的安防门必须为全高门(由地面到吊顶);安保设备间及安保室的隔墙必须为硬质隔墙并加装厚度不小于16mm三合板,至少每隔300mm要用螺丝固定;设备区地面活荷载不小于8.4kPa,同时楼面另需满足1.2kPa的吊挂活荷载。建筑T3级别

除满足T2要求外还应满足如下要求:需提供备用的出入口和安全监察点;提供备用安全出入道路;机房外墙上不能有外窗;建筑系统应提供电磁屏蔽保护;钢结构应提供电磁屏蔽保护;屏蔽层可以是贴铝箔的板材或金属网;机房入口应设置防跟入系统;对于冗余的设备应提供物理隔断以降低同时宕机的可能性;应设置防护栅栏以控制非正常侵入事件,同时建筑外围应设置微波探测和视频监控系统;厂区应设置门禁控制系统;机房区,动力区应设置门禁系统,并提供门禁控制中心监控系统;设备区地面活荷载不小于12kPa,同时楼面另需满足2.4kPa的吊挂活荷载。建筑T4级别

除满足T3要求外还应满足如下要求:考虑对于同一灾害的冗余保护措施;考虑潜在的地震、洪水、火灾、暴风、暴风雨以及恐怖主义者和精神病人防护措施;柴油发电机应位于室外或其他建筑内;在室外规划油罐区且尽量靠近柴油机;位于地震带0,1和2上的数据中心建筑按地震带3的要求设计抗震,位于地震带3和4上的数据中心抗震按地震带4的要求设计抗震,所有的设备设计重要系数取1.5;位于地震带3和4上的数据中心设备和机架应设计顶安装的抗震支架;设备区地面活荷载不小于12kPa,同时楼面另需满足2.4kPa的吊挂活荷载。3.电气定级 电气T1级别

T1级别的机房只需要提供最低的电气配电以满足IT设备负荷要求;供电容量少量或无冗余要求;单路供电;供电回路无检修冗余要求;单套等容量柴油发电机系统可以安装用于容量备用,但不需要冗余;ATS开关用于柴油发电机系统和变压器系统的电力切换;ATS并不是强制要求的;需要提供模拟负载;需要提供单套等容量UPS系统;UPS系统应与柴油机系统兼容;UPS应带有维修旁路以确保UPS检修时正常供电;应急电源可以来至不同的变压器和配电盘;变压器应能满足非线性负载使用要求;要求提供PDU和现场隔离变压器;配电系统不需要冗余;提供接地系统;数据中心接地干网不需要,但应满足设备制造商的接地要求;防雷保护应满足NFPA780相关规定; 电气T2级别

T2级别数据中心除满足T1要求外,还应满足如下要求:T2机房应提供N+1的UPS系统。提供发电机系统,其容量应满足所有数据中心负荷要求,备用发电机是不需要的。动力设备和配电设备不需要冗余设计。发电机和UPS系统测试时应提供模拟负载连接。重要的机房设备配电应提供集中地PDU配电。PDU出线应配置分支回路。两个冗余的PDU应由不同的UPS系统供电,并为同一IT配线架供电。单相或三相IT机架供电来源于两个不同的PDU,且双路电源可实现静态无间隙转换。双进线静态转换PDU供电来自不同的UPS系统,并可为单相或三相设备供电。颜色标示标准被用来区分A,B两路供电电缆。每个回路只能为一个配线架供电,防止单回路故障影响过多的配线架。为实现配电冗余,每个机架或机柜配电回路开关容量为20A,来源于不同的PDU或配电盘。满足NEMA L5-20R标准的工业自锁插座被要求应用于机架配电系统,同时配电开关容量应根据设备容量调整放大,并标明配电回路来源。机械设备配电不需要冗余设计。要求提供接地系统,接地电阻小于5欧姆。要求消防电力系统强切。电气T3级别

T3级别数据中心除满足T2要求外,还应满足如下要求:T3数据中心要求所有的机房设备配电、机械设备配电、配电路由、发电机、UPS等等提供N+1冗余,同时空调末端双电源配电,电缆和配电柜的维护或单点故障不影响设备运行。中高压系统至少双路供电,配置ATS,干式变压器,变压器在自然风冷状态下满足N+1或2N冗余,在线柴油机系统用于电力中断时电源供应。储油罐就近安装于厂区,并满足柴油机满载72小时运行。市电失电时通过ATS自动将油机系统电力接入主系统。

双供油泵系统可以手动和自动控制,配电来自不同电源。提供独立的冗余的日用油罐和供油管路系统,以确保故障或油路污染时仍能正常的为油机供油,不影响油机运行。油机应装备双启动器和双电池系统。ASTS用于PDU实现双路拓扑的配电体系用于重要IT负荷配电。设置中央电力监控系统用于监控所有主要的电力系统设备如主配电柜、主开关、发电机、UPS、ASTS、PDU、MCC、浪涌保护、机械系统等。另外需提供一套独立的可编程逻辑控制系统(PLC)用于机械系统的监控和运行管理,以提高系统的运行效率,同时一套冗余的服务器系统用来保证控制系统的稳定运行。电气T4级别

T4级别数据中心除满足T3数据中心要求外,还应满足如下要求:T4机房所有设备、系统、模块、路由等需设计成2(N+1)模式;所有进线和设备具有手动旁路以便于设备维护和故障时检修;在重要负荷不断电的情况下实现故障电源与待机电源的自动切换;电池监控系统可以实时监视电池的内阻、温度、故障等状态,以确保电池时刻处于良好的工作状态;机房设备维修通道必须与其他非重要设备维修通道隔离;建筑至少有两路电力或其他动力进线路由并相互备用。4.机械定级 机械T1级别

空调系统设置单台或多台空调设备集中制冷用来维持重要区域的温湿度,设备不需要冗余;如果空调系统采用水冷设备如冷冻水系统或冷却水系统,那么在满足设计条件的前提下,尽量采用相同规格的设备,设备不需要冗余;管路系统采用单回路系统,因此管路故障或维修时,将导致局部或全部的空调系统停机;如果有发电机系统,那么空调设备容量将被记入发电机容量内。机械T2级别

T2级别的数据中心空调系统是采用多台空调设备集中制冷来维持重要区域的温湿度控制要求;一般采用N+1的备用方式;如果采用水冷系统,相关设备需要采用相同规格,并提供额外1台设备用于备用;管路系统采用单回路系统,因此管路故障或维修时,将导致局部或全部的空调系统停机;机房空调系统应设计成全年365天,每周7天,每天24小时连续运行模式;机房空调至少采用N+1备用模式,同时每三台或四台设备要求至少提供一台备用;机房及其辅助区域相对于室外要求维持一定的正压;所有的空调设备配电容量应被记入发电机容量;为降低电气系统故障对空调系统的影响,空调设备供电尽量来源于多组配电盘的多条回路;温度控制系统配电应来源于UPS且提供冗余的备用电源;数据中心的送风形式应根据机架和服务器的排布来调整;空调机房设备应有充足的容量来抵消所有发热设备和热传导负荷,同时维持一定的机房湿度要求;设备的制冷量应基于KW而不是KVA计算,且设备由UPS供电;被处理的空气将通过安装了平衡风阀的穿孔高架地板送到设备处;发电机系统用来给UPS系统和其他机械设备提供电力;厂区内需安装储油罐系统,以满足额定工况下24小时发电机运行;需设计双路供油系统,且可以提供手自动控制,每路供油泵供电来源于独立的配电系统;设计冗余的和相互隔离的储油系统以保证油路污染或其他机械故障时不影响整个发电机系统的运行。机械T3级别

T3级别的数据中心空调系统是采用多台空调设备集中制冷来维持重要区域的温湿度控制要求;设备冗余的方式是允许单台配电盘故障时空调系统仍能满足制冷需求;如果空调系统采用水冷设备如冷冻水系统或冷却水系统,那么在满足设计条件的前提下,尽量采用相同规格的设备,设备冗余的方式是允许单台配电盘故障时空调系统仍能满足制冷需求;这个级别的冗余要求要求空调及其相关设备末端双回路供电;管路系统采用双回路路由,任何管路维护或故障时不会引起空调系统的中断;机房空调电源采用双回路供电,电源来自不同的配电系统;所有的机房空调容量需要记入发电机容量;数据中心制冷设备N+1,N+2,2N或2(N+1)的冗余方式都是可行的,前提是设备维护和故障时不影响正常的制冷要求;针对精密空调的安装数量,考虑到维护和备用的因数,精密空调冷却回路应尽量细化分组;如果使用了冷冻水或冷却水,每个数据中心应有专用的分支回路,并由独立的泵系统从主供水环路上引出;水环路应位于数据中心周边下夹层水槽中,以确保漏水被收集在水槽中,漏液侦测传感器安装于水槽中,检测管路漏水状态;应考虑冷冻水管路的冗余和充分隔离。机械T4级别

IDC机房布线标准 第6篇

1、电源线插头与服务器电源接头两端要标签扎带

2、如果一个机柜有内外网的交换机,尽量用两种不同颜色网线区分开来

3、柜子与柜子之间走线要从机柜顶端方向布线

4、连接服务器与交换机两端的网线头后端要标记同编号的扎带标签,且与交换机端口号编号一致

5、电源线与网线分机柜两边走线,每一小节要用扎带扎好

6、机柜服务器不能太多台叠加一起,要用挡板分离开来,有助维护与服务器散热稳定性

7、交换机要用配套耳朵固定在机柜顶端,有助于网线的走位

8、贴好每台服务器IP或者根据应用划分的标签

9、贴好每台服务器的资产号,通过标签打印机把资产号+条形码一起打出来,以后核实到IDC机房核实资产,可以通过条形码扫描仪扫描出来。每台设备打印两张一致的,设备前面贴一个,设备边上贴一个,由于编号是唯一性的,预防资产号丢失

10、核心交换机接到二层交换机的网线两端或者光纤要用扎带标签贴好,写上此端口连接到哪个机柜号哪个交换机哪个端口号,如:con-to-6-2-C3560-7

11、尽量不要在服务器贴IP地址,如:贴上应用标签,这样比较安全,一些托管商设备零散只能贴IP,交换机和防火墙不要贴上IP地址,写上内外网就行了,如:outside与inside

12、查看机柜下面空调挡风口闸门是否打开,以免设备过热死机

IDC机房直流供电探讨 第7篇

目前在全国通信运营商乃至全社会的IDC机房中, 服务器全部采用交流电源供电, 需要在IDC机房专门配置UPS电源, 由于可靠性要求的提高, 系统又广泛采用并机冗余、系统冗余 (即双总线系统) , 给运营商带来了巨大的投资压力和维护压力, 采用-48V直流电源供电可以全部或部分解决以上问题。本文将从可靠性、建设投资、运行成本、可操作性等几个方面进行综合比较, 分析采用直流电源供电的可行性。

一、可靠性

从单机可靠性来看, 根据通信行业标准YD/T1051《通信局 (站) 电源系统总技术要求》, 直流配电设备的MTBF (平均失效间隔时间) 要求不小于100万小时, 交流配电设备的MTBF仅要求不小于50万小时。高频开关整流设备的MTBF要求不小于5万小时, 而UPS单机的MTBF仅要求2万小时。

从系统可靠性看, UPS系统中仅有并机系统的并联主机之间、为双电源服务器供电的双总线系统的两套系统之间构成了冗余关系, UPS主机、蓄电池组、STS (静态切换开关) 之间均为串连关系, 总的可靠性是所有设备可靠性的乘积, 低于单个设备的可靠性。通常情况下UPS主机各带一组电池运行, 一旦主机发生故障, 该组蓄电池的后备作用立即消失, 系统后备时间立即缩短。在直流系统中, 整流器模块之间、蓄电池组之间都构成了并联冗余关系。按照通信电源设计规范, 整流器是每10台备用1台, 考虑到绝大部分时间蓄电池并不需要充电, 实际备用的整流器数量还要远远大于这个数量。直流系统蓄电池组不能发挥后备作用的外部因素, 只有蓄电池熔断器熔断 (可行性非常小) 一种情况, 除此以外直流系统所有蓄电池组都一直可以为直流系统提供后备。根据YD/T1051的要求, UPS系统的MTBF不小于10万小时;按照最低等级的要求, 直流系统的MTBF也要达到20万小时。

从故障修复时间来看, UPS系统设备结构复杂、型号众多, 运营商一般不具备维修能力, 一旦发生故障, 就只能退出系统, 等待厂家工程师到现场维修, 停机时间比较长, 此时系统已经没有备用机组, 运行存在较大风险。直流系统的开关整流器采用模块化结构, 通常每个运营单位所配置的型号也只有少量的几种, 可替换性非常好, 备用模块数量也比较多, 一旦整流器模块发生故障, 可以在非常短的时间内进行在线更换。

从可并联性来看, UPS电源需要电压、频率、相位三者都做到完全相同才能并联, 需要比较复杂的控制逻辑和器件, 而直流电源只需要做到电压相同就可并联, 非常容易实现。在并联控制功能失效时, UPS电源只能单机或单系统运行;而直流电源系统通常具有系统控制和模块控制两级电压调整单元, 系统监控模块失效时可以通过手动调整模块输出电压, 保证系统的正常运行。在UPS系统后期在线扩容时, 通常厂家会要求在旁路状态下进行并机调试, 通信设备运行存在较大的风险;而直流系统就完全没有这种风险。在对UPS系统进行改造时, 由于无法保证两套系统的同步, 对单电源设备而言, 只能按先断后接方式割接, 通信设备需要中断运行;而直流系统只需要做到电压、极性相同, 就可以把两套系统输出端连接到一起, 可以做到先接后断, 保证了通信设备的无间断运行。

从输出电源的品质来看, UPS输出电源存在交叉谐波污染, 污染的结果轻则造成设备误码、数率下降, 重则造成设备电源损坏, 设备宕机。反观直流电源, 不仅开关整流器配置有大容量的滤波电容, 蓄电池组本身也相当于一个容量巨大的滤波电容, 系统的输出纹波杂音始终处于比较低的水平。

从实际运营经验来看, 直流系统发生的故障很少, 原因也主要是交流输入中断;而UPS系统则频繁发生故障, 造成计费、灾备等重要系统瘫痪, 在历年的技术杂志和交流会上, 都多次见到类似的教训交流。

从以上分析可以看出, 直流系统的可靠性要高于UPS系统, 具有更高的运行稳定性。

二、工程投资

为满足设备的供电需要, UPS系统需要UPS主机、蓄电池组、输出配电柜这些基本配置, 还需要根据需要配置隔离变压器、谐波滤波器、STS、LBS (系统同步控制器) 等选件, 直流系统需要配置开关整流器、交流配电屏、直流配电屏, 下面就两种系统的单项投资进行分项比较:

1、主设备:

单套“1+1”并机的大型UPS主机价格和开关电源系统 (开关整流器、交流配电屏、直流配电屏) 接近, 如UPS系统采用两套并机系统组成双总线结构, 则UPS系统主机的价格是开关电源系统的两倍。

2、蓄电池组:

UPS蓄电池组需要经逆变器变换后再向设备供电, 存在变换损失, 直流系统蓄电池直接向负载供电, 对相同功率的负载供电, 直流系统配置的蓄电池容量较UPS系统要小6~9%。如UPS系统采用双总线结构, 则UPS系统配置的蓄电池容量还需要再增加一倍。

3、隔离变压器、STS、LBS:

只有UPS系统需要配置。

4、谐波滤波器:

6脉冲UPS主机的电流谐波含量在33%左右, 12脉冲UPS主机的电流谐波含量在14%左右, 有一些厂家的UPS主机配置了无源滤波器, 可以在特定状态下将谐波含量控制在5%以内, 但是运行状态发生变化 (比如启动油机供电) 时, 谐波又会出现明显的增加, 目前对UPS谐波抑制的有效办法还是另行配置有源滤波器。开关整流器的有源滤波器现在已经可以集成在三相整流器中, 输入电流谐波含量可以控制在5%以内, 并且设备的价格没有明显增加。

5、电缆投资:

一台UPS主机整流器输入电缆的投资与直流系统交流输入电缆投资相当, 冗余主机整流器输入电缆、 (主机、系统) 旁路电缆是UPS系统较直流系统净增加部分。因输出电压相差较大, UPS系统电池连接电缆和输出电缆截面要远远小于直流系统, 相差的程度取决于直流电缆的长度。

6、机房投资:

单套UPS系统与直流系统占地面积大致相同、机房投资大致相当, 如UPS采用双总线结构则投资需再增加一倍。

7、初期投资:

直流系统采用模块化结构, 可根据负载增加逐步增加整流器模块, 直流配电屏也可根据需要扩容, 初期投资较小;从安全性角度出发, UPS主机的和输出柜必须一次安装到位, 也就是说, 初期就要投入全部资金, 初期投资远比直流系统大。

总体上看, 只要合理规划机房平面, 就能有效减少直流输出电缆的截面和长度, 从而使直流系统的造价低于UPS系统。

三、运行成本

电源系统的运行成本主要包括电费成本、维修成本、人力成本三类成本, 各类成本的比较如下:

1、电费成本:

在设备耗电量一定的情况下, 影响电费成本的主要因素是系统的变换损耗和线路损耗。从系统变换损耗来看, 虽然目前主流的双变换式UPS厂家都宣称变换效率可以达到92%左右, 但这个测试结果是在较高负载率条件下测试出来的, 实际运行的情况是, “1+1”并机系统的单机负载率最大仅能达到40%、双总线系统的单机负载率最大仅能达到20%, 在系统负载未达到设计值前实际的单机负载率还要低于这个数值。此外, 为满足谐波抑制的要求, UPS主机前端通常还需要配置有源或无源滤波器, 这又会损失2%左右的转换效率。综合考虑以上因素后, UPS主机的能量转换效率通常只能达到50%~90%。开关整流器在40%~100%负载率时效率均可达到91%左右, 模块化结构的特点, 使整流器的负载率可以人为控制在经济范围内, 从而使系统保持较高的转换效率。输出线路损耗方面, 假设UPS系统和直流系统都按照按照设计规范配置电缆, UPS输出线路的能量损耗大约为2~4%/100m, -48V直流系统输出线路的能量损耗大约为2%/100m。因此, 直流系统的能量损耗低于UPS系统, 尤其在系统负载率较低时更为明显。

2、维修成本:

UPS系统本身设备较多, 双总线供电时设备数量还要再增加一倍以上, UPS主机、STS、LBS等设备故障率也相对较高, 通常情况下也只能由厂家工程师进行现场维修。直流系统设备数量和种类较少, 同时只有整流器模块易发生故障, 损坏模块可以由维护人员更换后送到厂家维修。UPS系统的维修成本要高于直流系统。

3、人力成本:

UPS系统设备种类和数量较直流系统多, 需要进行的检查测试比直流系统系统要多, 对维护人员技术素质的要求比直流系统要高, UPS系统的维护人力成本要高于直流系统。

从以上三项主要运行成本来看, 直流系统都要优于UPS系统。

四、采用直流电源的可能性

IDC机房采用直流供电, 除了运营商自身的充分认识和准备外, 还需要外部环境的配合, 包括服务器厂家大量推出直流供电的服务器、客户大量托管直流供电的服务器。

可喜的是, 近年来, 越来越多的服务器厂家已经意识到了采用直流电源的必要性, Intel联合一些主要的IA架构服务器生产商推出了SSIDPS标准, 市场上已经开始出现直流电源供电的服务器, 部分主流设备厂家已经可提供交流、直流两种供电方案供客户选择。从价格上看, 直流供电服务器价格与交流供电服务器价格相当。

作为推行直流供电的最后一环, 对客户进行必要的宣传引导是非常重要的。运营商的客户经理应当了解直流供电的优势, 并积极向客户进行宣传, 让客户在采购设备时有意识地采购直流供电的服务器。

五、结论

直流供电在可靠性、工程投资、运行成本方面具有非常明显的优势, 通信运营商作为IDC行业的领导者, 加强与服务器厂家和客户的合作, 就一定能推动IDC机房直流供电的发展, 产生巨大的经济效益和社会效益。

IDC机房装修数据中心机房模型介绍

IDC机房装修数据中心机房模型介绍(精选7篇)IDC机房装修数据中心机房模型介绍 第1篇1、数据中心机房模型介绍数据中心机房是为电子信息设...
点击下载文档文档内容为doc格式

声明:除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。如若本站内容侵犯了原著者的合法权益,可联系本站删除。

确认删除?
回到顶部