电脑桌面
添加盘古文库-分享文档发现价值到电脑桌面
安装后可以在桌面快捷访问

数据服务范文

来源:文库作者:开心麻花2025-09-191

数据服务范文(精选12篇)

数据服务 第1篇

水利数据中心为了给各级水行政管理部门、企事业单位和社会公众提供高效可靠的数据与服务,由国家、流域机构和省级节点组成分布式组织体系,共同开展对水利数据与服务管理,并为各种业务应用提供数据与服务支撑。

水利数据中心在开展数据与服务管理的过程中,需要解决长期管理的连续性、业务应用的灵活性和分布节点之间的一致性等问题,在有序高效管理的前提下,提供灵活多样且可扩展的应用支撑。

在以往水利信息化工作中,各级水行政管理单位和部门根据各种业务应用和管理需要分别开发和建设了水平参差不齐、相对分散的各种应用系统,部分解决了各自应用需求。随着应用深入发展,目前分散提供数据与服务应用服务已经严重制约了水利信息化的深入发展。主要体现在2个困难和2个亟待提高:1)水利数据共享困难。包括水利系统内各业务之间和与国家其他部门之间等。2)水利业务协同困难。包括业务服务的一致性、权威性及其之间的互操作性等。3)工作效率亟待提高。包括工作人员和水利行业整体工作效率等。4)服务水平亟待提高。包括系统内单位之间、面向社会公众单位与个人等。

1 水利数据中心建设目标

水利数据中心建设目标是通过对国家、流域和省(自治区、直辖市)级节点建设,按照事权分级管理原则,实现数据与服务的有序管理和协同应用,切实提高各级水行政主管部门及涉水事务的数据共享、业务协同、工作效率和服务水平。

水利数据中心建设至少应达成在全国范围内建成一个平台:水信息基础平台;二者共享:数据与服务;三位一体:影像、对象空间描述和属性数据;四多结合:分辨率、比例尺、数据源和多时相,平台应成为数据与服务的聚合场所、管理与决策的有效手段和业务及协同支撑的环境,实现数据与服务的“有序管理”与“应用多样”的有机结合。

2 水利数据中心建设范围和任务

2.1 建设范围

根据水利数据与服务应用管理分级特点,在满足分级管理与应用的需要,同时也切实提高系统管理效能和效率,水利数据中心近期建设应分国家、流域和省级共3级节点进行建设,统一支持国家、流域、省级、地级和县级等5级应用[1]。

2.2 建设任务

水利数据中心3级节点除事权范围不同外,技术构成基本相同,主要包括数据管理、服务与发布等功能,计算、存储与网络等硬件,水利数据中心机房及运维工作场所,以及技术标准与规范和管理规程及指标等,相互关系如图1所示。

管理、服务与发布等平台:主要包括支持对数据与服务,以及在服务基础上构建的应用和发布相应数据与服务信息,开展对数据与服务等进行管理和提供运行的软件平台,如数据管理、地理信息、工作流管理、身份认证及平台自身管理等系统。

计算、存储与网络等硬件:主要包括支持系统运行的计算、存储、网络及安全管理系统的硬件环境。

机房及运维工作场所:主要包括建筑物、供电、空调、机架等设备运行场所和运维人员所需的办公场所及必备维护设备等。

技术标准与规范制定:主要包括数据、服务等管理与运行的一系列技术标准与规范,确保聚合与对外服务有效。

管理规程及指标制定:主要包括与技术标准和规范相适应的一系列管理规程及指标,确保标准规范有效执行。

3 技术框架

3.1 数据模型

水利数据是水利管理对象所有关心维度特征描述的总和。随着水利管理业务的深入发展,被关注水利管理对象维度特征会不断增加,同时,不同类型水利管理对象被关注特征又存在巨大差异。保持水利数据语义一致性是水利数据中心数据管理的核心,至少包括对象在不同应用领域的一致性和对象特征描述的一致性,为此,采用面向对象为基础,实现水利管理对象空间特征和非空间属性,以及他们之间空间关系和业务管理关系的统一管理。所有关于水利管理对象数据采用非冗余策略对此进行有序管理,保障数据的连续性、一致性,以体现其稳定性和权威性。

为了提高水利数据中心对领域服务的效率和能力,根据管理类、业务类和公众类3种不同应用领域的应用需求,按照每个主题应用特点和数据加工分析方法,定时开展数据的提取工作,从而实现快速高效灵活服务于各种主题应用,达到提高服务效率和水平的目的。

3.2 对象分类

为了对水利数据管理对象的有序管理,实现不同系统之间所描述对象语义的一致性,有必要对所有水利数据对象进行分类,并以此制定对象代码编制规则。水利对象分类如表1所示。

其中,门类、大类和中类是相对固定的,不因小类的增加而变化,即任何1个对象仅将属于8个中类中的1类;另外,小类将根据管理对象的实际和需要进行扩展,当新对象不能归为所有小类中的任何一类时,可增加小类来满足对象分类管理需要[2]。

3.3 对象分级

水利数据中心管理涉及水利工程等对象的分级随相关行业或国家标准对该对象的分级方法和标准,如:大(一)型、大(二)型、中型、小(一)型和小(二)型等水利工程的分级标准[3]。

3.4 对象编码

对象编码的唯一目的是保障水利数据中心管理的水利数据对象在有序管理过程中的唯一性和语义的一致性。根据水利数据对象自然和非自然特性及与行政管理单位之间的管理关系,自然类对象编码宜采用“分类体系码+流域分区码+顺序编码”的方式统一对对象进行编码;非自然类对象初始编码可采用“分类体系码+行政区码+顺序编码”方式自行对对象进行编码[4]。

4 水利数据中心管理体制

4.1 服务模型

水利数据中心在数据和服务提供方面,主要以数据中心提供的标准化服务、其他客户提供的规范化服务和客户自身定制的个性化服务为主。在具体提供服务方式上,以“请求服务”模式,即客户从客户端提交服务请求,系统提供相应服务。

4.2 管理分工

水利数据中心维护对象属性数据分为2部分,即管理全局及局部对象基础数据和该部分对象被关注属性数据。前者由数据中心负责管理和维护,后者由相关业务部门负责管理和维护。水利数据中心负责全域数据的日常管理与维护及基础数据生产组织实施工作,各专业单位或部门在数据使用过程中自动完成对专业数据的生产和核实工作。

4.3 对象管理

水利数据中心负责涉水数据(服务)管理所需对象的管理,根据相关标准规范,维护一套对象编码、名称等名录系统,确保整个系统中对象的唯一和语义一致;各专业单位或部门负责新对象登记与管理实施。

涉水以外数据(服务)管理所需的对象,对象编码、名称及所属管理系统所赋予的编码和名称,水利数据中心统一收集转换、装载和维护,各专业单位和部门将直接引用。

5 结语

水利数据中心对水利数据的统一管理是大势所趋,势在必行,除了需要制定一系列标准规范外,还应制定相应的管理规定,将技术标准和规范落到实处;除了相关技术人员须开展大量的技术工作外,更重要的是要通过行政法规,将建设工作与管理制度落到实处,真正实现水利数据中心建设的预期目标。

摘要:采用面向对象的数据模型,通过对水利信息载体的有序管理,实现对水利数据长期管理的连续性;通过对各应用主题信息的再组织,提供业务应用的灵活性;通过数据交换技术与管理制度的建设,保持分布节点之间对象及其维度数据的一致性。采取有效技术规范和管理制度,实现水利数据中心数据与服务管理的长期有效、灵活多样和协调一致。

关键词:水利,数据中心,数据,服务,管理,研究

参考文献

[1]水利部水资源司.省级水资源管理信息系统建设基本技术要求[S].北京:水利部水资源司,2009:5.

[2]水利信息中心,北京吉威数源信息技术有限公司.第一次全国水利普查空间数据模型设计书[S].北京:水利信息中心,2012:12.

[3]水利部长江水利委员会长江勘测规划设计研究院.SL252-2000水利水电工程等级划分及洪水标准[S].北京:中国水利水电出版社,2000.

强化“数据”监督 助力审批服务 第2篇

助力审批服务

武安市行政审批局紧紧围绕深化“三创四建”活动,主动结合市纪委监委,成功打造了智慧政务监督平台,该平台将行政审批局和入驻到市民服务中心单位的所有政务服务数据信息纳入到监督范围内,形成了以实时监测系统、提醒预警系统、统计分析系统、跟踪问效系统等为主的“大数据”平台。自七月份平台运行以来已累计汇聚各类数据21519条,通过对这些数据的监测、分析、运用,及时采取相应措施,有力促进了政务服务效能的提升。

——实时监测进度,确保了限时办结。依托监督平台,重点围绕办理频次高、关注度高的审批服务事项,从受理到审批,每个环节的办理人、办结时限、提交的信息材料全部精准记录、精确呈现,实现业务审批环节全过程网上留痕。结合市纪委监委,通过专门的监察账号,随时监测正在办理事项的进展情况,对比监督平台上的权力清单模块,按照承诺的时限,及时给予提醒预警,确保限时办结率达到了100%。

——精准掌握需求,推进了资源合理配置。按照疫情防控和经济社会发展“两不误、两促进”的要求,通过数据分析,梳理出193项与群众生产生活密切相关的事项,实行周末“不打烊”照常办。同时,为精准掌握企业和群众日常办事需求,大力推行“不见面”、“少接触”的办事服务,安排业务骨干人员利用监督平台远程视频、通话的功能为群众的业务咨询进行面对面沟通、精细化指导,引导企业和群众通过“网上办”、“远程办”、“预约办”的方式进行受理办理。对于企业、群众的特殊化、个性化需求、逐一记录在帮办管家服务卡上,由主办业务科室,安排专人提供全程保姆式服务。对申请人办理的需要现场踏勘事项的业务进行分类汇总,提前介入,实行集中勘验,最大限度优化资源配置,提升了审批服务效能。

——及时分析研判,促进了审批流程优化。通过对监督平台每周受理业务数据研判分析,结合各业务科室,对平台的高频事项一一比对研讨,对审批链条上的多个事项进行优化重组,申报材料能合尽合,减少重复填写、重复提交,最大限度减少办事环节,压缩审批时间,精简办件材料,探索行之有效的审批机制,在企业开办、工程建设、民生琐事三大领域实现了审批效率的新突破。企业开办上,实现了企业注册登记、公章刻制、税务发票和税控设备申领、企业用工社保登记四项业务“一网通办、全程网办”,将企业开办时间压缩至一个工作日;工程项目建设上,深化审批制度改革,将工程建设项目审批划分为立项、施工、竣工验收三个阶段,实行容缺受理,并行并联审批,推出“清单告知、全程帮办”的全链条管家式服务,使工程建设项目全流程审批由原来最少120个工作日压缩至最多80个工作日;民生琐事上,推行“百事通”,一事一清单,群众只管进门说事儿,即可到期领证,其它所有事项均可交给工作人员打包办理。一系列便民措施将全部事项累计减少申请材料394项,审批时限从5401天压减至1782天,压减率67%;实现了审批服务效率的进一步优化。

——全面跟踪问效,倒逼了服务质量提升。依托监督平台,采取了多种手段,全面跟踪问效,将审批服务置于阳光下运行。一是健全了“好差评”机制。在落实好全省统一“好差评”事项的基础上,自主研发了手机微信端“好差评”评价渠道,将“好差评”覆盖了大厅内所有审批服务事项上,办事群众通过微信扫一扫每个窗口张贴的二维码,即可完成评价。为避免“刷好评”等虚假评价问题的出现,平台通过控制扫码次数、限制评价范围、追溯评价人等有效技术手段打造全流程“闭环机制”。二是拓展“好差评”评价渠道。通过发放调查问卷,定期与企业群众座谈交流,下基层征求服务对象意见等多种形式,广泛获取企业和群众对审批服务的意见建议。三是跟踪回访。市纪委监委对所有审批办结事项全面介入,随即电话跟踪回访,进一步了解掌握企业和群众的真实评价,截至11月6日已累计收录“好差评”评价数据14979条,回访服务对象6592人次,有效采纳意见和建议25条,督促整改各类问题21项,倒逼了审批服务质量的提升。

武安市行政审批局

数据服务 第3篇

关键字:大数据;数据仓库;教育决策

中图分类号:TP393 文献标志码:A 文章编号:1673-8454(2015)01-0014-02

一、教育的大数据时代

在大数据的时代,各行各业都在谈大数据,它的影响辐射各行各业,并且已经开始在信息产业、交通运输、医疗卫生、食品安全等领域中发挥出重要作用。与此同时,作为面向社会公众的教育行业,无论从教育数据资源的情况,还是对大数据的分析应用需求看,亦进入了大数据时代。

教育管理信息化是《国家中长期教育改革和发展规划纲要(2010-2020年)》和《教育信息化十年发展规划(2011-2020年)》所确定的教育信息化建设核心任务之一,对支持教育宏观决策、加强教育监管、提高各级教育行政部门和学校的管理水平、全面提升教育公共服务能力具有不可或缺的重要作用。教育改革发展涉及面广、难度大,越来越需要准确全面的数据分析和服务作为教育科学决策的支撑。建设国家教育管理信息系统,就是建立涵盖学生、教师、学校资产及办学条件的教育管理信息系统和基础数据库,并以此为基础建立数据分析与科学预测的教育决策服务系统,已成为支持教育改革与宏观决策的现实需求。国家教育管理信息系统的建设,也为教育大数据的积累奠定了基础。

二、教育大数据仓库与数据服务支撑平台

教育大数据仓库与数据服务支撑平台是基于教育服务与监管基本宗旨,统筹考虑教育事业全局,以适应大数据时代教育数据新特征和支撑教育监管和决策的数据分析为出发点,集成大数据思路和传统数据仓库架构,构建纵向覆盖各级教育机构,横向覆盖教育各业务领域的、统一的教育数据信息资源中心,将合适的教育数据资源及时、有效地提供给合适的教育管理、决策者进行教育主题研究分析、评价和预测,促进教育监管与决策更加合理性、准确性、科学化以及智能化,服务于教育事业的改革创新,支撑教育事业智慧化的发展趋势。

1.总体架构

平台的总体架构以教育系统全局为视角,以应用为驱动,基于SOA的理念,运用柔性架构设计思想和分层体系架构,以“满足当前应用、扩展未来需求”为目标,综合考虑大数据时代下新的技术思路和传统数据仓库的优势,采用组件化、服务化的方式,灵活适应功能、分析内容的动态追加和变更,满足系统未来变化的需要。架构的主要内容以及相互之间的逻辑关系如图1所示。

2.主要内容

(1)数据集成整合系统:是将各种数据源中的各种类型的数据按照教育数据资源中心的数据规范要求进行清洗、转换等操作,将符合教育数据资源标准体系要求的数据整合、加载到教育数据资源中心,为后续的统计、分析、挖掘业务提供高质量、规范化的数据资源;

(2)数据管控系统:是对数据资源的集中管控,保证数据的准确性、完备性和安全性。主要建设元数据管理、数据质量管理和数据安全管理,从而达到对教育数据资源中心中数据的管控;

(3)数据治理体系:是对教育数据资产管理行使权力和控制的活动集合,是建立教育数据管理制度、指导教育系统执行数据规划、数据环境建设、数据安全管理、元数据管理、数据质量管理等其他数据管理活动的持续改进过程和管控机制;

(4)数据服务调度管理系统:是整个平台的“发动机”,以教育管理各级行政单位、各级各类学校、科研院所以及社会公众等不同团体在监管、决策、研究分析以及公众数据服务等应用为驱动,将教育数据资源中心数据按照一定的规则,运用合适的智能分析技术,以组件化、模块化、服务性的方式及时、准确、合理地推送给数据分析应用中心,从而直观、友好地展现给不同的监管者、决策者、研究分析人员以及社会公众;

(5)智能分析系统:主要是利用教育数据资源中的数据,通过即席查询、统计报表、多维查询、数据挖掘等技术手段,进行多种教育主题的综合分析以及通过大量数据信息挖掘潜在信息,实现教育的评价与预测等,然后以一种合适的、直观可视化的、有好的方式及时、准确地提供给相关教育监管、决策、研究分析人员以及社会公众,从而实现教育监管、决策以及研究分析的科学化、智能化。

3.预期目标

(1)汇集不同来源的各种教育数据资源,建立起统一、规范的教育数据信息视图,形成覆盖教育各领域的、综合的、面向各种教育主题的教育数据资源中心,实现统一的教育数据管控、治理机制;

(2)形成面向不同主体的、特定领域的教育应用主题的数据集合,按照不同的教育主题进行组织、汇总、管理数据,满足政府(教育行政单位及国家其他行政单位)、学校、社会公众、国际教育团体等不同教育数据应用主体对数据进行分析解读、评价和预测的需求;

(3)建立柔性化的分析性数据应用服务的统一出口,通过灵活的组件化方式,将特定的数据集以合适的数据展示形式及时地、直观地提供给各种不同的教育数据应用领域,满足教育监管与决策的数据服务需求;

(4)建立国家、省两级教育大数据仓库与数据服务支撑平台体系,既实现不同教育级别不同类型教育数据资源的整合与集成,同时又能够满足国家和省级不同的应用需求;

(5)构建一套全面的、标准化的、可操作性的教育数据资源服务保障体系,形成一种长久有效的教育数据资源服务保障机制,可持续性地为教育监管与决策服务。

总之,国家教育大数据仓库和数据服务平台的建设实施,将全面、有效地支撑各级各类教育数据资源的分析,并且使教育监管与决策智能化的能力得到逐步提升。

三、结语

当今各行各业都在大谈大数据的时代,大数据的开发应用已经被许多国家提到国家战略的高度来进行研究。今年初李克强总理所做的政府工作报告中明确提出要设立新兴产业创业创新平台,在大数据等方面赶超先进,引领未来产业发展。作为国家公共管理部门,教育如何适应大数据时代,并利用大数据的开发应用推动教育事业的发展、改革与创新,支撑教育事业智慧化的发展趋势,是当前所有教育同仁共同思考的话题。并且随着国家教育信息化战略的实施,大数据的开发应用需求更加迫切,所以我们应当适应大数据潮流,把握机遇,充分利用大数据,结合教育信息化建设现状,构建教育大数据资源中心,有效支撑教育的监管和决策,推动教育的智慧化,从而实现教育的变革。

参考文献:

[1]张春艳.大数据时代的公共安全治理[J].国家行政学院学报,2014(9).

[2]沈菲飞.基于数据仓库的高校学生管理预警与支持系统[J].巢湖学院学报,2007,9(5).

[3](英)Viktor,Kenneth著,盛杨艳,周涛译.大数据时代-生活、工作与工作思维的大变革[M].浙江:浙江人民出版社,2013.

[4]韩蕊.大数据让数据仓库更具有价值[J].互联网周刊,2014(3).

[5]俞燕萍,丁荣涛.基于数据仓库技术的学生就业趋势分析系统设计[J].中国科技信息,2008(7).

数据服务 第4篇

关键词:机动作战,信息服务,大数据,决策

机动作战是以本部建制内的步兵、坦克兵、炮兵等力量为主体,并得到跨建制、超常规加强和支援的诸军兵种联合进行的战斗行动,主要表现为以精锐作战力量在较短的时间内,以中、小规模作战达成战役战略目的,战斗样式将随着作战对象、地形、任务及作战进程的变化而变化。在机动环境下,机动用户的信息服务和固定环境下的信息服务不同,必须考虑位置相关因素、时效性相关因素和用户行为特征等,才能符合机动作战瞬息万变的战场形态。整个机动作战战场的信息,将通过一体化的机动信息服务保障手段,形成全天候、立体化、多种手段并举的综合一体化战场信息网,为机动作战中的各机动用户提供信息服务。

信息化作战条件下,战场数据具有明显的大数据特征,因此机动信息服务系统中的指挥信息系统模块不仅应具有数据汇聚整编的能力,更需要具备生成决策支持数据的能力,为作战决策注入新的活力。战略信息与战役信息、战术信息密切相连,难以明确区分其层次,许多战术行动直接决定战略、战役行动的成败,这就要求将战略、战役和战术信息结合在一起,实现一体化的信息服务保障体系,形成战场信息资源共享。如何把握大数据的特点规律,对海量多元基础属性数据和动态目标数据进行深度挖掘,综合生成高价值、集约化的决策支持数据,从而有效辅助作战决策,是我军机动信息服务系统中信息内容模式研究需要解决的一个重要课题。

1 大数据环境下机动信息服务系统指挥信息决策支持数据需求分析

信息化条件下的作战体系是一个开放的复杂巨系统,由于信息技术的飞速发展和广泛应用,作战体系运转将涉及越来越多的各种信息资源,因此,与大型企业的经营管理类似,大数据已成为信息化条件下联合作战不可回避的问题,换言之,大数据环境是基于信息系统体系作战必须适应的环境。大数据环境下,依托机动信息服务系统这一主要指挥手段进行作战筹划时,首先需要解决面向指挥者尤其面向指挥员提供什么样数据的问题,也就是决策支持数据的需求问题。

首先,决策支持数据应该符合知识管理的DIKW模型,即数据(Data)、信息(Information)、知识(Knowledge)、智慧(Wisdom)。数据D在本文中探讨了一个单独立作战目标的事实、信息、知识;信息I则是有意义的数据,或者是有序的数据,信息是通过对数据的“关联、分类、计算、纠正、提炼”等获得的;知识K是有用的信息,通常是通过对信息采取“比较、推理、关联、交谈”等方式获得的;智慧W是集体或个体,运用知识解决问题的经验,表现为概念、经验和洞察力,在对知识理解的基础上对知识进行运用。这也是知识的产生、评估和使用的基本框架。可见,决策支持数据的获取,应该是从数据D中获得信息I,并基于智慧W获取知识K的过程。因此,决策支持数据是基于底层数据所获取的高层“知识”。

其次,决策支持数据应该具备以下3个特点。

1.1 集约化程度高

决策的关键是要达成及时性和科学性。决策支持数据的目的性应该高度聚焦,信息量应该十分丰富,并且还能蕴含高价值的知识和认知,这样才能为指挥者直接、快速、集中和有效地利用。反之,如果提供的决策支持数据是粗放的、离散的,有明显的冗余甚至有偏差,将会使指挥者陷入迷惑从而迟滞决策,甚至严重干扰正确决策。大数据方法能够以新的方式处理各部门各系统分散存在的海量数据,更多的是依赖于数据的相关性分析而不是数据间特性的因果分析实现集约化处理,因此,指挥者借助大数据方法和手段得到的决策支持数据,可直接、集中、准确地发现“威胁有哪些”“最高程度威胁是什么”“我方优势是什么”等信息和知识,从而快速作出正确决策。

1.2 精确性高

信息化条件下作战,要求实施精确的作战运筹,在最短的时间内以最低的代价达成最佳的战场控制效果。这需要准确而详细地掌握各作战目标信息,掌握我参战兵力的空间信息和兵器使用的空间要求,从而精确把握作战时机,运用相应的作战力量,对选定目标实施精确打击。通过大数据的特征知识挖掘技术,包括基于云计算的大数据挖掘技术、高扩展的数据分析技术、大数据并行计算框架技术等,可以高效准确地处理各种数据,从中得到精确的决策支持数据,缩短决策周期,提高指挥速度,加快作战进程。

1.3 时效性强

信息化条件作战,战场实现了网络化、一体化,信息可实时获取、传输、处理和利用,战场态势瞬息万变。数据处理越及时,其价值就越大,发挥的效能就越好,就能在快速变化的战场态势中赢得先机。如何从种类繁多、价值密度低的基础属性数据和动态情况数据中实时地提炼出系统所需的决策支持数据,是制约整个作战辅助决策系统效率的瓶颈。

2 运用大数据技术,生成智能决策支持数据

2.1 基于数据仓库、联机分析处理与数据挖掘的决策支持数据生成模式

联机分析处理、数据仓库、数据挖掘都是大数据模式下的决策支持数据生成技术,他们有各自的辅助决策方式。在线分析处理,决策支持数据仓库,以提供、存储大量数据和决策支持,适用于各种不同的用户趋势分析,它可以提供一种多维数据分析,随机的数据挖掘查询和其他信息被用来进行活化,是要找到的信息和知识的决策给用户的隐式数据。一个大型数据环境在线分析处理,需要整合数据挖掘技术与数据仓库,能够形成一种新的决策支持数据生成模式,其结构如图1所示。

2.2 基于大数据融合技术,生成精准的目标属性数据

目标属性数据是决策支持数据的重要组成。目标属性包括目标的当前位置、状态、威胁程度等。基于大数据融合技术,可以生成决策所需的目标属性数据。

2.2.1 目标状态属性数据的生成

由于复杂的外部环境和传感器自身的局限性,对于目标信息的处理过程面临着多种不确定性,如信息监测传感器的不确定性引起的随机误差;虚警或者其他目标测量不确定度等客观来源造成的误差;不确定性移动目标;不确定性造成通信延迟等。只有解决这些不确定性问题,才能进行目标状态的融合估计,选择相应的解决方案,包括数据关联,滤波算法和机动目标建模。

(1)相关数据是根据与其他测量单个传感器之间的关系的数据的度量来确定是否与所述其他数据处理相同的源(或目标事件)。发现了目标跟踪处理,数据关联过程将已知目标航迹预测与候选回波进行比较,并进行跟踪观察。

(2)过滤和预测的目的、目标位置、速度、当前状态和未来的目标周期,如对加速度进行评价。维纳滤波、最小二乘滤波器、α-β滤波器、α-β-γ滤波器和用于过滤卡尔曼滤波器基本方法。据此以确定过滤算法预先掌握初步信息的多少。目前的做法通常是用卡尔曼滤波器工程直角坐标系来确定。

(3)目标模型描述了在数学模型的运动目标状态的变化。跟踪机动目标的主要问题是要建立一个未知的目标加速度模型。此问题由两部分组成:第一,随机过程机动的目标特征的特点,该过程为白色;第二,机动加速度的特定概率密度函数。

2.2.2 目标身份属性数据的生成

多传感器目标基于融合的目标身份识别是对于来自多传感器的身份说明或者与身份相关的参数将为了得到联合估计身份稠合。目标是地理位置分散、辐射到目标或者可以肯定的武器平台(如作战单位等)。数据参数数据或传感器相关判定识别的属性,如红外或可见光谱中,属性的数据身份是指同一性之间的敌我识别的直接输出被测量和突发成像数据、数据雷达反射截面(Radar Cross Section,RCS)等。目标融合的身份属性可以使用以下3种算法:基于认识的模型、基于特征的推理技术、基于物理模型。基于特征的推理技术,包括经典的推理、贝叶斯和DS证据推理方法。基于认识的模型包括逻辑模板、基于知识的(专家)系统、模糊集理论等。

2.3 基于大数据挖掘的舰艇编队对空防御决策支持数据生成模型示例

决策支持数据的生成可以采用各种不同的大数据实现技术,其中,基于神经网络专家系统的智能决策支持既充分发挥了以模型计算为核心的定量分析问题的特点,又发挥了专家系统以知识推理形式解决定性分析问题的特点,充分做到定性分析和定量分析的有机结合。运用该结构可生成舰艇编队对空防御的决策支持数据。

例如,某舰艇编队对空防御决策支持系统可以采用以专家系统知识库、推理机、数据库、模型库为主体的智能决策数据生成模型。具体如下:

(1)知识库中的知识表示采用产生式系统的规则表示,事实库中的每一个事实均以对象、属性、价值、重量来表示,表达了他的信心。事实上,即在每个节点(推理树)的树知识的所有节点可以分为叶节点(节点证明),它实际上是基于以下事实得出结论库中间节点(中间假设)的事实和神经元之间的知识嵌入在神经网络(重量)中的黏结强度。

(2)推理引擎是基本的信息处理的神经元。这是基于多重链路点对点协议(Multi-Link ppp,MP)中数值方法的模型。神经网络有成熟的学习算法。有关使用的算法和模型的详细信息,基本上都是基于使用delta规则感知器和Hebb规则。

(3)该数据库是由来自基础数据库动态和静态数据组成。预先输入的,由主库和该库参数制备武器固定数据库来存储数据,也被称为基本数据库配置;动态数据库用于存储战场实时数据。

(4)舰艇编队防空模型库模型主要分为3类:第一类是知识模型结叶树,如大量的图表图形模型;第二类是决策模型,如方向形成机理模型分析模型、资源分配和对空作战模型等;第三类是优化模型。

3 依托大数据环境,构建机动信息服务系统中指挥信息决策支持的“数据云”服务平台

机动信息服务系统辅助决策单元的数据源是海量、复杂的,而决策支持所需的数据具有高价值、精简、高效等特性,因此,必须采用一种与之相适应的高效计算平台。

云计算是分析和处理大数据的强力平台,是成本最低、效率最高、利用率最大的大数据处理方式。可以通过云平台统一管理作战过程中的源数据,并采取大规模的分布式处理方式来提高计算效率。因此,在大数据环境下,以云服务的方式搭建平台是快速有效获取机动信息服务系统决策支持所需数据、提高决策效率的关键。

3.1 机动信息服务系统云服务平台的特点

安全、高效、可靠的导航信息服务体系是建立一个平台、云服务和运行的基本要求。在云服务平台建设之初,首先,应根据“云机动信息服务系统”的客户群体数量、资源需求、云计算资源利用率,峰值云资源和服务,传统的云安全威胁和安全需求评估的系统,选择合适的对象和云服务的比例,从而保证云服务平台具有最优的资源配置与响应速度。其次,应当准确地预测云服务模型的未来发展和对扩充和系统接口保留用于未来的资源需求,云服务基础设施,平台和应用软件单元的云的膨胀方向。第三,加强对机动信息服务系统云服务平台可用性和业务数据流的安全防护功能的评估,为传统的决策支持系统与数据安全、高效地迁移至云计算环境提供理论依据。第四,保护好机动信息服务系统的云数据管理系统、业务和用户信息、领导和机密数据等基本数据,以确定云服务的安全浏览用户信息,保密性和可靠性的服务体系并没有中断。因此,在不降低云系统的效率前提下,提高操作应用水平、系统服务、数据服务和用户加密认证的水平,以确保声音管理易于控制和使用,是提高平台、云服务的安全性的重点。

3.2 高性能机动信息服务系统和云服务平台系统的构建策略

该云服务平台使用活动以确定科学的设计平台的效率和可靠性。首先,必须操纵信息服务系统,其特征是制定了详细而完整的设计平台服务。硬件和软件应用云计算、安全系统和功能、调整结构覆盖等操作符合技术标准的云计算和云系统架构规范,且易于实现。其次,增加了硬件来提高在云服务平台系统的应用程序和服务的前提下云平台的密度,增强云应用软件的兼容性、可靠性、可扩展性、工作能力以及云应用的建设,减少维护和升级平台的成本。第三,在云服务运营平台的设计中,应加强资源平台的云基础架构、系统资源、存储管理和云应用,以数据管理和服务交付资源的云业务的统一实施和管理流程为导向,提高云平台效率和服务质量。第四,云服务平台在建设和功能实现过程中,应加强平台云服务功能可控性和云应用程序设计的灵活性,不断增加云系统底层结构的透明度。

总之,云服务平台消除了多系统的应用存在的分散数据存储、浪费存储资源、管理不善、对交叉数据分析困难的问题。通过提供标准统一的数据收集接口,机动信息服务系统云服务平台能够收集各机动信息服务系统中的结构化和非结构化的数据,并且将数据进行统一存储和管理,不需要自己搭建复杂的计算集群即可获取高价值的机动信息服务系统决策支持数据。

4 结语

数据服务 第5篇

随着局域网客户机的不断增多,原有的DHCP服务器不能满足局域网的需要。更换新的DHCP服务器算是一种比较好的解决办法,但需要重新配置新的DHCP服务器,工作量极大。针对这一情况,小胖打算将原来的DHCP服务器数据库移植到新的DHCP服务器中,这样可以减轻配置新DHCP服务器时的工作量,不用重新配置IP地址段和某些特殊的DHCP设置。

不同Windows服务器平台的DHCP服务器之间的数据库移植的方法也各不相同。有基于Windows Server (简称Windows 2003)的DHCP服务器数据库移植方法,也有基于Windows Server和Windows 2003间的DHCP服务器数据库移植方法。现在,让我们来看看小胖是如何运用这些方法的。

1.Windows 2003间的移植

如果要将一台Windows 2003系统的DHCP服务器中的数据库移植到另一台Windows 2003系统的DHCP服务器中,使用NETSH命令就能轻松完成。

第一步:在原来的DHCP服务器中,进入“命令提示符”窗口,运行“netsh dhcp server export c:dhcp.txt all”命令,将DHCP服务器中的数据库备份到C盘的“dhcp.txt”文件中。

第二步:将“dhcp.txt”备份文件拷贝到新的DHCP服务器的c盘根目录下,在“命令提示符”窗口中运行“netsh dhcp server import c:dhcp.txt all”命令即可完成DHCP服务器数据库的移植。

2.Windows 2000 Server和Windows 2003间的移植

Windows 2000 Server和Windows 2003间的DHCP服务器数据库移植,必须借助工具“Dhcpexim.exe”(下载地址:www.microsoft.com/windows2000/techinfo/reskit/tools/new/dhcpexim-o.asp)来完成,

第一步:在Windows 2000 Server中停止DHCP服务。

第二步:压缩DHCP数据库。在Windows 2000 Server的“命令提示符”窗口中运行“cd %systemroot%system32dhcp”命令,进入DHCP数据库所在的目录,接着运行“jetpack dhcp.mdb temp.mdb”命令,完成对“dhcp.mdb”的压缩。

第三步:导出DHCP数据库。运行“Dhcpexim.exe”,在欢迎对话框中选中“Export configuration”,点击“OK”按钮,接着弹出保存导出文件对话框,为导出的文件指定路径并取名(如“dhcpdatabase.txt”),点击“保存”按钮。在导出的范围对话框中,选中“Disable the selected scopes on”,点击“Export”按钮,完成导出操作。

第四步:移植DHCP数据库。将dhcpdatabase.txt文件拷贝到Windows 2003服务器C盘根目录下,在“命令提示符”窗口中运行“netsh dhcp server import c:dhcpdatabase.txt all”命令就可完成DHCP数据库的移植。

数据服务 第6篇

关键词 科学数据共享 国际科学数据服务平台 共享研究

分类号 G250.73

Abstract This paper introduces the scientific data sharing status at home and abroad, analyzes the basic elements of the scientific data sharing, including the resource elements, the protection of intellectual property rights elements, the shared schema elements, sharing and management mechanism elements. Further more, it presents the International Scientific Data Service Platform, analyzes its data resources, protection of the intellectual property rights, sharing mode, service contents, and browsing method.

Keywords Scientific data sharing. International scientific data service platform. Research of the Sharing.

科学数据是指在科技活动(实验、观测、检测、调查、研究等)中或通过其它的方式所获取的反映客观世界的本质、特征、变化规律等的原始基本数据,以及根据不同科技活动需要,进行系统加工整理的各类数据集[1]。科学数据集科学价值和使用价值于一体,并对于科技创新的发展产生了深远的意义。科学数据资源具有准确性、可靠性、非排它性、可无限复制等特点。这些特点和其重要性使科学数据的共享成为必然,只有让科学数据得到共享,才能实现其价值的最大化,同时,又通过科学数据的共享这一过程,发展出更高层次的科学数据,这是一个逐级递进的过程,最终为社会的发展贡献力量。

1 国内外科学数据共享现状

1.1 国外科学数据共享现状

20世纪40年代,国外的科学数据共享方面的研究开始起步,在20世纪80年代得到发展,在欧洲、英国、法国、德国、荷兰和瑞典等国家非常重视数据管理与共享,美国是科学数据共享的倡导者。1975年,美国开发了177个大型数据库,主要服务目标是政府决策和政府启动的重大科研项目[2]。欧盟数据库法律保护指令、英国布加勒斯特宣言和《信息自由法》等,在科学数据的产权归属、共享管理和开发利用等方面均有明确的规定,以保障科学数据共享活动的有序开展。

国际科学数据委员会(CODATA)于1966年成立,是全球最大的科技数据国际学术组织,其宗旨是推动科技数据应用、发展数据科学、促进科学研究、造福人类社会[3]。美国建立了美国航空航天局(NASA)分布式最活跃数据档案中心群(DAACs);日本产业技术综合研究所(AIST)科学数据公开数据库拥有70个主题数据库,全部数据库通过网络提供免费服务,服务于科研机构,也服务于一般工业企业[4]。2007 年3 月,英国发布了研究报告《发展英国科研与创新信息化基础设施》,提出数据资源数字化长期保存与共享建设规划,重点要建立大规模的国家科学数据中心[5]。

1.2 国内科学数据共享现状

我国的科学数据共享工作起步比较晚,2001年底我国科学数据共享工程启动气象科学数据共享试点,在资源环境、农业、人口与健康、基础与前沿等领域共24个部门开展了科学数据共享工作,已经启动了9个科学数据共享试点,开展了科学数据共享政策法规和技术标准体系的调研工作。先后完成了23项具体标准的编制以及一批管理办法;整合共享了跨部门跨领域超过250亿元国家投入产生的数据资源,建立了若干数据库;积极开展数据共享服务,为科学研究、政府决策提供了坚实的支撑,成效显著[6]。但是与发达国家比起来存在很大的差距,主要有:科学数据共享意识不强,目前科学数据共享工程试点的共享数据多为国家经费资助下科技活动形成的数据,各科研单位主动积极共享意识不强;相关的科学数据共享标准及技术规范没有统一的规定;科学数据类型集中于海洋、地理等少数学科领域。

2 科学数据共享基本要素分析

美国国家卫生研究院(NIH)要求申请资金超过50万美元的项目必须提供数据共享计划或者说明不共享的理由。并且,NIH通过分级方式共享数据,包括可公开获取的数据、通过协议获取的数据和限制使用的“冷冻数据”[7]。据调查显示,科研人员共享电子数据和使用他人数据的意愿都不高,主要因素有:没时间、没资金、没权利、缺标准以及资助者无要求等[8]。科学数据的共享最基本的是要有相关的科学数据,也即资源的来源,而共享工作的开展必然要面对科学数据的知识产权保护问题,其次要根据不同的情况选择不同的共享模式来开展共享活动,共享活动的有序、稳定的开展需要相对应的共享管理机制的保障,所以资源来源、知识产权保护、共享模式以及共享管理机制这四大要素构成了科学数据共享活动的基本要素,它们之间相互联系,缺一不可。

2.1 资源来源

科学数据指在科技活动过程中产生的原始数据,所以资源的来源就是科研活动过程,资源的内容主要有两种:一种是本单位或机构内科研活动过程中产生的数据,二是收集其他单位或研究机构的科研数据。本机构的科学数据,主要是来自于本机构研究人员的自愿自主提交以及数据服务人员提供咨询帮助,如中国气象科学数据共享服务网的科学数据来自于国内卫星通讯系统、全球通信系统收集的全球和国内各类实时和非实时的气象观探测资料[9];第二种主要是与政府机构、科研机构、高校等部门合作,提供途径鼓励这些机构的研究人员同意将他们的相关数据整合到数据中心共享.如基础科学数据共享工程整合中国科学院在物理、化学、天文、空间与生物领域20多个研究所长期以来的基础数据,同时,重点整合国防科工委下属的中国工程物理研究院、中国原子能科学研究院在核物理与原子分子物理方面基础数据,整合国家林业局所属青海湖国家级自然保护区多年来在青海湖区域监测与观测数据[10]。

nlc202309040905

2.2 知识产权保护

数据的共享首先要考虑的就是其所涉及到的知识产权问题。科学数据共享中的知识产权主要体现为科学数据的版权,版权就是著作权, 是指文学、艺术、科学作品的作者对其作品享有的权利, 包括财产权、人身权[11]。科学数据凝聚了数据开发人的智力劳动,是创造性的劳动成果,同样受版权法保护,具有重大的价值。实施科学数据共享是我国面对全球信息化和知识经济的发展,开展自主创新、建设创新型国家的必然要求[12]。刘闯认为通过数据库共享服务平台进行有偿数据服务而获得的收益,在数据库制作者和相关数据创造者之间按照合同约定进行分配,如无合同约定的自行协商解决[13]。

《全球变化研究数据管理政策声明》提出“联邦政府资助的科学数据,即公共性、基础性的国有数据,必须在没有歧视的基础上以不超过复制和发行成本的费用无限制地使用”[14]。科学数据的开发与获得需要责任人付出巨大的努力,包括精力、时间、金钱上的,不仅仅是数据开发人,还有相关的单位等等,他们对于科学数据做出了巨大的贡献,这些科学数据自然地成为各个单位的财产,受知识产权保护,另一方面这也在一定程度上限制了科学数据的自由共享。所以笔者认为,科学数据的共享需要国家相关法律的许可和一定的限制,对于那些在国家或是地方政府经费等非营利性机构支持下开发的科学数据,采用一定的奖金或是其它奖励的方式来鼓励开发人,如果不危及国家安全和个人隐私,则完全向公众开放或是使用时加以标注,以尊重劳动者的成果,但不能用于商业用途;对于那些由单位自筹经费或是个人、企业自行开发研究的不危及国家安全和个人隐私的科学数据,则要协调好利益的平衡,一般是采用收取一定的费用的方式来保护他们的权利;对于那些对科学数据进行了一定程度的加工的更深一层次的数据及提供的相关服务活动,收取一定的成本。

2.3 共享模式

科学数据共享为科学数据的使用提供了一条更为畅通的道路。科学数据具有无法估量的潜在价值,前人为科学数据的探索与创造做出了巨大的努力和贡献,传承与共享这些科学数据是对于他们的努力的最大尊重与认可。目前国内外采用的科学数据共享的模式主要有四种,分别是国际组织协作共建共享模式、政策驱动型共建共享模式、主题合作共建共享模式和地域协作共建共享模式。

2.3.1 国际组织协作共建共享模式

顾名思义,国际组织协作共建共享模式是指在某种约定或是条约的约束下,国际组织就某一研究方向或是研究主题,共同制定相关的共享策略的一种共享模式,该共享策略包括共享的范围、方式及相关的政策,可以促进同一领域内数据的交流与共享。国际组织协作方式包括国际政府间的合作和国际非政府间的合作,不管是哪种方式,都必须遵循共享的宗旨,为共同的约定所约束,以促进数据在全球的共享,提高各成员国的科技水平。经济合作与发展组织(Organation for Economic Cooperation and Development,OECD)是由30个市场经济国际组成的政府间国际经济组织,旨在共同应对全球化带来的经济、社会和政府治理等方面的挑战,把握全球化带来的机遇[15]。

2.3.2 政策驱动共建共享模式

这种模式是指在国家法律法规政策的强制驱动下推进科学数据的共建共享。美国是这一模式的最早试验者。美国的《信息自由法》和《版权法》是这一模式的法律基础。并在1991年发布了以“完全与开放”科学数据共享政策为核心的“全球变化研究数据管理政策”,通过这一政策来促进科学数据共享,从而为美国的科学研究提供强有力的保障条件,确保其在21世纪国家发展和科技发展战略目标的实现。

2.3.3 主题合作共建共享模式

该模式是根据主题的不同来进行共建共享科学数据,建立专题科学数据库。如印度科学和产业研究中心(Center for Scientific and Industrial Research,CSIR)及肯尼亚的医学信息共享。肯尼亚医学研究机构(Kenya Medical Research Institute,KEMR I)通过编制肯尼亚医学机构研究和使用的数据和目录来实现彼此联系,共享资源[16]。我国的地球系统科学数据共享平台承担单位是中国科学院地理科学与资源研究所,中科院资源、环境领域的研究所,国内地学领域的知名高校共40多家单位,世界数据中心(WDC)和国际山地中心(ICIMOD),美国马里兰大学等国际组织和机构参与本平台建设与运行服务[17]。

2.3.4 地域协作共建共享模式

该模式把那些参与到共建共享科学数据的单位限定在某一个地理范围内,与国际间组织协调共建共享模式相似,前者范围相对小一些,一般限定在某个地区或是某国内,将共享资源集中存储在某一特定的地点,并在相关单位的共同管理和共同资助下运转共同建设。2004年,科学技术部和财政部整合“国家科技基础条件平台专项经费”“中央级科研院所科技基础性工作专项经费”“科技文献信息专项经费”三个专项经费,统一用于国家科技基础条件平台建设[18]。

2.4 共享管理机制

科学数据具有科学价值、经济价值和社会价值,并且易于复制传播和共享等特点,不同的科学数据由于其属性或是归属性的不同,需要采取不同的管理机制来开展共享工作。目前,国际上采用的共享管理机制有三种:保密性管理机制、公益性共享机制和商业化管理机制。

2.4.1 保密性管理机制

顾名思义,该机制对于科学数据的共享采取不公开的方式。一般这种机制设计到的科学数据是有关国家安全、个人隐私的数据信息,公开这些信息对于国家的安全、人民的生活都会产生很大的影响。同时,参与这些数据信息的开发和管理人员都必须与单位签订保密协议,以进一步确保信息的不泄露,国家情报部门与各个单位安全主管负责检查科学数据和信息的安全性执行情况,同时严格和明确地规定这些数据信息的保密管理。

nlc202309040905

2.4.2 公益性共享机制

此种机制是采用完全开放的方式来共享科学数据,其中的数据是指除了上述属于保密性管理机制数据之外的政府所拥有的信息和科学数据,包括标准数据库、科技成果数据库等。这些数据都应该依法“公之于众”,采用网站或是其它的方式来向社会完全开放,让公众获取,用户无需支付相关费用或是仅仅支付低廉的复制成本费用。像美国的海洋大气局、国立卫生研究院等联邦政府拥有和生产的数据,中国科学院地理科学与资源研究所产生的地球科学数据,整合、集成科研院所、高等院校和科学家个人通过科研活动所产生的分散科学数据。

2.4.3 商业化管理机制

对于那些完全是为了盈利而投资生产的科学数据,则采用商业化管理机制,对于此类科学数据的共享收取一定的费用。例如, 美国政府批准了空间影像和数字地球两家企业从事高分辨率遥感数据的获取和发布业务, 然后采取鼓励平等竞争的政策, 通过市场竞争的方式降低数据价格, 达到促进数据应用的目的, 并同时通过税收进行调节和控制[19]。

3 国际科学数据服务平台分析

“国际科学数据服务平台”(见图1)(以下简称“平台”)启建于2008年,由中国科学院计算机网络信息中心科学数据中心建设并运行维护,面向中国科学院及国家的科学研究需求,逐渐引进当今国际上不同领域内的国际数据资源,并对其进行加工、整理、集成,最终实现数据的集中式公开服务。在保护国家安全,尊重知识产权的前提下,秉承完全开放的共享理念,尽可能为用户提供全方位的数据服务,包括在线数据浏览、数据搜索、数据访问与下载、软件工具及文档资料共享等通用数据服务,以及数据预定、委托查询、数据传递通道、在线模型计算、数据使用咨询等特色数据服务。

3.1 数据资源

国际科学数据服务平台收集的数据资源主要集中于地学、遥感、大气海洋等领域,引进了LANDSAT数据、MODIS数据、MODIS_L1B 数据、EO_1数据、DEM数据、NCAR数据等国际原始数据资源,采用国内外权威的数据处理方法或科学数据中心自行研发的数据处理方法对于上述数据开展了深度加工和数据模型的开发,形成了它们独具特色的一系列全国甚至全球领域的特色数据产品,面向多领域科研需求,基于通用的数据模型,充分利用本站超级计算资源,为用户提供可定制的数据产品加工,用户通过在线定制便可以得到自己需要的数据产品。

该平台期望能满足多领域的科研需求,但是资源集中在少数学科领域,深度加工的数据模型目前只限于少数几个,对于平台的宗旨来说有待发展。

3.2 知识产权保护

知识产权保护问题在共享工作的开展中被首先考虑到,国际科学数据服务平台的数据资源在进行镜像之前都和数据所有者进行了充分的沟通,并通过协议、合作或其他方式取得了对应数据的镜像权限,用户可以放心使用。用户复制使用平台中的数据,平台都做了详细的规定,在“完全与开放”的服务宗旨下,一方面尊重知识产权、保障数据作者和数据服务提供者的权益,要求数据使用者在发表成果时注明数据生产者及数据来源(国际科学数据共享平台http://datamirror.csdb.cn/),未经网站允许,用户不能有偿或无偿转让在该平台获取的数据;另一方面,为了更好地推动数据共享,凡使用“国际科学数据服务平台”数据的用户,需要在一定期限内将数据所支撑的项目或论文产生的相关成果材料提交到“中国科学院计算机网络信息中心科学数据中心”,并允许平台发布部分可公开成果。通过这样的“交换”方式来提供更深层次的科学数据给用户,一方面也减少了不必要的重复劳动,提高了用户的使用效率。

3.3 服务内容

科学数据的共享离不开数据的再利用,该平台充分考虑到不同用户在不同情况下的各种服务需求,除了提供通用的数据服务,像在线数据浏览、数据搜索等外,还提供数据预定、数据传递通道、数据申请等人性化的特色服务,切实地提高用户使用满意度。

3.3.1 数据预订

用户通过网站对应入口预定可以查询,但是不能在线下载数据,数据服务人员将会根据用户的数据预定清单提供服务。目前,该平台开放“数据预定”功能的只有Landsat数据,用户可以通过数据列表或者数据搜索功能,产生数据预定清单,并直接通过网站入口提交给系统。用户数据预定的所有历史记录以及当前预定的处理状态和下载链接都可以从“用户空间”内查询。

3.3.2 数据申请

这种服务是针对用户不能通过网站直接查询、下载数据,或因数据量巨大,用户不方便通过网站查询、下载的情况,该平台支持用户提出相应申请,数据服务人员进行处理并将结果反馈给用户,一般用户可以根据自己的情况以及数据的需求选择在线数据申请或离线数据申请。

3.3.3 数据传递通道

该服务属于高级数据服务方式,是该平台为大宗数据用户或特殊数据用户开通的,指对于因为各种原因不方便通过网站直接下载数据的用户(比如网络连接受限,数据量过大,或者用户有其他特殊要求等),可以直接通过网站提供的联系方式提出“数据传递通道”的需求,审核通过后将会为用户开通特殊数据传递通道(比如用户特殊授权,光盘邮寄、硬盘直接拷贝等),以便用户及时获取所需数据。

3.4 共享方式

该平台将数据分成一级到四级不等,用户也分成四级到一级不等,虽然倡导“完全与开放”的数据共享服务方式,但还是根据用户级别的不同以及所需数据所属级别的不同,采用不同的共享方式。大部分镜像数据集数据产品向用户完全开放,无偿共享;少部分数据需要用户申请并达成协议后共享;属于三级的数据,则面对不同级别的用户,需要付费获取某些数据;另外,针对院内科研人员或高级用户,该平台还推出了特色定制服务,根据用户具体需求,通过项目合作的形式进行定制共享。

3.5 浏览方式

nlc202309040905

由于国际科学数据服务平台收集的数据主要集中于地学、遥感、大气海洋等领域,这些数据采用地图的方式来检索查询更为方便和精确,所以提供的数据检索以地图查询为主,目前只有LANDSAT数据还提供文字查询,地图检索方式比较简单,无须知道所查地区的具体地理位置,只要在地图上找出即可,操作简单直观,非专业人员使用也很方便,而文字查询方式则对于专业知识要求比较高,并且对于所查地区的详细位置信息要有清晰的把握。

4 结语

科学数据的共享关系到人类智慧的传承,有益于提高资源的利用率,减少不必要的重复劳动。科学数据的共享工作也是一个大工程,需要国家和政府的宏观管理,制定统一的标准和规范,也需要提高公民的共享意识,促进共享工作的开展。

参考文献:

[ 1 ] 中国科学数据共享工程技术标准[S/OL].[2013-05-10].http://www.sciencedata.cn/pdf/2.pdf.

[ 2 ] 美国国有科学数据的“完全与开放”共享国策[EB/OL].[2013-07-01].http://www.qiji.cn/scinews/detailed/838.html.

[ 3 ] 国际科学数据委员会[EB/OL].[2013-07-01].http://baike.baidu.com/view/4640252.htm?subLemmaId=4640252&fromenter=%B9%FA%BC%CA%BF%C6%D1%A7%CA%FD%BE%DD%CE%AF%D4%B1%BB%E1.

[ 4 ] National Institute of Advanced Industrial Scienceand Technology[EB/OL].[2013-07-01].http://www. aist.go.jp/index-en.htm.

[ 5 ] science and innovation investment framework 2004-2014:next steps[EB/OL].[2013-07-01].http://www.hm-treasury.gov.uk./media/7/8/bud06-science-332v1.pdf.

[ 6 ] 科学数据共享工程[EB/OL].[2013-07-01].http://www.most.gov.cn/ztzl/kjzg60/kjzg60hhcj/kjzg60jcyj/200909/t20090911_72832.htm.

[ 7 ] NIH.Final NIH statement on sharing research data release date[EB/OL].[2013-06- 29].http://grants.nih.gov/grants/guide/notice files/NOT-OD-03-032.html

[ 8 ] Tenopir C,Allard S,Douglass K,et al. Data sharing by scientists:practices and perceptions[J/OL].PLoS ONE,2011,6(6).

[ 9 ] 国家科技基础条件平台-中国气象科学数据共享服务网[EB/OL].[2013-06-30].http://cdc.cma.gov.cn/gywm.do?method=getContent.

[10] 基础科学数据共享网[EB/OL].[2013-06-30].http://www.nsdc.cn/pronsdchtml/1.aboutus.introduction/pages/3014.html.

[11] 韦之.著作权法原理[M].北京:北京大学出版社,1998.

[12] 朱雪忠,徐先东.浅析我国科学数据共享与知识产权保护的冲突与协调[J].管理学报,2007(7):477-487.

[13] 刘闯.美国国有科学数据共享管理机制及对我国的启示[J].中国基础科学,2003(1):34-39.

[14] Policy statements on data management for global change research[EB/OL].[2013-06-29].http://www. gcrio.org/USGCRP/DataPolicy.html.

[15] 关于OECD [EB/OL].[2013-06-29].http://www.oecdchina.org/about/index.html.

[16] 袁曦临. 信息资源共建共享模式及其理论基础研究[J].图书情报工作,2008,52(9):102-105.

[17] 国家科技基础条件平台-地球系统科学数据共享平台[EB/OL].[2013-06-29].http://www.geodata.cn/Portal/aboutWebsite/aboutus.jsp

[18] 国家科学数据共享工程-海洋科学数据共享中心[EB/OL].[2013-06-29].http://mds.coi.gov.cn/bzjj.asp.

[19] 刘细文,熊瑞.国外科学数控开放获取政策特点分析[J].情报理论与实践,2009(9):5-7.

杨友清 南京大学信息管理学院2010级硕士研究生。江苏南京,210093。

陈 雅 南京大学信息管理学院教授。江苏南京,210093。(收稿日期:2013-08-15 编校:方 玮)

数据服务 第7篇

一、相关理论介绍

1. Web服务。

Web Service是对象/组件技术在Internet中的延伸, 是封装成单个实体且发布到网络上以供其他程序使用的功能集合。Web Service从本质上讲是放置于Web站点上的可重用构件。

Web Service可以分散于Web的各个地方, 通过互相调用以协同完成业务活动。在Web Service的体系中, 应用系统被分割为高内聚、弱耦合的单个服务, 可以通过Web被调用和访问。

Web服务的应用通常涉及服务提供者 (service provider) 、服务请求者 (service requestor) 及服务注册中心 (service registry) 3种应用程序。服务所有者通过向服务注册中心注册服务描述来发布 (publish) 服务, 并通过服务访问平台提供服务;服务请求者在服务注册中心搜索 ( (find) 满足所求的服务, 根据其服务描述解析服务调用方式, 并动态绑定 (bind) 服务提供者, 获取服务。

2. 服务质量。

服务质量英文全称QoS (Quality of Service) , 在Web实际应用中, 对Web Service往往有许多不同方面的技术要求, 如各种级别的服务可用性、性能、可伸缩性、安全性和隐私策略等, 因此需要能够描述所有的这些技术需求, 并且要求驻留每一个服务的环境能够基于不同的技术要求提供不同的QoS选择。显然, 对于服务提供者和他们的客户而言, Web Service所提供的QoS已成为一个非常重要的问题。服务质量主要包括服务价格、服务响应时间、服务可用性、服务完整性等参数。

3. 面向服务架构。

面向服务架构 (SOA) 其目的是实现相互作用的软件功能单元之间的松散耦合。SOA的基本思想是以服务为核心, 将企业的IT资源整合成可操作的、基于标准的服务, 使其能被重新组合和应用。这种重新组合, 使那些原本趋于闲置的IT资源重新发挥作用, 从而使企业的资源得到优化, 并焕发出新的生机。

4. 数据挖掘。

数据挖掘就是从大量的、不完全的、有噪声的、模糊和随机的数据中, 提取隐含在其中人们事先不知道的、但又是潜在有用的信息和知识的过程。还有很多和这一术语相近的术语, 如从数据库中发现知识 (KDD) 、数据分析、数据融合 (Data Fusion) 以及决策支持等。

二、引入Web服务质量的面向服务数据挖掘系统设计思想

1. Web服务Qos评估因素。

服务质量 (QoS) 是对Web服务满足服务请求者需求能力的一种度量。Web服务中的QoS评估因素是一个可扩充向量, 可以从很多方面来描述服务质量, 如可扩展性、并发处理能力、响应时间、可靠性、服务价格、吞吐量、可用性、安全性、准确性、赔偿率等, 它们分别从不同角度对服务的质量进行了评估, 但针对数据挖掘领域的特点, 在众多QoS中比较强调费用、执行时间、可用性、可靠性这些指标, 所以本文用如下所示的四元组向量作为评价Web服务s的服务质量的标准, 即QoS模型为:

下面给出各分量的评价指标:

(1) 费用 (qprice (s) ) 。Web服务提供者给定的一个服务操作的执行价格qprice (s) 作为服务请求者为完成任务所执行该服务操作要付出的费用。该任务的执行价格就是qprice (s) 。

(2) 执行时间 (qprice (s) ) 。执行时间是请求服务发送的瞬间到结果被收到的瞬间之间这段时间, 以毫秒为单位。公式表示:qtime (s) =P (s) +T (s) 。

qtime (s) , 服务执行时间;P (s) , 服务处理时间, T (s) , 服务传送时间。

(3) 可用性 (qavailability (s) ) 。可用性是质量的一个方面, 指Web服务是否存在或是否已就绪可供立即使用。公式表示:qavailability (s) =A (s) /u。

(4) 可靠性 (qreliability (s) ) 。可靠性是Web服务质量的一个方面, 表示能够维护服务和服务质量的程度。公式表示:qreliability (s) =N (s) /I。

qreliability (s) , 服务可靠性概率;N (s) , 服务s在最大期望时间内被成功调用的次数, I:调用服务s的总次数。

2. Web服务Qos计算模型。

假设存在一组服务群, 用S={S1, S2, S3, S4.....Sk}表示, 这k个服务在Web服务发现过程中都能满足基本的功能匹配, 于是我们就可以得到如下的k4维矩阵:

由于衡量服务质量的指标有2种:一种是正向质量指标, 即指标值越大, 服务质量越好, 如可用性和可靠性;另一种是负向质量指标, 指标值越大, 服务质量越差, 如价格和响应时间。

所以, 为了保证QoS因素具有可比性, 需要对QoS参数进行归一化处理, 将所有QoS属性的值域调整到一个统一的区间, 在这里我们采用最小-最大规范化方法对数据进行变换, 把Web服务质量的向量中的4个质量指标的值转换为[0, 1]区间内的相应数值。

对于正向指标和负向指标分别采用公式 (1) 和 (2) 进行处理:

设服务S的第j个QoS参数取值最大为qjmax, 最小为qjmin, 当前值为qij, 其中qjmax=max (qij) , 1ik, 1j4;qjmin=min (qij) , 1ik, 1j4;

通过以上规范化处理, 得到规范化k4维矩阵:

其中, 1ik, 1j4, 且0vij1。

向量V (si) = (vi1, vi2, vi3, vi4) =1ik, 表示Web服务si在相应服务群中的规范化质量向量, 这样就把各项质量标准统一转换为正向质量标准, 且值分布在[0, 1]之间, 最优值为1, 最劣值为0, 统一了多目标的优劣判定。

(1) 数据挖掘服务代理模块。在数据挖掘应用与服务之间搭起一座桥梁, 实现了两者在调用关系上的松散耦合, 主要包括请求处理器、安全认证管理、服务管理。

(2) 数据挖掘服务应用模块。它是平台与用户交互的接口层。它发出各种各样的数据挖掘服务需求, 并以服务请求的方式通过统一的通信接口发送到数据挖掘服务代理。同时不必考虑平台能够提供什么样的服务, 只需将服务需求按照既定格式发送出去, 等待响应。

数据服务 第8篇

一、档案馆大数据时代的形成及其特征

随着档案信息化建设的持续推进,馆藏档案数字化资源、办公自动化形成的电子文件及其元数据、物理归档的电子文档、网络资源数据、数据库备份、档案管理系统的日志、远程利用系统的利用者资料信息、存贮备份数据呈现几何级数的增长,数据规模渐已达到海量,且上述档案资源中含有大量的非结构化数据,这表明档案馆渐向大数据时代迈进。

大数据时代唤来大服务时代、信息更为开放、权力更分散的社会、一个网状的社会。数据能满足既定的用途才有质量。档案馆工作的最终目的是服务。大数据时代对档案馆提出了数据挖掘、数据整合、数据加工、数据开放的任务,使沉睡的数据能够网格化、智能化和社会化,从而发挥档案的最大效用。

二、大数据时代档案馆公共服务职能的完善

在大数据时代,档案馆如何能更好地履行其公共服务职能,最大限度发挥公开档案的利用价值,实现档案数据收集向档案信息提炼再转化为知识、继而制定决策或实现利润,而非计算机内睡大觉的档案数据。笔者认为档案馆可从意识、法规与制度方面作一些完善或调整以适应大数据时代的发展,具体如下所述:(1)档案决策层领导必须具有现有档案服务落后于大数据时代要求的危机感,适应大数据时代要求的服务创新理念、改革现状的意识及魄力。(2)我国现有的档案法规必须与时俱进,作相应的调整和修改,制定与大数据时代相协调的档案战略,如贯彻执行“档案公开为原则,不开放为例外”,缩短档案的开放期限,提升档案的时效性。(3)建立档案利用者保护法,构建档案馆公共服务的监管体系,以此促进档案馆公共服务的职能的完善,真正贯彻“以民为本”,保护社会大众对公开档案的知情权;(4)构建档案馆公共服务的绩效评价体系,通过定量和定性分析,达到“评建结合,重在建设”的目的。(5)建立基于数据分析、数据挖掘和数据整合联动的档案信息管理系统,整合档案馆内信息数据和用户的查询信息轨迹,形成档案资源和用户轨迹的融合。(6)降低档案利用门槛乃至零门槛(涉密档案、个人隐私、商业秘密除外),推进到期档案的开放与解密。每年到期鉴定开放的档案及到期解密档案比率定期通过网络向社会公布,打造阳光档案,推进阳光政府的构建。(7)基于档案的参考价值、立足于大数据时代档案利用者的需求及档案利用的便捷性,加大远程利用档案的力度,实现公开档案的数据流的流动及转换,最大限度盘活档案的利用价值,提升档案的亲民性及利用者的满意度。(8)大数据时代档案馆人、财、物的保障。硬件设施完善的同时,需引进专业人才,实现对高效、智能的大数据妥善存储、对非结构化数据有效的管理和应用、确保复杂的数据环境下海量数据安全性。

三、以数据挖掘技术提升大数据时代档案馆公共服务质量

2012年3月29日奥巴马政府宣布推出“大数据的研究和发展计划”,意在推进和改善联邦政府数据的收集、组织和分析工具技术,以提高从大量数据中获取知识和洞察的能力,把大数据提升到国家战略的高度。奥巴马政府推出的大数据战略对档案馆应对大数据时代提升公共服务质量有重要的借鉴价值。数据挖掘技术应用到档案数据管理中将带来以下的便捷:(1)通过数据的流动、关联、数据库的整合能盘活海量的档案数据资源和信息资源,深入挖掘及最大限度发挥公开档案的价值、实现公开档案资源共享,减少信息孤岛。(2)便于直接对音、视频档案的内容进行检索,自动识别关键帧, 区分定位出一个视频中的不同的两段内容,减轻人工打点的工作量,提高音、视频处理的能力。(3)检索模式方面,基于语义检索,提供计算机可以理解人类语言后的一种搜索模式。(4)在档案利用方面, 基于历史的查询记录即数据的关联性,能节约在浩瀚档案数据库中查询的时间及人工筛选的程序,提升利用效率及利用者的满意度。 (5)实现档案智能化辅助分类。可从历史分类中智能提取档案分类, 提高用户编研效率,实现文献的自动分类;系统可自主根据已有档案分类进行学习,促进以后辅助分类的准确度;支持多维度的动态分类,支持用户自定义分类展示。(6)可以预测和分析档案利用者的利用目的、利用趋势、利用需求,为档案馆由传统的被动等待服务模式向主动服务转变、为档案馆制定决策的科学化、提升公共服务的质量有着实践指导价值。(7)基于历史事件的相关档案数据集、社会公众的行为分析结果,为政府部门和社会组织制定科学的决策提供依据。

四、以绩效理论推进大数据时代的档案馆公共服务的建设

绩效是基于一定的投入而产生的成绩与效益,综合表现为效果、效率、回应性、公平性、满意度等内容,它是衡量工作成效的综合性指标,绩效评价则为管理创新的重要形式和优化管理的重要工具,在企业和政府中得到广泛应用。随着政府信息公开,阳光政府的构建,作为公共服务部门———档案馆其公共服务绩效也引起相关部门的重视及应用。

1.大数据时代对档案馆公共服务进行绩效管理的重要性。大数据时代档案馆的公共服务职能尤为社会关注,馆藏的海量数据在流动中才有活力,否则对海量数据管理所耗费人、财、物最终未见其效益,绩效管理的引用则显得尤为迫切,通过对档案馆的公共服务的定性与定量分析,明晰档案馆公共服务工作的不足之处,并实时整改,为优化投入与产出的结构、充分发挥档案资源的价值、缔造优质档案服务、提升大数据时代社会公众利用档案的满意度夯实基础。

2. 绩效管理理论知识在大数据时代档案馆公共服务实践的应用。大数据时代对档案馆公共服务开展绩效评价,包括评价主体(即 “谁来评”)、评价内容(即“评什么”)、评价方法(即“如何评”)。(1)科学确定绩效评价主体(即“谁来评”)。评价主体指大数据时代对档案馆履行公共服务职能的条件保障、服务方式、服务能力、服务质量、 利用者满意度等方面进行评价的人员,包括内部主体和外部主体, 内部主体为档案馆领导及工作人员,外部主体包括专家和利用者。档案馆公共服务绩效评价主体必须是档案馆内部工作人员、专家和利用者共同组成,三者优势互补,缺一不可。(2)科学界定评价内容(即“评什么”)。大数据时代档案馆公共服务的绩效评价内容立足于档案馆为适应大数据时代所提供的条件保障(过程保障)、公共服务结果及利用者满意度。(3)选择科学评价方法(即“如何评”)。评价方法可采用定量和定性分析相结合,对于可量化的指标则最好采用定量分析法,如层次分析法(AHP)、数据包络分析法(DEA)等。对一些无法量化和无法获得的数据的绩效指标常运用主观打分的定性评价的方法进行评价。

3.提高大数据时代档案馆公共服务绩效的对策建议。通过数据挖掘技术的应用,唤醒沉睡的档案资源;树立以档案馆的服务结果为导向的工作流程,以利用者为中心,不断改善服务质量;培育绩效文化,使档案数据发挥最大效用。

(1)完善绩效整改机制,建立有效的奖惩机制。绩效评价的目的在于发现问题并改进问题,对评价结果落后的档案部门的领导进行谈话告诫并督促整改,对评价结果优秀的档案部门进行奖励,并作为单位评优、个人晋升的依据之一。为深化评价结果。可采用以下具体措施:1将评价结果公开、透明,接受社会公众的监督与合理建议;2以点评促整改、匿名互评促整改不断改进绩效;3绩效评价结果作为档案年度预算参考,以便优化预算支出的结构,提高财政资金使用效益;4解决群众反馈的问题,出台惠民档案利用政策,重点解决群众反映利用档案程序繁琐、办事效率低下的问题,优化档案服务模式,满足群众不断增长的档案利用需求。

(2)推动绩效问责的机制的构建。绩效问责是在对档案馆公共服务绩效水平的基础上启动的一种行政问责程序,反映了社会公众对档案馆服务绩效的期望及档案馆对其服务效果的所担负的责任。 “无过”不能成为逃避责任的借口,档案馆领导因未达到应有的服务绩效而追究责任,这将对档案馆领导提出更高的要求。评价内容和行政问责的范围相结合,使行政问责有依据;评价的透明性与行政问责的公开性相结合。将档案馆的服务绩效置于社会公众的监督下,建立健全评价机制;评价结果与行政问责的对象、方式相结合, 按照评价结果报告奖优、治庸、罚劣的原则,明确指出行政问责的对象、方式和问责的具体事项,充分发挥绩效结果的导向和激励作用。 绩效问责作为强制性的约束手段,将评价结果与行政问责相结合, 开创新的问责,是大数据时代档案馆提升公共服务的有效工具。

(3)构建统一管理的平台,形成国内档案馆信息资源共享的机制。选用网络基础设施较为完备、有安全性保障的网络,建立国内统一档案信息资源管理平台,整合各档案部门非密档案信息资源,制定档案信息资源共享的法规,促进档案信息的流转和共享,依照优势互补、资源共享的原则形成有效的信息查询平台,使死库变活库, 零散变规模,以提升大数据时代档案馆公共服务绩效,最大限度满足利用者查档需求。

信息和资源是大数据时代的最重要的资源。信息自由、数据开放,意味着信息和每一个公民是等距的。数据的开放和流动代表着权力的开放和流动。大数据时代,档案馆亟待更新理念、创新服务模式、加大档案信息开放力度,让档案信息发挥其最大价值。

摘要:大数据唤来大服务,档案馆应立足于公共服务职能,从理念、制度、服务模式、服务技能等方面进行完善,并通过绩效测评,明晰档案馆公共服务不足之处,达到以评促改,提升档案馆公共服务职能,以应对大数据时代的挑战。

关键词:大数据,数据挖掘,档案馆,公共服务,绩效

参考文献

[1]杨海燕.大数据时代图书馆服务的浅析[J].图书与情报,2012(4).

[2]涂子沛.大数据:正在到来的大数据革命[M].广西师范大学出版社,2012.

气候数据服务案例与展望 第9篇

通过对这些气候数据的系统研究, 从而产生了气候学。气候学是把气象与其它学科 (如农业、生态、建筑、能源、交通、医疗卫生、经济等等) 交叉融合后, 便形成了约12个门类的应用气候学。应用气候学的诞生和发展造就了诸多气候数据服务的典型案例, 如将气候数据作为改善城市气候环境与提高人民生活条件的决策依据[1]、对地方电力能源的防灾设计应用[5]、农业生态气候适宜理论等等。本文将从气候数据的背景、气候数据案例和气候数据展望和思考三个方面进行阐述。

1 气候数据背景

首先, 气候数据种类多样, 从整个气候系统来看, 气候数据来自大气圈、海洋圈、陆地圈、冰雪圈和人类活动的各种观测的结果。从气候数据的时间尺度来看, 我国气候数据服务分次季节至季节、年际和年代际尺度等, 其中年代际尺度主要包括10年、30年、40年、50年、60年、100年。对于公众服务来说, 研究通常使用的数据时间尺度为30年或50年。

如今, 整个中国气象局气候数据时间跨度在50年左右, 所保存的数据量在4~5PB左右, 每年大概增加数百个TB[2]。因此, 每日每时甚至每分钟不断产生的气象观测资料愈发受到人们的重视, 而经长期累积所得到的气候数据更逐渐突显出其价值。

1.1 气候数据时间尺度和种类介绍

气候数据的时间尺度分为候、旬、月、季节、年、10年、30年、50年、百年、千年、甚至万年, 其中器测资料基本在200年以内, 早期的多为年轮等代用资料。

现今常用的气候数据多由1951年至今或是1980年至今的气象数据资料组成。通过对气候数据进行加工处理和统计分析后, 可获取不同时间尺度 (逐年、逐月、逐日) 的平均气温、最高气温、最低气温、降水量、风速、地表温度、日照时数等气象要素。除此之外还包含特殊天气统计数据集和极端气候历史数据[6]。

1.2 应用气候学介绍

当气候学与其它学科 (如农业、生态、建筑、能源、交通、医疗卫生、经济、等等) 的交叉融合, 便又形成各种门类的应用气候学。应用气候学的诞生和发展, 本身是气候数据服务的典型案例, 也是气候数据服务长期积累的结果。近些年, 对于气候数据关系最密切的农业、能源、水利、交通、居住环境和卫生等领域是各国在应用气候领域内一直重视的内容[3]。如表1所示。

1.3 气候数据的基本统计方法介绍

科学家们通过对气候数据的统计分析、同化分析和再加工分析, 形成了对天气系统演变规律及机理、气候演变规律及机理、极端天气气候事件和天气气候灾害的发生、发展和消亡规律及机理的认知。在其基础上建立了各种预报、预测模型, 从而形成面向社会的服务能力。

对于气候数据的统计分析部分, 最常使用均值计算、方差分析、众数和分位数等方法, 通过概率统计对数据进行对比和分析。气候数据的常用统计采用描述性统计分析 (包括概率统计、折线图、箱线图、直方图等) , 方差分析 (采用单因素方差分析, 包括分析每种天气的地区差异, 和每种天气的月份差异) , 聚类分析 (采用系统聚类方法, 分别采用按地区聚类和按月份聚类) 等方法。利用统计学, 既能够研究如何从数据中把信息和规律提取出来, 又能找出最优化的方案, 能研究如何把数据当中的不确定性量化出来。

气候数据能够更好地对未来进行预测, 利用这种规律性的趋势变化能够对某些领域起到参考作用, 从而对人类生活起到积极的影

2 气候数据案例

2.1 深挖大数据新闻

中国天气网《数据会说话》栏目, 其中的一些图形产品, 均利用到概率统计方法。数据新闻链接:http://www.weather.comcn/zt/sjhsh/index.shtml

通过这些气候数据结果展示, 公众能深入了解某个数据的趋势结果, 这个趋势预测结果是基于往年长期的气候统计, 虽然可能同真实事件的发生情况存在一定偏差, 但其仍具有一定的参考价值。这种大数据新闻的形式被各种媒体作为科普资料对外进行转载并传播。这些结果不仅是气候数据的分析总结, 同时也是对未来发生某种特定天气的趋势预测和结果证明。

2.2 场景化的服务产品

气候数据不仅能够提供长期天气的变化参考, 还能给气象服务产品做数据支撑, 满足用户场景需求。例如:中国天气网的天气日历和穿衣产品均应用了气候数据和历史资料。天气日历是通过对历史30年的气候数据资料进行统计参考, 结合15天预报综合出中长期40天的预报结果;穿衣产品则是通过气候数据资料算出全国2560个站点的穿衣指数, 从而给公众出行指导。产品图如图1所示。

通过实际应用效果反馈结果来看, 此类气候数据能够在外出和旅游的场景下为百姓提供不同地区温度的参考, 同时也能给部分相关服装、旅游等领域的企业提供参考和预测。

2.3 数据建模和算法支撑

为了提高某种天气排名或推介的科学性, 通过气候数据建模, 可以给出具有可行性的评判标准, 其结果可以间接地给出一些避暑旅游的城市排名或者球场排名等[8]。

灾害性天气对旅游适宜度的影响评估模型[4]中就利用了类似算法, 通过多种因子, 让避暑旅游城市的排名更加有针对性和科学性, 从而准确地给出避暑城市的排名结果, 真正让用户在酷热的夏季选择舒适的城市进行出游。

通过统计过去30年历史气候资料中某个天气现象出现频次与概率, 能够计算出某个城市某种天气现象的概率。这种方法可以间接地通过某个历史天气事件与某个地理情况给出一种地域价值的评分和参考, 同时这种方法也可以被应用到一些产品和排名中去。

3 气候数据的展望与思考

GEOSS (全球综合地球观测系统) 有个共识:“任何一个简单的气象服务需要很多数据支撑, 任何一个简单的数据集可以服务于很多应用需求”。因此, 可以得出服务多样性与气象数据多样性对接将是必然结果。针对气候数据的展望, 主要围绕以下4个方面进行了扩展思考。

3.1 数据分析技术的多样性

随着数据分析技术的进步, 近两年, 在越来越多的数据分析方法中, 最常用的方法仍然是回归、聚类、决策树/Rules和可视化。可视化方法从2011年的38.3%至2016年的48.7%, 同比增长27%[7]。用的比较多的软件类工具主要有SPSS, 脚本类工具主要有Matlab, 常用的免费工具有R语言、Python语言等。数据分析技术的多样性能够让气候数据进行多角度展现, 体现出其更大的价值。

3.2 多维融合结果的科学性

紧跟科技前沿, 国外利用多年气候数据研发出了气候数据预测系统———Earth Risk, 这个系统已经能够对未来的天气进行准确预测。Earth Risk预测模型是将预报最长提前至40天。该系统是通过近百年的气象历史数据和千亿次计算来识别气候模式, 然后将这些模式与当前的气候条件进行比较, 再运用预测性分析方法计算天气概率, 其预测时间更长、预测准度更高。即通过过去来预测未来, 总体是多维融合的一种结果, 具有更强的科学性。

现在该软件正进行大规模的商业扩张。面向消费者型的应用也在开发中, 未来该系统将会在多种场景下满足不同用户的应用需求, 从商业和公众两个方面体现其价值。

在精准预测方面, 通过美国的最新研究来看, 我国在气候精准预测的领域还有所差距, 特别是利用过去的气候数据预测精准预测未来天气的系统模型还需要进一步深入挖掘, 辅助精准预报服务。

3.3 公众服务时空尺度的可变性

气候数据不仅能够支撑多种天气数据和多维领域融合结果算法的科学性, 而且还与社会各类服务领域有着紧密的联系, 特别是能够满足公众服务对气候数据时空尺度的可变性。

除了本文整理的应用气候学12个方面外, 近几年, 气候数据与保险、风险管理和精准预测等方面的深度融合也逐步凸显其价值。在保险方面, 通过对不同时空尺度的气候数据的概率统计, 结合预警发布, 能够对某种降温险、灾害风险等进行提前预警, 及时让百姓获取信息, 从而购买天气保险, 避免损失。在风险管理方面, 通过气候数据的结果, 预测未来气候趋势, 从而可以与大型交易所和能源生产商针对天然气期货等进行预测。

3.4 产品表现形式的易读性

为了让气象服务产品更加容易理解, 用直观地图形对公众进行科普, 气候数据还可以结合常见的生活需求, 做出表现形式更加易读的可视化产品。利用R语言做的某地区的温度可视化日历, 让日历产品更直观, 增加易读性。

总之, 气候数据更应与各领域交叉融合, 为人类发展而服务。《大数据时代》作者维克托·迈尔·舍恩伯格的名言“大数据的核心就是预测”。因此, 只有让气候数据的应用发挥最大价值, 才能为人类更好地生活注入新动力, 开拓新领域。

参考文献

[1]任超, 吴恩融.Lutz K., 冯志雄.城市环境气候图的发展及其应用现状[J].应用气象学报, 2012, 23 (5) :593-603.

[2]沈文海.气象数据的“大数据应用”浅析[J].CIO时代网, 2014, 3, 24.

[3]唐永顺.应用气候学[M].北京:科学出版社, 2004.

[4]李菁, 慕建利, 吴普.避暑旅游适宜度评价模型的建立和应用[C].第32届气象学会年会年会论文集, 2015, 10.

[5]罗怀良, 陈国阶, 朱波.农业生态气候适宜度研究进展[J].中国农业资源与区划, 2004, 25 (1) :28-32.

[6]陆琦.气候变化“挑战”重大工程项目[J].中国科学报, 2014.

[7]Zacharias Voulgaris博士.数据科学家-修炼之道, R语言中文社区, 2016, 9.

数据服务 第10篇

由此可以看到, 在数据分发服务中, 最重要的功能之一就是对主题的匹配。当整个系统很庞大时, 数据分发服务维护的发布/订阅主题能够达到成千上万条, 当有新的应用加入时, 如何管理这些发布/订阅主题以及如何快速准确与众多发布/订阅主题进行匹配就成了至关重要的一个环节。因此根据以上应用的特点, 决定采用一个轻量级, 跨平台, 稳定且快速的数据库来对海量数据进行管理, SQLite数据库刚好就满足了以上的需求。

1 SQLite的技术特点及体系结构

1.1 SQLite技术特点

在轻量级数据库中, SQLite是一个典型的代表。SQLite嵌入式数据库完全采用C语言编写, 具有完全的独立性和开放性, 不具有外部依赖性。它具有以下的技术特点[3]:

(1) 支持多数的SQL92标准, 绝大多数的SQL语句都可以在上面运行。

(2) SQLite不同于Server数据库, 没有中间服务器进行。在使用SQLite时, 访问数据库的程序直接从磁盘上的数据库文件读写。

(3) 代码量小巧, SQLite的完整配置不超过250k B。

(4) 存储量大, 可支持数据库的大小为2TB。

(5) 其他嵌入式数据库运行时需要专门开启进程, SQLite则是和应用程序运行在同一个进程内部, 避免了进程之间的通信, 增加了运行的速度。

(6) 支持多种数据类型, 包括可变长度的字符型 (varchar) , 整数 (integer) 及二进制 (Blob) 等类型。

(7) SQLite对操作系统的支持也很多:Windows、Linux、Unix。

(8) 支持多种编程语言:C/C++、C#、Java、Python等。

(9) 在使用方面, SQLite非常简单, 无需独立的安装和管理, 只需要带上一个动态库就可以使用, 基本的数据操作只需要几个核心的API函数就可以完成。

1.2 SQLite体系结构

图2所示是SQLite的体系结构, 自顶向下各部分的主要功能依次如下:用户接口层用来提供API函数, 完成SQL语句的词法语法分析;虚拟机层用来进行代码编译和执行;数据管理层完成数据的存储和管理;OS接口层用来完成对不同操作系统的兼容。这四部分实现了应用程序和不同操作系统之间的衔接。

具体内部结构如图3所示。其核心部分由SQL编译器 (SQL Compiler) 、内核 (Core) 、后端 (Backend) 和附件 (Accessories) 构成。内核包含了接口 (Interface) 、SQL命令处理器 (SQL Command Processor) 和虚拟机 (Virtual Machine) ;SQL编译器包含了标记处理器 (Tokenizer) 、语法分析器 (Parser) 和代码生成器 (Code Generator) ;后端包含了B树 (B-Tree) 、页面缓冲 (Page Cache) 和操作系统接口 (OS Interface) ;附件包含了效用 (Utilities) 和测试代码 (Test Code) 。

在实际使用过程中, 接口接收不同语言的API, 并将其他语言的API转变为C语言能够使用的API。转换后的SQL语句被送到高效的SQL命令编辑器中, 首先由标记处理器 (对SQL语言进行分析, 把SQL语法合法地拆分成一个一个的小片段给语法分析器, 随后分析器对其进行重新组合得到更高效率的代码, 并调用代码生成器生成虚拟机能够执行的指令, 最后这些指令按照先后顺序存储在虚拟机的堆栈中逐一执行, 完成SQL语句指定的任务。

在后端, 数据库按照B树的形式存储在磁盘上, 通过可调整的页面缓冲得到对数据的快速查找和存储。SQLite使用一个抽象层接口实现了与不同操作系统的对接。

附件中包含了效用和测试代码两部分。效用用来处理无类型字符串和内存分配等问题, 测试代码提供对SQLite代码的测试功能。

2 SQLite数据库在DDS中的应用

为满足应用的需要, 并能够使用更方便, 对SQLite进行了二次封装, 并在此基础上完成了具体的试验。

2.1 SQLite基础应用封装

和其他的数据库一样, 对SQLite数据库的使用的核心部分主要包含以下几个方面[4]:

(1) 创建一个新的数据库链接

int sqlite3_open (const char*filename, sqlite3**db) ;

通过这个函数, 既可以打开一个已经存在的数据库, 也可以创建一个新的数据库链接。其中filename是函数的输入, 用来指定数据库的名称, db是函数的输出, 它存储着返回的数据库的句柄。

(2) 关闭数据库链接

int sqlite3_close (sqlite3*db) ;

关闭指定的数据库的链接, 输入参数db是需要关闭的数据库的句柄。

(3) SQL语句编译函数

将SQL语句编译成SQLite内部的一个结构体 (sqlite3_stmt) , 供SQLite后续执行。其中输入参数db是数据库的句柄;输入参数z Sql是需要编译的SQL语句;输入参数n Byte用来标示SQL语句的长度;输出pp Stmt存储编译后的可以被SQLite执行的SQL语句;输出pz Tail用来标示z Sql中未编译的部分。

(4) 参数绑定函数

int sqlite3_bind_int (sqlite3_stmt*pp Stmt, int num1, int num2) ;

绑定参数到需要执行的SQL语句中。输入ppStmt是SQL语句通过sqlite3_prepare编译后的输出;输入参数num1用来标示参数的序号;输入参数num2是需要绑定的具体的数值。除去对int类型参数的绑定, SQLite还支持对double、int64、text和blob等类型的绑定, 用法都基本类似。

(5) 执行函数

用来进行具体的执行步骤。输入参数db是数据库句柄;输入参数sql是要执行的SQL语句;第三个参数是一个可以选择的回调函数, 如果定义了回调函数, 第四个参数就会作为输入参数传入回调函数;输出参数errmsg用来保存错误信息。

针对SQLite数据库在数据分发服务中的需求, 为了便于代码管理和使用, 对SQLite进行了二次封装, 如图4所示。

LogRow Data类用来对发布/订购的信息进行描述。Sub Pub Info类用来完成具体的数据库操作, 包括数据库实例化接口:Instance () 和Remove Instance () ;数据库初始化相关接口:Init DB () 、Init Prepare Stmt () ;数据库操作类接口:Write Log () 、Query Log () 和Delete Log () 。除去基本的对数据库的操作之外, 为了保证线程安全, 在类中封装了读写开关b_RW_Switch和相应的接口 (SetRWSwith () 和GetRWSwitch () ) 保证了多线程操作时的数据的完整性。

在SQLite二次封装的基础上, 结合数据分发服务模型, 创建注册信息存储数据库表, 如表1所示。

表中各个字段的含义如下:

(1) 字段INFOTYPE用来标示本条注册信息的类型:发布类信息或者订阅类信息。

(2) 字段m_s Msg Cat用来描述主题号, 不同的主题具有不同的主题标示号。

(3) 字段m_Sub_SID和m_Pub_SID用来描述订阅者或者发布者ID, 不同的订阅者/发布者具有不同的ID, 这两个字段在一条注册信息中只可能出现一个。

(4) m_IPAddr和m_Port用来记录IP信息。

2.2 基于SQLite的数据存储和匹配

在数据分发服务中, 每一个订阅者/发布者都会向数据分发服务进行注册, 注册的信息存入SQLite数据库中, 通过匹配建立订阅者和发布者之间的传输通道, 具体的时序流程如图5所示。

(1) SQLite数据库启动, 监听来自网络的注册信息。

(2) 发布者和订阅者根据自身订阅和发布情况, 向数据分发服务进行注册。

(3) SQLite存储相应的注册信息, 根据收到的注册信息进行配对, 如果发布者和订阅者注册了相同的主题, 则配对成功并通知配对成功者。

(4) 配对成功者进行消息的收发。

3 性能效果

针对以上的设计, 对其功能和性能进行测试, 保证整个系统在实际应用中的可靠性和高效性。测试环境如下:

(1) 客户端:PC机, DELLG280, 1G Memory, P43.0 CPU, 160G Hard Disk;

驻留参与节点测试代码, 用来模拟发布者/订阅者的功能, 向数据分发服务进行节点信息的注册。

(2) 服务器端:PC机, DELLG280, 1G Memory, P4 3.0 CPU, 160G Hard Disk;

驻留数据分发服务, 用来接收发布者/订阅者的注册信息, 通过SQLite数据库, 对信息进行匹配处理。

(3) 软件环境:Windows 2000 SP5, VC6.0;

(4) 网络:100M Adaptor Ethernet Card, Catalyst2900 Series XL Switch。

功能测试:

在上述环境中, 客户端中应用程序A向数据分发服务进行注册, 订阅主题标示号为1033和1034的主题, 客户端中应用程序B向数据分发服务进行注册, 发布主题标示号为1032和1033的主题, 同时应用程序B分别发送标示号为1032的消息“Hello, This Msg Category is 1032”和标示号为1033的消息“Hello, This Msg Category is 1033”。如图6所示, 从上至下分别为数据分发服务、应用程序A和应用程序B的界面截图, 可以看到, 经过SQLite数据库的检索和匹配, 应用程序B接收到标示号为1033的消息。

性能测试:

在上述环境中进行数据插入和数据选取实验, 在数据插入实验中, 本地分别插入5000、10000、25000、50000和100000条记录, 各进行10次, 最后取平均值。在数据选取实验中, 本地分别从5000、10000、25000、50000和100000条记录中检索需要的记录, 各进行10次, 取平均值。实验结果如图7所示。

由此可见, SQLite在大量数据的处理上, 可以在秒级完成, 这种指标完全能够满足数据分发服务的需要。

4 结束语

SQLite数据库是一款经典的嵌入式数据库, 对数据的存储和管理非常的方便, 在众多的嵌入式设备中有着广泛的应用。在数据分发服务中, 最核心的部分就是数据, 维护和管理好各个应用节点的注册信息数据就成了至关重要的一点。由于数据分发服务本身就需要承受大量来自网络的数据, 以及自身维护各个应用节点状态的开销也较大, 所以在数据存储和管理上必须采用较小的系统开销和较高的处理效率。本文提出了采用SQLite数据库来管理数据分发服务中的注册信息数据, 针对数据分服务的需求, 给出了具体的实现方式, 并在此基础上进行了性能和可靠性的测试。通过这些实验, SQLite满足了系统存储量大、性能高和跨平台的要求, 很好地完成了数据分发服务中对数据的存储和管理。

参考文献

[1]Object Management Group.Data Distribution Service for Real-Time Systems Specification[S].2004.

[2]Object Management Group.The Real-time Publish-Subscribe Wire Protocol DDS Interoperability Wire Protocol Specification[S].2008.

[3]Grant Allen, Mike Owens.SQLite权威指南[M].杨谦, 等译.北京:电子工业出版社, 2011.

大数据为环境保护服务 第11篇

“由于大气本身的流动性,雾霾天气具有跨区域污染的特点。”曾参与中国环境监测总站相关中间件平台建设的东方通高级咨询顾问认为,新形势下,一个区域“单兵作战”的方式,难以有效掌握空气污染状况,需要建立多个区域联防联控的工作机制,通过跨区域的污染信息数据共享交换,为后续的污染预警、应急等工作提供决策依据。并且,造成雾霾天气的污染源是多样性的,涉及燃煤排放物、建筑工地扬尘、道路渣运车等方方面面,也需要多个区域、部门联合治理。

该咨询顾问进一步指出,大气污染防治还要与水资源保护、土壤污染治理等其他工作联动运作,实现对各类污染物、地理、人口、企业等环保相关数据的集中管控,以“大数据”为手段持续完善环保工作体系。

现代信息社会,环保工作已经离不开各类信息技术的支持,这其中,中间件在环保信息数据共享和业务系统协同运行中扮演着非常关键的角色。例如在中国环境监测总站环境监测数据平台中,东方通部署了几十套消息中间件TongLINK/Q,可同时为纵向和横向的“信息流”搭建基础数据传输网络:纵向方面,通过部署在部级、省级等各级单位上的中间件产品,实现各类监控数据的“上传下达”;横向方面,基于TongLINK/Q构建的数据传输通道,连接了环境监测信息空间表征分系统、突发性水污染事件预警分系统、酸雨监测分系统等多个业务系统,未来还可以把新建的业务系统快速集成到统一的数据平台上,通过各系统间数据的共享交换,提高各类数据资源对环保工作的实际利用价值。

“作为专业中间件厂商,东方通在环保信息化建设上拥有丰富的实践经验,并在此基础上结合物联网、云计算等前沿技术,推出了环保协同感知系统解决方案,满足新时期环保工作对信息系统的高标准要求。”东方通相关负责人指出,环保协同感知系统以大气、河流、湖泊等管理对象为核心,搭建出环保物联数字神经可视化平台,将环保涉及的所有组织机构、应用系统、传感设备及其实时监测数据集中到统一平台上,并根据业务需求整合物联网感知信息、人口、法人、地理空间等数据,可以分别为领导决策、相关部门业务协同、社会公众等提供更具针对性的信息服务,开创环保工作新局面。

生态文明建设关乎人民生活和民族未来,环境保护工作势在必行。“两会”期间发布的《2014年政府工作报告》就明确提出,我国将出重拳强化污染防治,健全政府、企业、公众共同参与新机制,实行区域联防联控,深入实施大气污染防治行动计划。由此可见,“联防联控”已成为新时期环境治理和生态文明建设的关键词,“大数据”理念及相关技术将会在环保领域获得更多的用武之地。而东方通凭借在数据资源共享交换方面积累的丰富实践经验,将通过大数据等先进技术为环境保护工作提供更多的专业支持。

服务器数据存储技术研究 第12篇

RAID:最为普遍的存储技术

从传统的计算机存储功能来看, 大型计算机都要求安装有足够的存储空间提供给数据冗余, 来处理日益增加的数据, 即针对所涉及的信息建立起一个以代码的形式形成的数据镜像, 并复制在计算机中, 一旦原始数据出现了问题, 马上调数据镜像弥补, 并在必要时替代损坏的数据。随着数据的不断处理其缓存与数据占用的不断累积, 这种存储方式对于计算机的固定的存储空间只能累积增长, 以至于存储成本令人难以接受。因此, 后来计算机开发人员习惯用RAID来解决问题。

RAID定义为独立磁盘冗余列阵, 其存储原理是通过对数据与信息的存储, 用不同的代码来区分不同的存储级别, 分为RAID 0, RAID 1, RAID5等等类型。不同的代码分类级别, 代表着不同的存储方式, 对应的有差别的数据与存储对象, 每种方法都有其自身的特点。下面分别解释一下。

RAID 0层级是将数据分割成为若干层次, 存储在所分层次的存储区域中。它的工作原理是将代码分成块, 再将存储数据的分块存入两个及以上的存储磁盘中。然后, RAID1作为RAID0的数据镜像, RAID 0/1再将代码分割后再结合。这种镜像要求的配置是至少4块存储级及以上。例如, 如果想要将某一个数据块整体写到磁盘1上, 再将数据1的镜像存储到磁盘2上, 数据块2上的代码再存储到磁盘3上, 再将其数据镜像存储到磁盘4上, 磁盘4的数据写到磁盘1上, 由此循环。

RAID 3和5:带奇偶校验的块分割原理, RAID3或5的工作原理与RAID0/1相似, 但又体现出一些差别, 首先RAID3和5不是用具体的数据镜像来处理数据, 而是通过对奇偶数据校验, 来甄别数据, 并采用相对应的数据块位图的方式表示存储数据。如果要满足存储需要, 服务器还可以利用奇偶校验块分离存储的方法来建立存储库。举个例子来说, 用RAID 3中进行校验, 其分割好的奇偶校验块, 存储在同一个磁盘驱动器上, RAID 5则采用不同的校验块分割, 再将奇偶校验块分别分布到多个磁盘驱动器上存储数据。应该注意。例如, 在RAID 5存储类型的奇偶校验块中, 将磁盘3的奇偶校验块备份在磁盘1、2、4、5上, 并产生数据映像;磁盘2中的奇偶校验块则通过磁盘1、3、4、5上的备份数据映像, 依此类推。这个方式在其中一块磁盘出现差错后, 控制器则可以利用奇偶校验块来直接重建数据。

综上所述, 在传统的RAID磁盘阵列方法的运用中, 如果要求用户按照选择的一个RAID级别来运用, 将数据将一直保存在当前所选择级别中, 除非系统管理员把数据重新排列组合到另外一个层级上。而RAID在存储方式上注定了其高花费, 而且缺乏高性能, 所谓的性价比较低。

Auto RAID:智能的RAID

为了解决RAID占用存储资源较大, 成本较高的问题, HP公司又开发出了Auto RAID系统, 其实就是RAID的加强版, 它不但把不同类型RAID存储块结合起来, 组成多级RAID阵列。还按RAID 0/1的存储方式, 快速高性能的利用磁盘存储数据;将不太常用的少数数据放在RAID存储的高效节省的磁盘中。

对于RAID0/1、RAID3/5存储, Auto RAID加速了RAID 0/1的存储速度, 简化了存储步骤, 作为相对存储空间较大, 但是成本较低的RAID 5存储模块。为了与RAID5空间存储结构的缓冲式奇偶校验技术区分开, Auto RAID改变了RAID 5模式的“一读一修改一写”的方法。它允许数据自由的写入存储空间, 并将分好的奇偶校验块也一起写人缓存, 直到数据的存入到该数据分割块的末端。Auto RAID其主要存储原理是把动态数据从快速存取的RAID板块切换到RAID5中。因为所有的数据的转移与存储都在后台统一进行, 因此, 并不影响系统的性能与存储质量。其工作原理大致如下:

第一将第一数据写入磁盘阵列中, 将数据分为原始代码数据与数据代码镜像。第二, 当录入端向存储阵列写入更多的数据时, 由于尚有足够的模块空间可以支配, 所以被写入磁盘的数据不会被写入下个磁盘, 然而其数据镜像则会被写入下个磁盘。第三, 输入端继续向磁盘阵列写人数据, 直到列阵模块被写满。这时, 现有的数据虽然仍可按板块RAID 1存放, 然而其他数据将不能再写人磁盘。因此, 这时系统为了腾出一定的数据空间, 就应将现有的数据存储区域, 按RAID 5的存储动态区存储数据。第四, Auto RAID将RAID 1转为RAID 5的数据存储模式来继续存储数据, 也就是说它们的备份是存储在磁盘4上的奇偶校验块。这样, 就为新的数据存储区域就省下了2、3两个区域。第五, Auto RAID将数据块直接用RAID 5来存储。这样就有4块空间可以用来存储新的数据与镜像。Auto RAID将最近才被写人磁盘的数据存入RAID5, 所以数据有可能被重写。并仍按RAID1存储它们, 这样的存储方式可以在修改它们时提高系统的存储能力与效率。

动态数据转移充分利用存储介质

为了更好的转移存储数据, 系统设置了一套可以录入与转移数据的控制机构, 这个系统机构不但可以连续的监控磁盘所剩容量与矩阵性能, 还能将数据镜像存储于磁盘的缓存中, 并判断能否按RAID 1存储, 与是否有必要写入更高的阵列。Auto RAID就是可以接受新数据, 并将不常用的数据存入RAID5, 只要存储区域不小于整体存储容量的10%, 都可以确保存储效率与性能。其中Auto RAID在动态数据转移时, 还保留有一定的空间来应付突发的大流量写操作。

Auto RAID的优点

1.建立高效的虚拟存储器。

Auto RAID原理是使用的磁盘空间更加的透明化, 它利用虚拟存储的原理将所有空间都视为虚拟的, 然后最大效用的分配存储方式。计算机Auto RAID系统允许计算机用户配置一个逻辑虚拟磁盘, 且无须担心它是独立的实体磁盘还是虚拟磁盘。

2.自动配置轻松改变磁盘容量

Auto RAID存储系统可以提供用户自动设置存储区域的功能, 它更进一步的增加了磁盘存储能力, 并将改变系统配置的效率变得简单且迅速。用户只要将存储磁盘安装好, Auto RAID可以自动地判断所使用磁盘的大小, 并将数据加人磁盘阵列中。系统能立即利用新磁盘的空间进行操作, 并将更多的数据按RAID 0/1区域存储, 最终提高系统的性能与存取速度。

3.激活的热备用增加了投资回报

数据服务范文

数据服务范文(精选12篇)数据服务 第1篇水利数据中心为了给各级水行政管理部门、企事业单位和社会公众提供高效可靠的数据与服务,由国家、...
点击下载文档文档内容为doc格式

声明:除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。如若本站内容侵犯了原著者的合法权益,可联系本站删除。

确认删除?
回到顶部