人工智能计算机发展
人工智能计算机发展(精选10篇)
人工智能计算机发展 第1篇
1956年的Dartmouth学会上, 人工智能这一概念被首次提出。自此, 随着众多研究者的努力钻研与发展, 人工智能的概念得到了不断地拓展并发展出了众多理论和原理。作为一门由多个学科相互渗透发展而来的科学, 人工智能理所当然的极其具有挑战性, 它要求这项工作的参与者们除了掌握计算机知识以外, 还必须懂得心理学以及哲学等学科。而人们对人工智能进行不断地研究的目的, 主要是让机器能够代替人类完成一些通常需要人类智能才能完成的复杂工作。由于目前计算机是进行人工智能相关研究的主要物质手段以及实现人工智能技术的途径, 所以人工智能的发展史与计算机科学与技术的发展史是紧密相连不可分割的。作为一门包含十分广泛的科学, 人工智能不仅涉及计算机科学, 还涉及信息论、自动化、生物学、仿生学、数理逻辑及语言学等诸多学科。自动推理和搜索方法、自然语言理解、计算机视觉、自动程序设计及机器学习和知识获取则是人工智能研究的主要内容。
2. 人工智能的发展历程
在过去半个多世纪的发展历程中, 人工智能取得了长足发展, 但其发展的道路并不是一帆风顺的。人工智能的发展历程大致可分为五个阶段。
在1956年之前是人工智能的第一阶段也是人工智能发展的萌芽期。1956年, 人工智能的发展迎来了第一次高潮期。这一年的夏天, 在Dartmouth学会上, 人工智能这一词被首次提出, 标志着人工智能这一学科的真正诞生。到了1967年, 人工智能的发展进入了低谷, 并且一直持续到了八十年代初期。在这段时间内, 人工智能的研究与发展遭遇到了巨大的障碍, 由于之前在人工智能发展中取得了许多成果, 人们被这些成果蒙蔽了双眼, 低估了人工智能发展道路的坎坷, 使得人工智能的发展进入瓶颈, 甚至没有比上一时期更重要的理论诞生, 但是从事人工智能研究的科学家仍然在努力着。
八十年代中期到九十年代初期, 随着科学的不断发展以及第五代计算机的问世, 人工智能的发展终于迎来了它的第二个高潮期, 也是其发展的黄金期随着人工智能的不断发展, 其开始进入市场并凭借优秀表现让人们看到了人工智能的未来。
在这之后, 人工智能的发展进入了第五个阶段, 也就是九十年代之后的平稳发展期, 在这一时期, 随着互联网的迅速发展, 人工智能的研究也由个体人工智能向网络环境下的分布式人工智能开始转换, 人工智能已经渗入到了我们生活的方方面面。
3. 人工智能的主要学派
在半个多世纪的发展过程中, 人工智能的发展主要产生了三大学派, 分别是符号主义学派、行为主义学派以及联结主义学派, 三大学派分别从不同的角度对人工智能进行了研究, 推动了人工智能的发展, 做出了巨大的贡献。
符号主义学派以物理符号系统假设以及有限合理性原理作为理论基础, 认为符号是人类的认知单元, 而对符号的计算以及推理的过程就是认知的过程。这一学派在归结推理、翻译、数学问题证明以及专家系统和知识工程等方面极大地推动了人工智能的发展。
行为主义学派则又被叫做进化主义或控制论学派。该学派与符号主义学派不同, 认为智能并不需要逻辑知识和推理, 而是由感知以及行动决定的, 同时, 该学派认为行为、感知以及维持生命和自我繁殖等四大能力是人的本质能力, 而人类和现实环境的交互作用则是智能行为的体现, 与人类智能相同, 人工智能的实现应该靠逐步的进化, 而非知识的表示及推理。行为主义学派虽说还未形成完善独立的理论知识系统, 但其在人工智能领域独树一帜, 该学派对于人类控制行为的研究极大地推动了人工智能的发展。
联结主义学派即仿生学派, 该学派理论认为认知的基本单元是神经元, 而非符号, 大量神经元的联接就是认知的过程, 通过对作为所有智能活动的基础的大脑的结构及其对信息进行处理的过程和机理进行研究, 就可能解密人类智能, 进而真正的实现人工智能。
4. 人工智能的发展前景
人工智能目前研究的主要目标是对于可以替代人类进行脑力劳动的智能计算机的研发, 虽然无法准确的预测人工智能的未来, 但目前的一些前瞻性研究为我们指明了人工智能未来的几个大致发展方向, 即模糊处理、并行化、神经网络以及机器情感。人工神经网络是未来人工智能应用的新领域, 而对于人和计算机自然交往极为重要的情感能力则可能成为人工智能研究的下一个突破, 但是对于人工智能是否真的能够拥有情感这一问题, 目前还没有人有把握回答。
对于人工智能的发展, 人们最迫切最想知道的问题是人工智能是否能够赶超人类, 比人类更聪明。对于这一问题, 许多科学家认为只是时间问题, 比如人工智能软件设计师库尔兹维尔, IBM的霍恩以及AT&T的斯通。与以上问题随之而来的还有一个更可怕的问题, 即人工智能变得比人类更聪明后是否会反戈一击, 与人类为敌, 对于这一问题, 霍恩认为即使人工智能的粗略运算能力超过人类, 它也不可能具备人类所有的精细特征, 因为这些人类大脑的微妙能力是人类自己都不了解更无从模仿的。库尔兹维尔则认为人类在开发人工智能的同时, 会永远走在最前面, 不断地提高对人工智能的引导与管理, 掌握控制权, 所以这一问题并不可能发生。
人工智能像其他学科一样具有挑战性, 它的发展过程会有各种障碍, 但人工智能的实现是人类一直以来的梦想, 并且凭借着人类的信心、毅力以及努力, 终有一天人工智能能够真正的成为现实, 走进我们的生活, 为我们的生活提供便利。
摘要:人工智能是多个学科互相融合互相渗透发展而来的产物, 并于1956年被首次提出。伴随着半个多世纪的发展历程, 在诸多领域人工智能已经取得了长足的进步, 并逐渐形成了以符号主义学派、行为主义学派以及联结主义学派等三大派系为首的局面。本文对计算机人工智能的发展进行了探究。
关键词:人工智能,发展历程,主要学派,发展前景
参考文献
[1] 、孙晔、吴飞扬《人工智能的研究现状及发展趋势》2013.10
[2] 、李甜娇《浅析计算机人工智能应用与发展》2013.01
[3] 、张妮徐文尚王文文《人工智能技术发展及应用研究综述》2009.02
[4] 、朱祝武《人工智能发展综述》2011.10
[5] 、杨状元林建中《人工智能的现状及今后发展趋势展望》2009.04
智能计算机有哪些智能 第2篇
智能计算机的研究内容主要包括:智能机器、智能存储、智能软件、智能计算以及智能通信。
智能机器
智能机器以智能机器人为代表,它主要经历了三个发展历程:①第一代机器人。科技界把早期的机器人称作第一代机器人,这些机器人按人编写的程序工作。从严格的意义上来说,它们不属于机器人,因为它们只能够重复一种动作,以一种固定的模式工作,这显然是很不够的,于是就出现了第二代机器人。②第二代机器人由计算机控制,可以根据需要按不同的程序完成不同的工作,这使得机器人在很多人类所不能完成的工作上大展拳脚,解决了很多工业生产中的难题。③第三代机器人也称为智能机器人。随着科学技术的不断进步,机器人逐渐朝智能化方向发展,智能机器人也就应运而生。智能机器人具有人的智慧,可以认识周围的环境和了解自身的状态,并且能够进行分析和判断,然后采取相应的策略完成相关的任务。
智能存储
智能信息技术主要包括信息的采集、传输、处理、存储等几大部分,现在计算机存储技术在信息技术中占有的地位越来越重要。所谓“智能存储”是指计算机存储系统本身具备一定的智能特征,它在整个存储系统的访问控制、容量扩展、数据的可靠性和可用性等方面发挥着重要作用,可以实现海量存储系统的数据存储访问的自动管理与控制,能够最大限度地减轻应用主机处理数据存储的负担,达到用户对计算机存储系统的“透明访问”目的。
“智能存储”必须有相应的软/硬件产品的紧密配合才能实现,它包括智能化的存储设备和智能化的存储管理软件等。智能化的存储设备是指带有智能接口的各种存储设备,智能存储管理软件是一种能够对存储系统中的各种数据进行高效地存储和管理的软件产品。智能存储管理软件一般应该具备(1)对存储资源的“透明”式访问,(2)存储资源的虚拟化和统一管理,(3)分级存储管理,(4)数据备份和数据保护,(s)存储访问安全控制,(6)存储设备安全预警和数据主动迁移等主要功能。
对用户而言,智能存储方案将带给他们明显的收益,反映最突出的是存储系统的高可用性和高可靠性。
智能软件
智能软件的主要特征包括:①知识处理。一个智能软件处理的对象,不仅有数据,而且还有知识。表示、获取、存取和处理知识的能力是智能软件与传统软件的主要区别之一。因此,一个智能软件也是一个基于知识处理的软件。②问题求解。一个智能软件往往采用人工智能问题的求解模式来获得结果。与传统的软件所采用的求解模式相比,智能软件的问题往往具有指数型的计算复杂性。智能软件通常采用的问题求解方法大致分为搜索、推理和规划三类。③现场感应(环境适应)。智能软件与传统软件的又一个重要区别在于:智能软件具有现场感应的能力。所谓现场感应是指它可能与所处的现实世界进行交往,并适应这种现场。这种交往包括感知、学习、推理、判断并做出相应的动作。这也就是通常人们所说的自组织性与自适应性。
智能计算
智能计算体现了智能信息处理新的一代计算风范。传统的智能计算技术的主要原理与技术、方法主要包括知识的表示、基本推理、不确定推理、搜索原理等。同时,现代智能技术主要的研究与发展方向主要包括模糊逻辑、神经网络、进化计算等,并从工程应用的角度研究人工智能的实际问题及其解决方法。目前,粗糙集理论、模糊逻辑、人工神经网络理论及其应用是智能计算领域近年来迅速发展的重点课题。这些理论在研究不精确、不完整、不确定的真实世界中对数据的知识表达、学习、挖掘和归纳等方面提供了有效的处理技术和方法,把人们带到一个科学逻辑思维和智能信息处理的新天地。
智能通信
智能通信主要包括企业智能通信、智能通信系统、互动智能通信等三个方面。智能通信主要是从实用和科研的角度出发,将飞速发展的网络技术同基本原理结合起来,立足于技术前沿,从“三网(计算机网络、电信网、有线电视网络)融合”引出目前正在研究的智能通信技术,以及智能通信的背景、智能通信的概念及其体系结构、智能通信的科技基础和关键技术、智能通信提供的服务与应用案例分析、智能通信的研究进展等。目前,智能通信的研究内容主要涉及“三网”融合、智能通信的基础设施——下一代网络、智能通信的核心技术、智能通信的排头兵——移动计算、智能通信中的人工智能、智能通信的协议与编码标准、面向服务的智能通信、智能通信提供的服务与应用等。
智能计算机及其关键技术还很不成熟,现主要应用于模式识别、知识处理及智能开发等方面。尽管所取得的成果离人们期望的目标还有很大距离,但已经产生明显的经济效益与社会效益。智能计算机已在管理调度、辅助决策、故障诊断、产品设计、教育咨询等方面广泛应用,并且在文字、语音、图形图像的识别与理解以及机器翻译等领域也取得了重大进展,这方面的初级产品已经问市。(文章代码:2108)
浅谈人工智能计算机的发展 第3篇
一、第五代计算机的构想
我们当前使用的计算机是第四代电子计算机, 它的功能强大, 广泛应用于各行各业, 然而与人的大脑思维相比它就显得被动、愚蠢。因此人们幻想着发明一种能模拟大脑思维的计算机第五代计算机, 也称作人工智能计算机。智能计算机突破了传统的冯诺依曼式机器的概念, 舍弃了二进制结构, 把许多处理机并联起来, 并行处理信息, 速度大大提高。它的智能化人机接口使人们不必编写程序, 只需要发出命令或提出要求, 计算机就会完成推理和判断, 并且给出解释。
二、人工智能推动下计算机的发展
(一) 人工智能推动下计算机的发展趋势
传统计算机今后的发展方向只是速度更快、容量更大、体积更小、软件更加丰富, 结构上不会有太大变化。而未来的计算机发展将向着超高速、超小型、平行处理和智能化方向发展。未来将出现量子计算机、光子计算机、分子计算机和纳米计算机, 这些类型的计算机将具有感知、思考、判断、学习及一定自然语言能力, 使计算机进入人工智能时代。
1、量子计算机是一类遵循量子力学规律进行高速数学和逻辑运算、存储及处理量子信息的物理装置。它的优点在于能够实行量子并行计算, 极大地提高量子计算机的效率, 使其可以完成经典计算机难于完成的工作;采用量子位存储, 大大提高了存储能力, 可以对任意物理系统进行高效率的模拟。随着毫微技术的进步和毫微米级加工技术的发展, 科学家预计世界上第一台量子计算机有望在10年后诞生。
2、光子计算机是充分利用经过人造有机分子折射出的光波进行信息处理的计算机。它的优点在于具有超高速的运算速度, 并行处理能力强, 集成密度高, 超大规模的信息存储容量, 能量消耗小, 散发热量低。目前, 世界上第一台光子计算机已由欧共体的70多名科学家研制成功, 其运算速度比电子计算机快1000倍。科学家们预计光子计算机的进一步研制会是21世纪科技领域的重大课题。
3、分子计算机是指用遗传工程的方法, 以超功能的生物化学反应模拟人体的机能, 完成大量复杂信息的存储和处理的计算机。它的优点在于以波的形式传播, 运算速度比现在最快的电脑快100万倍, 能量消耗仅相当于普通计算机的十亿分之一, 高密度的集成化, 体积小, 记忆力强, 具有巨大的存储能力和自我修复的能力。目前以色列科学家已经研制出微型分子计算机, 预计20年后分子计算机将进入实用阶段。
4、纳米计算机是采用纳米技术研发的新型高性能计算机。它的优点在于不仅不需要耗费任何能源, 而且其性能要比今天的计算机强大许多倍;它体积小、造价低、存量大、性能好, 将逐渐取代芯片计算机, 推动计算机行业的快速发展。目前惠普实验室的科研人员正在应用纳米技术研制计算机内存芯片, 其体积不过数百个原子的大小, 相当于人的头发直径的千分之一。一旦他们的研究获得成功, 将为其它缩微计算机元件的研制和生产铺平道路, 也将为应用纳米技术研制新型计算机呈现出一丝曙光。
(二) 目前人工智能计算机发展的局限
图灵测试的公布使人们对人工智能计算机不久即将出现充满了信心。然而从上世纪80年代至今, 人们还未见到人工智能计算机的影子。人工智能计算机的研制行动可谓是自计算机发明以来最激动人心的大行动, 也是一个无奈的失败, 失败的原因何在?
第一代至第四代计算机都采用冯诺依曼结构, 这种计算机是数字式计算机, 适用于数字计算, 而对图像、声音之类的模拟信号的处理却无能为力。人工智能计算机的设计突破了传统的冯诺依曼结构, 在对模拟型号的处理上也能发挥得淋漓尽致。目前, 已有无数科学工作者在计算机处理模拟信号方面取得了一定的进展, 然而与大脑的思维相比仍然相差甚远。近些年来, 随着脑科学、神经心理学等研究的进展, 对人脑的结构和功能积累了一些初步认识, 但对整个神经系统的内部结构和作用机制, 特别是脑的功能原理还没有完全搞清楚, 有待进一步地探索。时至今日, 我们还不知道大脑是怎样处理信号的。正因如此, 我们不可能研制出一种能模拟人的思维的人工智能计算机。也就是说要想研制出理想中的第五代计算机, 必须首先研究清楚大脑是如何处理信号的, 这就是目前人工智能计算机发展的瓶颈。
三、结束语
相信随着信息、仿生、生物、纳米等相关技术的发展, 以及人工智能科学逐渐完善, 人工智能计算机发展中的瓶颈终将突破, 这类超高性能计算机呈现在我们面前已不再是遥不可及的构想。
摘要:在人工智能推动下, 计算机有了新的发展趋势, 不过目前人工智能计算机发展面临瓶颈问题仍待解决。
关键词:人工智能,人工智能计算机
参考文献
[1]王永庆.《人工智能原理与方法》.西南交通大学出版社, 2006年12月第13次印刷.
人工智能计算机发展 第4篇
关键词:人工智能;计算机;网络技术
中图分类号:TP393.0 文献标识码:A文章编号:1007-9599 (2011) 06-0000-01
Artificial Intelligence Application Analysis in Computer Network Technology
Xiong Zhongliang
(Dongguan Higher Technical School,Guangdong523112,Chian)
Abstract:Along with the continuously development age,computer network is more and more extensive,the application is also more and more,
correspond,people request to also no longer stay around to handle a data to the computer network technical,analytical data,storage etc.function top People's demand is more and more,also more and more and strictly,have 1 among them be hope that the artificial intelligence receive a full application in the computer network technology
Keyword:Artificial intelligence;Computer;Network technology
计算机网络在运行时,也会碰到这样那样的问题,也会被网络黑客攻击,当计算机网络系统发生故障的时候,要求网管人员能够迅速、精确地判断故障的部位与故障的性质,及时的处理好故障,使得计算机网络系统能够尽快恢复运行。而人工智能不但可以帮助网络管理人员排查故障,还能加强计算机网络的安全性。
一、人工智能与计算机网络的关系
(一)人工智能概述
人工智能,指的是如何利用计算机、机械来模仿人的大脑,进行各种问题的推理、设计、规划、学习、思考等思维活动,并且有效解决比较复杂、比较困难的问题。人工智能的目的就是利用各种自动化机械或者智能机器,尽量模仿、延伸和扩展人类的智能思维,从而实现计算机网络管理的人性化。
(二)人工智能与计算机网络的关系
人工智能其实是一个大科学的名称,人工智能覆盖了很多的研究领域,不仅是理论研究,还有各种实践研究,包括了计算机科学理集结、电子学基础、生理学基础、化学、心理学基础、物理、数学、生物学、语言学和哲学等等学科。人工智能是一门具有广泛应用领域的学科,它把整个科学体系作为自己的潜在应用领域。而人工智能与计算机网络的关系是最为密切的,因为,我们都知道,人的思维活动是非常复杂的,而这样的情况,只有计算机网络能够有效处理,所以,人工智能与计算机网络是相辅相成的。当我们使用人工智能,可以设计和研发各种计算机的系统,并且通过网络与现有的数据库合成,模仿各行各业的专家去从事医疗诊断、财务管理、金融分析、药物合成等脑力劳动工作,以完成某些需要人的智能、运用专门知识和经验技巧的任务等等。
二、人工智能在计算机网络技术中的应用
(一)各领域全面扩展
自上个世纪下半叶开始,计算机网络开始飞速发展,而计算机网络的发展也带动了整个社会经济的全面发展,这一过程非常清楚、明白地揭示了,在信息社会时代,管理、生产必须由计算机、通讯和网络来全面实现,缺一不可。
计算机网络的应用正在迅速的向全球的各个领域迅速的扩展和延伸,要处理的事情与业务也越来越多,从家庭事务到办公室业务,从企业的商务、财务处理到政府部门的各项政务,计算机网络正在承担越来越多的责任,而人工智能可以帮助计算机网络更好的处理业务,更精确的完成任务。
(二)智能推理与智能运算
计算机网络技术正在迅猛的发展,如何利用计算机网络更好地为人类服务,最大程度的满足公众的需求,是当代计算机网络发展的责任与义务。计算机网络系统工作具有实时性、动态性与瞬变性等多个性质特点,并且随着网络规模的不断扩大,计算机网络管理的区域也越来越广泛,结构组成也越来越复杂,这就要求我们不仅要保证数量,还要保证质量,所以,仅靠网络管理人员是不够的,人工智能是最好的选择,能够保证网络安全可靠、高效、稳定的运行。
众所周知,人工智能技术是一种模仿高级智能的推理和运算技术,人工智能与计算机网络的结合使得智能推理与智能运算在越来越多的行业中使用,并且在很多实际的控制和管理问题上都表现出强大的优势。
(三)人工神经网络
人工智能就是刻意的模仿的人的思维活动,对各种问题进行解决,我们知道,人的思维活动是通过一个个的神经细胞运作,经过神经纤维的传输来进行的,所以,技术人员在通过不断的实验与努力,成功的模仿了人脑的组织结构与思维传输方式,开发人工神经网络的信息处理系统。
通过模拟人脑的人工神经网络信息处理系统,可以大量的处理与解决各种问题,并精确的实现故障的诊断,人工神经网络不同于专家系统,因为该诊断方法是由人工神经网络方法通过现场大量的标准样本的学习与不断重复的训练来实现的。
(四)几种智能方法的综合
在计算机网络管理过程中,可以将以上几种人工智能的应用有机融合在一起,智能推理、智能运算、神经网络等等,发挥各自的优点,弥补各自的不足,有效的完成计算机网络管理任务,同时,尝试用不同的途径去解决计算机网络故障,发现更多的问题,不断的填充与完善人工智能系统,综合应用集成专家系统。
三、结束语
计算机网络已经扩散到整个社会,对各行各业的发展都有巨大的影响,而计算机网络管理则是通过精确合理的规划,科学有效的数据分析,来控制网络,以保证网络服务的质量。人工智能的出现,必定会更好的将这些业务进行融合。
五、参考文献
[1]倪远平.人工智能用于故障诊断的方法研究[J].电气传动自动化,2008,20
[2]吴洪森.计算机网络与人工智能[J].计算机与网络[J],2006,1
人工智能计算机发展 第5篇
智能信息处理技术的发源可以追溯到上个世纪三十年代。当时虽然已经有了此方面的一些理论和研究方法, 但因为没有智能运算的工具, 智能信息处理技术在实际发展中很难应用。直到后来计算机的出现和广泛推广, 智能信息处理技术才得到飞速的发展。到了现在, 市场上已经有了一大批具有智能信息处理技术的实用性产品, 在我们的生活和学习中得到了广泛的应用。这些产品在给人们的生活学习带来诸多方便的同时, 也带来了巨大的经济效益。比如目前广泛应用在医学的CT机, 就是利用计算机智能信息处理技术研发的产品。此外, 以美国著名科学家J.W.Cooley为首的科研团队研发出了FFT算法, 这种算法能够很好的应用在硬件电路中。正因为如此, FFT算法被深入应用到了各种智能检测仪器中, 从而大大增强了这些检测仪器的精度和自动化程度。近几年来, 计算机智能信息处理技术的发展越来越迅速, 其技术水平的更新速度也越来越快, 大多数信息处理类的系统中都需要计算机智能信息处理技术作为支撑。
2 计算机智能信息处理技术的应用方法
2.1 人工神经网络方法
人工神经网络方法主要是根据数学模型和网络模型提出的。其中, 在数学模型中, 人工神经的结构是参照人体大脑的神经元组织来创建的, 其也是信息处理最基本的单元体。在数学模型中构建了大量的人工神经单体, 并将这些单元体有机的组合在一起, 最终形成了一个较为复杂, 并且能完成各类需求功能的神经网络结构。实际上, 这种结构的关键点就在于每一个人工神经单元体之间的连接。而在网络模型中, 其也是根据人工神经单元体来创建每一个基础单元体的。但不同的是, 网络模型更注重于多个单元体之间的联系。即在网络模型中, 将数个人工神经单元体用特定的结构排布方式组合在一起, 从而将其变成一个完整的网络模型。根据我国相关技术在此方面的研究现状来看, 目前我国研发出来的网络模型种类已经达到了数十种。此外, 根据连接方式和信息流动方式的不同, 可以将人工神经网络模型分为两种, 即前向型网络和相互结合性网络。其中前者没有系统的信息反馈机制, 而后者具有这样的机制, 因此其又被称作反馈性神经网络模型。
2.2 模糊神经网络
模糊理论主要是用于研究哪些不确定的现象。研究对象的不确定主要是对象本身带有的, 并不属于传统数学理论中二元性原则的研究范畴。这就使得这些研究对象不能清楚的划分, 从而带有一定的模糊性。模糊系统则是以模糊理论为核心内容, 拥有模糊信息处理能力的一种动态系统。模糊系统主要分为四个部分, 即模糊规则库、模糊产生器、反模糊化器和模糊推理机。在模糊系统和神经网络的相互融合下, 相关的研究人员研发出了模糊神经网络。它主要是将模糊系统和神经网络的相关理论体系结合在一起, 并融入了语言逻辑计算、动力学理论等多种理论和方法, 最终具有了较好的识别、联想和模糊信息处理能力。模糊神经网络的核心就是要让模糊输入信号和相应权值附加在神经网络上, 在取长补短的基础上发挥它们各自的优点。模糊神经网络的研发和推广, 对于计算机信息技术的发展具有着里程碑式的作用。
2.3 进化算法
进化算法主要是根据自然生物界中的自然选择定律和遗传定律创建的, 对于机器的优化和学习具有很强的指导意义。进化算法又被称为遗传算法, 其主要是根据生物界的各种遗传模型, 在研究对象全范围内进行优化搜索。这种算法的应用方法较为简单, 并且具有很广泛的应用范围, 能够很好的对对应信息进行并行处理。遗传算法主要是以某个个体为研究对象, 从而进行一系列的选择、交叉和变异等各类操作, 这也使得遗传算法与传统算法有了非常明显的区别。近几年来, 经过相关学者的不懈努力, 进化算法已经能够在图像识别、机器学习、自动化控制等多个方面有深层次的应用, 同时也已经成为了计算机智能信息处理技术的常用算法之一。
2.4 信息融合技术
信息融合技术主要用用来对多种信息进行加工和利用, 并让它们的优点相互之间补充, 最终获得较为真实和准确的信息。信息融合技术主要是利用多传感系统, 对研究对象进行精准的检测, 并将所有不确定的信息剔除出去, 从而增强最终结果的准确性和可靠性。信息融合技术的原理是根据人体大脑的综合处理信息能力进行研发的。整个系统中具有很多不同种类的传感器, 并且每个传感器发出的信息也是不一样的, 而多传感器的信息融合系统能够像人脑一样, 对各种信息进行处理和整合, 最终充分利用各种有用的信息, 并将多余的信息进行科学的组合, 从而提升信息的正确性。目前, 信息融合技术主要分为两种, 即高层次的处理和低层次的处理。其中, 前者主要是指对于势态和威胁的估计, 以及整个信息融合过程的提取。而后者则主要是一些数据的预处理以及研究对象的检测和分类等。
3 计算机智能处理技术的实际应用
在日常生活中, 计算机智能处理技术有很强的应用性, 其主要表现在三个方面。第一, 此技术应用到各类机器中, 能够大大加强机械的智能化和自动化, 从而减少劳力和脑力的过度使用。第二, 此技术对于文字、语音、影像等研究对象具有很强的识别能力, 从而使得机器可以独立的进行相应的理解和翻译工作。第三, 在互联网技术高速发展的背景下, 此技术能够通过路由器等相关设备, 对数据的传输路径进行全面分析, 从而找到数据传输的最优途径, 最终提高网络的畅通度。
参考文献
[1]白娟.数字图书馆向知识服务转型中智能信息技术应用探讨[J].高校图书情报论坛, 2010 (03) :23-26.
[2]叶球孙.基于VCR智能特性的系统信息数值处理技术[J].计算机系统应用, 2009 (12) :173-178.
人工智能计算机发展 第6篇
关键词:计算机辅助教学,人工智能,ICAI,智能计算机辅助教学
引言
计算机辅助教学 (Computer Assisted Instruction, 简称CAI) 是利用计算机模拟教师的行为, 通过学生和计算机之间的交互活动来达到教学目的。自第一个C A I系统由I B M公司研制出开始 (1 9 5 8年) , 就得到了各国的重视, 逐步形成了C A I产业。然而, 由于传统的C A I系统难以对不同水平和能力的学生采用相应的教学策略和合适的教学方式, 略显美中不足。
随着计算机科学和人工智能 (Artificial Intelligence, 简称AI) 技术的不断发展和成熟, 有人开始将A I引入C A I中, 使C A I系统可以智能地理解教学内容、教学对象以及教学方法, 因而也就能够合理安排教学内容、改变教学方法以满足个别教学的需要, 这就是以A I技术和认知理论为基础而形成的智能计算机辅助教学 (Intelligent Computer Assisted Instruction, 简称ICAI) 系统。它是计算机应用技术的一个新领域, 代表了一种新的教学思想和教学方式, 提高和改善了教学质量和效率, 完全弥补了传统C A I系统的不足。
一、ICAI的功能特性
智能计算机辅助教学 (intelligent computer assistedinstruction, 简称ICAI) 是以认知科学和思维科学为理论基础, 综合人工智能技术、教育心理学等多门学科的知识对学生实施有效的教育的一门新的教育技术。它将教学内容与教学策略分开, 根据学生认知模型提供的信息, 通过智能系统的搜索与推理, 动态生成适合于个别化教学的内容与策略;通过智能诊断机制判断学生的学习水平, 分析学生产生错误的原因, 同时向学生提出更改建议以及进一步学习内容的建议;通过对全体学生出现的错误进行分布统计, 智能诊断机制将向教师提供教学重点、方式、测试重点、题型的建议;为教师提供友好的教学内容、测试内容维护界面, 无需改变软件的结构即可调整教学策略;通过对学生认知模型、教学内容、测试结果的智能分析, 向教学督导人员提供对任课教师教学业绩评价的参考意见。可以说, 一个理想、完美的ICAI系统就是一个完善、智能的“教、学、做、考”一体化教学系统。
由于ICAI系统采用了先进的设计理念, 结合人工智能科学、超文本和多媒体技术, 通过计算机将文本、图像、声音、动画等各种媒体信息结合起来。因此, ICAI系统用于教学有如下显著特点。
1. 有利于激发学生的学习兴趣和认知主体作用的发挥。提高学生的学习兴趣, 引导学生进入一个主动的、高效率的学习环境中。
2. 特别有利于个别化教育, 因材施教。教学研究表明, 个别化教学远比集体教学有效。
3. 有利于知识的获取与保持。有助于推广优秀教师的科学教学方法和渊博的科学知识。其复制和传播不受时间和空间上的限制,
4. 可实现对教学信息最有效的组织与管理。
5.可作为认知工具实现最理想的学习环境。
虽然I C A I的研究取得了一定的进展, 但是目前比较成熟的I C A I教学系统是作为专家系统的一部分来研制的, 真正为教学而设计的I C A I系统还不多。不难看出, ICAI与传统的C A I相比, 更加符合教育教学的规律、学生的认知习惯, 具有明显的优越性。
二、ICAI的发展趋势
完善的I C A I系统能够充分调动学生的主动性, 并能通过分析推理, 对个体学生做出适合的教学决策, 实现个别化教学, 达到因材施教的目的。在实际设计时, 由于需要考虑的因素较多, 系统比较庞大, 同时也依赖于人工智能等技术的发展, 因而要建立完善的I C A I还是比较困难的, 这也正是未来计算机辅助教学的努力目标, 可以预计未来的计算机辅助教学研究, 将朝着集成化、协调化、超媒体网络化和智能化于一体的方向发展。I C A I在发展中不是孤立, 它是伴随着人工智能在诸多领域的应用及多种科学技术的不断发展而发展的, 表现为以下几方面的发展趋势。
1. ICAI发展的网络技术化
网络化是当今世界I C A I系统的一大优势和特色。“无机不联”正是现代高等教育计算机使用情况的真实写照。随着多媒体技术和Internet网络的飞速发展, 多媒体教育技术与Internet的进一步融合, ICAI不仅仅只在人工智能上单一发展, 它不可避免地还要向多维的网络空间发展。目前, 基于Internet网的ICAI系统正在蓬勃发展, 它借助网络的优势, 完成在线学习、实时讨论、网上测试等多种教学任务。网络化智能教学系统能使任何人在任何地点、任何时间都可以学习所需要的内容, 并能为学习者建构知识提供丰富的信息, 满足学习者的个性化要求, 为协同性学习创造了更大的可能, 为交互性学习提供更强有力的支持, 并能够有效地实施个性化教学, 从而提高教学效率。
由于有了计算机互联网, 计算机信息的共享和利用率大大提高。学生、教师和其他研究人员在教学科研中可通过网络获取、交流更多的信息获得更完善的服务。通过网络, 不同地区、不同学校学生和教师可以进行教学交流或者跨地区、跨学校教学。时至今日, ICAI系统的开发离不开发展迅猛的网络技术。
2. ICAI发展的智能代理 (Intelligent Agent) 化
在计算机领域, Agent指分布式系统或协作系统中能持续自主发挥作用的计算实体, 它具有自主性、交互性、反应性和主动性特征。A g e n t技术是计算机学科在人工智能领域中发展很快的一项新技术。它是能够自主连续地在一个可动态变化的、存在其他Agent的环境中运行的, 并可以与环境进行交互的实体。A g e n t的概念出现于2 0世纪7 0年代的人工智能中, 8 0年代后期开始成长起来, A g e n t主要有以下几个特征: (1) Agent可以在没有人或其他Agent直接干预的情况下进行, 而且对自己的行为和内部状态有某种控制能力; (2) A g e n t和其他A g e n t通过某种Agent交流语言进行交互; (3) Agent观察其环境, 并在一定时间内做出反应, 以改变该环境; (4) Agent不仅能够简单地对环境做出反应, 而且能够通过接受某些启示信息, 体现出面向目标的行为。
在I C A I中, 学生学习查询有效知识可以使用A g e n t进行搜索、导引, 由于它自具备的学习功能, 能够主动、高效地从Internet信息空间中发现和收集用户所需要的信息。因此它有助于解决使用单一关键字匹配查询、搜索引擎引起的大量无关信息的涌现、信息检索的精确度不高等问题。将“智能代理”技术引入到I C A I中, 将使得教师和学生在教与学的过程中, 提高知识选取效率、加强交互学习和自主能动性学习。
3. ICAI发展的远程教学化
计算机网络、智能C A I以及多A g e n t协作, 使I C A I系统可以实现真正意义上的远程教学。计算机网络技术为远程教学的实现提供了可能, 智能C A I又使得教与学是互动的、非盲目的、高效的;而Agent与I C A I相比, 能在智能化方面发挥更灵活、更多样化的作用。它的多A g e n t协作特性, 不仅可以作为教师代理, 为学生学习提供指导, 也可以作为学生代理, 辅助学生学习, 还可以成为学生学习、交流、协作过程中多方面的代理。因此, 具有多种特性优势的远程教学I C A I系统具有广阔的发展前景。
4. ICAI发展的虚拟现实化
虚拟现实是由多媒体技术与仿真技术以及计算机技术相结合而生成的一种交互式人工世界。虚拟现实技术可用于I C A I系统中, 利用虚拟现实技术模拟虚拟环境, 学生可以与虚拟环境中各种信息进行交互, 充分发挥了学生学习的主动性、创造性。使用创建的虚拟环境, 在一般人所不能亲身体验的情景中, 达到演示、操作的教学目的。例如, 在体育课教学中, 学生可以进入虚拟环境中去, 亲身领略N B A冠军队员在篮球场的表演;在物理课上, 学生可以在虚拟世界内去发现万有引力的变化, 比较地球大气层的磁场与月球磁场的强弱;在建筑设计课上, 学生可以在虚拟的建筑中实景化学习等。
目前, I C A I系统已经成为国际上计算机辅助教学研究的主要方向, 是一个综合交叉学科。它涉及了计算机、教育两大学科的许多分支领域, 包括程序设计、数据, 结构、算法分析、软件工程、人工智能等计算机学科以及认知心理学、教学设计等教育学科。此外, 随着网络技术的加入, I C A I系统将由个别化的教学系统向智能远程教学系统发展, 而虚拟现实技术的出现, 则使I C A I系统更加完善。
三、结束语
网络化与智能化是辅助教学发展的两大趋势, 也是我国教育信息化的必然趋势。网络环境下智能教学系统的研究是当前和以后相当长时期内的一个重要课题。智能教学系统是一个涉及许多学科的复杂工程。在对这一课题进行研究的过程中, 必将深入到对人工智能技术、教育学、认知科学等理论的基础和应用研究。本文的研究对于推动智能教学及相关学科的不断发展和进步具有深刻的理论和实践指导意义。
参考文献
[1]罗理辉.基于人工智能的计算机辅助教学.科教平台.2007.2
[2]李斯.浅谈智能化计算机辅助教学.科技资讯.2009.2
[3]王慧慧, 邹卫国.基于Agent的网络化智能教学系统的研究与设计.科技信息.2009.12
[4]谢雪晴.多媒体计算机辅助教学课件研究与展望.四川文理学院学报 (自然科学) .2007.3
人工智能计算机发展 第7篇
配电网故障分析计算是研究配电网保护行为、对保护进行整定计算、研发新型保护的基础。本讲首先概括介绍配电网短路电流近似计算的公式。利用近似公式分析配电网短路故障,可以对短路电流、电压的特征及其分布规律有个大致的把握。
随着分布式电源(DER)越来越多地接入配电网,需要认真考虑其对配电网短路电流的影响。目前,国内外对含DER的配电网故障分析计算问题的研究还不是很充分,可参考的资料也不是很多。本讲将总结分析配电网故障时不同类型DER短路电流输出的特点,给出用于短路电流输出计算的DER等效电路。
配电网故障的精确计算需要借助计算机。传统的基于对称分量的算法不能考虑配电网中三相参数不平衡的影响,并且需要对节点导纳矩阵进行因子分解,占用内存多、计算工作量大。近年来,人们对配电网短路故障计算方法的研究取得了重大进展,提出了基于端口补偿原理的算法(下称端口补偿法)。该方法直接使用相分量(a、b、c)计算,适用于三相参数不平衡的配电网,充分利用配电网是辐射状网络或者含有少量闭环运行回路(下称环路)与较少的DER的特点,提高了计算效率。本讲对端口补偿法的基本原理与计算步骤作一介绍,使读者对其有个基本的了解。
研究小电流接地故障暂态选线、定位技术需要分析接地暂态信号的变化特征。然而,目前普遍采用的小电流接地故障暂态分析等效电路存在明显的问题,即在接地电阻较大时,计算出的故障电流、电压与实际测量结果存在很大的甚至本质上的偏差。本讲利用模变换法推导出小电流接地故障暂态分析等效电路,给出正确的等效电路并分析接地暂态电流、电压的变化特点。
2 配电网短路电流近似计算公式
假设配电线路是辐射状的,三相参数对称,忽略负荷,忽略非故障分支线(无短路电流流过)以及线路分布电容影响,可使用通用公式近似计算配电网短路电流[1],对短路电流、电压的变化有个基本的把握。
2.1 三相短路电流
三相短路电流有效值Ik(3)计算公式为
式中:U是系统等效电压源的电压有效值(可取额定值);ZS1是变电站中压母线后的系统正序阻抗;ZL1为故障线路(变电站母线到故障点部分)正序阻抗;Rk为故障电阻。
系统正序阻抗是主变压器后系统正序阻抗与变压器正序阻抗之和。主变压器后的系统正序阻抗比较小,可忽略其影响,可用主变压器正序阻抗代替。
如果已知母线处短路容量Sk与额定线电压UN,可计算出系统正序阻抗值ZS1为
在中国,10kV配电网短路容量一般不超过450 MV·A,三相短路电流最大值在25kA以下。
2.2 两相短路电流
令系统负序阻抗与正序阻抗相等,则两相短路电流有效值Ik(2)计算公式为
如果故障电阻为零,则有
由式(4)可知,两相短路电流的有效值是三相短路电流的0.866倍。
2.3 单相接地短路电流
中性点有效节点系统的单相接地短路电流有效值Ik(1)计算公式为
式中:ZS0、ZL0分别为系统与故障线路的零序阻抗值。
在中性点直接接地系统中,ZS0等于主变压器零序阻抗ZT0。在小电阻接地系统中(见图1),ZS0=3Rn+ZT0,其中Rn为主变压器中性点接地电阻。
实际系统中应用的Rn比较大,一般在10Ω以上,远大于ZT0、ZS1、ZL1、ZL0,因此式(5)可简化为
由式(6)可知,小电阻接地系统单相接地短路电流的大小主要取决于主变压器中性点接地电阻值与故障电阻值。
2.4 两相接地短路电流
两相接地短路时,两个故障相短路电流相等,其有效值Ik(1,1)计算公式为
式中:Z1=ZS1+ZL1,Z0=ZS0+ZL0,a=ej120为运算因子。
两相接地短路时故障点接地电流有效值Ie(1,1)为
小电阻接地系统中,Z0>>Z1,式(7)、式(8)可分别进一步简化为
由式(9)、式(10)可知,小电阻接地系统发生两相接地短路时,故障相电流与两相短路时基本相等,故障点接地电流大约是单相接地短路电流的0.5倍。
3 有源配电网故障时DER输出的短路电流
有源配电网指接有DER的配电网。配电网故障时DER输出的短路电流(简称DER短路电流)与其并网接口装置的类型有关[2]。
根据短路电流的计算方法,DER并网装置可分为同步发电机(热电联产机组、生物质发电机组等)、异步发电机(风力发电机组)、双馈异步风力发电机(简称双馈机,用于风力发电)与电力电子逆变装置(简称逆变器,用于光伏发电、储能装置等)这4种类型。
当有源配电网发生短路故障时,一般来说其短路电流主要由上游电网提供,但如果DER的渗透率比较高(如大于10%),DER对短路电流的影响将不可忽略。考虑DER影响的配电网故障的精确计算需要借助计算机来完成。下面介绍不同类型的DER在配电网故障时输出的短路电流的特点及其故障计算等效电路,以便对DER对于配电网短路电流的贡献有个基本的认识,并为以下介绍考虑DER影响的故障计算方法做准备。
3.1 同步发电机型DER输出的短路电流
同步发电机型DER采用同步发电机发电并直接或通过变压器并网,其短路暂态过程与大型同步发电机类型,可以完全借用常规的同步发电机短路暂态分析方法。
同步发电机外部发生故障时,其短路电流的变化分为次暂态(0~50ms)、暂态(50ms~1s)与稳态(1s以后)这3个阶段。同步发电机故障计算等效电路如图2所示[1]。在图2中,E0(相量)为同步发电机空载电动势;XS与RS分别为内电抗与内电阻。在计算次暂态与暂态阶段短路电流时,XS分别取为次暂态电抗与暂态电抗,RS取为定子电阻。
当配电网发生故障时,同步发电机型DER输出的短路电流还与故障点的位置、配电网的结构以及故障过渡电阻等因素有关。作为一种最简单的情况,假定在并网点发生三相金属性短路,同步发电机型DER输出的短路电流有效值IS(3)计算公式为
式中:ZS为并网连接馈线与并网变压器阻抗(如果存在的话)之和。
理论分析与实测结果表明[2],在并网点发生三相短路时,直接并网与通过变压器并网的小型同步发电机(容量小于1 MW)输出的短路电流分别为其额定电流的5~8倍与3~7倍;直接并网与通过变压器并网的中型同步发电机(容量1~25 MW)输出的短路电流分别为其额定电流的5~6倍与3~5倍。
3.2 异步发电机型DER输出的短路电流
异步发电机型DER采用异步发电机发电并直接或通过变压器并网。异步发电机的励磁电流取自电网。在配电网发生故障时,接入的异步发电机失去励磁,其输出的短路电流将经过一段时间(100~300ms)后衰减至可以忽略的数值。
异步发电机输出的短路电流的计算方法与配电网故障时异步电动机回馈的短路电流计算方法类似[1]。计算配电网短路后一段时间(次暂态)的短路电流,需要考虑异步发电机以及异步电动机的影响。
正常运行的异步发电机转差率s在-5%~-2%,可以看作是处于同步运行状态。在发生短路故障初始,异步发电机转速变化很小,因此可被看作欠激的同步发电机,计算其输出的故障初始短路电流的等效电路与同步发电机次暂态等效电路类似,其中内电动势取为短路前故障点电压的0.9倍,内电抗取为异步发电机的次暂态电抗,内电阻取为定子电阻。
异步发电机出口短路时短路电流幅值与其启动电流基本相同。如果在并网点发生三相短路,直接并网或通过变压器并网的异步发电机输出的短路电流分别为额定电流的5~8倍与3~7倍[2]。
3.3 双馈机型DER输出的短路电流[3]
双馈机型DER采用双馈机发电并直接或通过变压器并网。配电网故障时双馈机输出的短路电流与其发电机以及电力电子电路的设计有关。在双馈机外部发生短路时,由于电磁耦合的影响,在转子上会引起很大的冲击电流,这时转子保护电路动作,将转子绕组短路,以避免损害转子绕组的变换器。在转子绕组被短路后,双馈机呈现异步发电机的特性,其输出的短路电流特征与计算方法和异步发电机类似。
3.4 逆变器型DER输出的短路电流
逆变器型DER采用逆变器直接或通过变压器并网。逆变器的设计使其在检测到输出过电流现象时(如超过1.2倍的额定电流),立即关断半导体逆变器件,并在半个周波内停止输出电流。在这种情况下,配电网故障时逆变器型DER对短路电流的影响可以忽略。
4 配电网短路故障计算机算法
传统的短路故障计算机算法首先形成节点导纳与节点阻抗矩阵,进而计算出故障端口故障前电压(负荷分量)以及从故障端口看进去的正序、负序与零序网络内部阻抗,然后结合边界条件,求出故障端口电流的各序故障分量,再计算出网络中任意处的电压、电流故障分量,将负荷分量与故障分量相加,即可得到故障后网络的电压、电流。
传统的短路故障计算机算法应用于配电网时却遇到了困难。第一个问题是不能考虑三相参数不对称的影响;第二个问题是节点导纳矩阵的求解计算量大,矩阵分解因子表的形成比较复杂。第一个问题可以通过直接使用相(a、b、c)分量计算来解决[5,6];而第二个问题可以用下面介绍的端口补偿法来解决,即利用配电网是辐射状或仅含有少量的环路与DER的特点,提高计算效率。
4.1 端口补偿法的基本原理
对于大型网络来说,在其结构发生部分变化时,如果重新形成节点导纳与节点阻抗矩阵来计算结构变化后的电压、电流,则存在大量的重复计算,而端口补偿法就是针对这一问题提出的。
4.1.1 在现有网络中增加一个新的支路的情况
设在节点k、m间增加一条阻抗为Z的支路(见图3),可根据戴维南定理计算流过它的电流[4]。设根据节点注入电流[I(0)]向量求出的网络节点电压向量为[U(0)],新增支路端口km的开路电压则为
式中:Uk(0)、Um(0)是[U(0)]的元素。
从端口km看进去的戴维南等效阻抗(内阻抗)ZT为[7,8]
式(13)中Zkk、Zmm分别为节点k、m的自阻抗,Zkm是节点k、m间的互阻抗,可通过计算在节点注入单位电流时的潮流求出[1];如果需要考虑负荷的影响,则将其转换为恒阻抗接地支路。对于辐射状的配电网来说,如果忽略线路分布电容与负荷的影响,节点自阻抗是其到根节点(变电站母线)的路径上所有支路阻抗的和,而互阻抗则是两个节点到根节点的两个路径上所有公共支路阻抗的和。如果两个节点到根节点形成的两个回路(如一条线路的两相导体对地形成的回路)之间存在互感,则这两个节点间的互阻抗还要加上互感抗这一项。
根据端口开路电压与内阻抗,可求出流过新增支路km的电流为
根据电路替代原理,支路km可用电流为Ikm的电流源替代;而根据电路叠加原理,网络结构变化后的电压、电流可以看成由Ikm单独作用(其他节点的注入电流为零)产生的电压、电流与网络结构变化前(新增支路注入电流为零)的电压、电流之和。接在k、m节点间电流源Ikm,可用在节点k(与参考地之间)的注入电流Ik(=-Ikm)和在节点m的注入电流Im(=Ikm)来等效;如果端口的其中一个节点(如k)是地,则仅需要在另一个节点(如m)注入电流。
根据节点k、m的注入电流(Ik与Im)与网络的节点阻抗矩阵,求出端口补偿电流单独作用产生的节点电压,将其与[U(0)]相加,就是网络结构变化后的节点电压,而根据新的节点电压可计算出网络中任一支路的电流。这种计算网络结构变化后电压、电流的方法,称为端口补偿法;其中计算出的新增支路的电流称为端口补偿电流。
4.1.2 在现有网络中增加多个支路的情况
如果在现有网络基础上增加多个新支路(互相之间没有耦合),则新增支路的端口补偿电流为
式(15)中[In]是端口补偿电流向量,[Un(0)]是新增支路开路电压向量,[Zn]是端口阻抗矩阵。与增加单个支路的情况类似,计算[In]单独作用产生的节点电压,即可求出增加多个新支路的节点电压。
假设新增2条支路(支路km与支路ij),则端口阻抗矩阵的表达式为
式(16)中对角元素Zkm,km与Zij,ij是端口自阻抗,分别等于端口km与ij的内阻抗与各自新增并联支路的阻抗之和;非对角元素Zkm,ij与Zij,km是端口km与ij之间的互阻抗,二者相等,可由节点间的互阻抗求出,其表达式为
令两个新增支路的端口补偿电流分别为Ikm与Iij,在节点k、m与地之间分别注入电流-Ikm与Ikm,在节点i、j与地之间注入电流-Iij与Iij,并令其他节点注入电流为零,则可求出两个端口补偿电流单独作用产生的节点电压,进而求出网络结构变化后的节点电压。
以上介绍的应用端口补偿法计算短路故障的基本原理,是将短路看成是网络结构在故障点处发生了变化,并利用端口补偿电路模拟故障。对于辐射状配电网来说,可以使用前推回代法计算潮流,得到故障端口开路电压与端口阻抗,因此使短路故障的计算工作量大为减少。
当配电网中含有少量环路(称为弱环配电网)或者接有DER时,前推回代法则不再有效,潮流计算过程将变得复杂。如果将配电网中的环路与DER支路解开,并且同样采用端口补偿电路来模拟,则可以将其变成一个辐射状的网络进行潮流计算,获取补偿端口开路电压与端口阻抗,进而求出端口补偿电流,进行故障后网络电流、电压的计算。由于补偿端口的个数相对较少,补偿电流的计算相对简单,故障计算的整体工作量仍然比较小。
下面介绍短路故障、环路、DER这3种补偿端口的补偿方法,进而介绍应用综合端口补偿法计算含有少量环路(弱环配电网)的有源配电网的短路故障[8,9]。
4.2 短路故障补偿端口
不同短路故障端口补偿电路如图4所示。设网络中F点发生三相短路故障,则相当于在故障点a、b、c三相的节点Fa、Fb、Fc与大地之间增加三个新的支路,支路阻抗是过渡电阻Rk,见图4(a),因此,三相短路故障可以三个端口补偿支路FaE、FbE、FcE来模拟。同理,两相短路用节点Fb与Fc之间的端口补偿支路来模拟,见图4(b);单相对地短路用节点Fa与大地E之间的端口补偿支路来模拟,见图4(c);而两相接地故障,使用Fb与Fc之间的端口补偿支路(支路阻抗为零)以及节点Fb与大地E之间的端口补偿支路来模拟,见图4(d)。
故障端口补偿电流的计算公式为
式(18)中[Ik]是故障端口补偿电流向量,[Uk(0)]是故障端口开路电压向量,[Zk]是故障端口阻抗矩阵。[Zk]是一个阶数等于故障端口个数的方阵。根据图4,三相、两相、单相与两相接地短路时,[Zk]的阶数分别相应为4、1、1与2。
4.3 环路补偿端口
环路的补偿方法是选择环路(三相导体)中的任意点Aa、Ab、Ac将其打开,形成环路补偿端口A′aA″a、A′bA″b、A′cA″c,通过在开环点注入大小相等、方向相反的补偿电流来模拟环路。在环路(三相导体)的开环点注入节点电流示意图如图5所示。环路端口补偿电流的计算公式为
式(19)中[Il]是环路端口补偿电流向量,[Ul(0)]是环路端口开路电压向量,[Zl]是环路端口阻抗矩阵。如果网络中含有Nl个环路,在采用相分量计算时,[Zl]是一个3 Nl×3 Nl价方阵。
4.4 DER补偿端口
在计算配电网短路电流时,可以忽略逆变器型DER的影响,而是主要计算同步发电机型、异步发电机型DER(包括异步电动机)输出的短路电流。
根据前面的介绍,同步发电机与异步发电机(简称发电机)可用一个电压源与内阻抗的串联支路来模拟,其端口补偿电流的计算公式为
式(20)中[Ug]为DER补偿端口的电压差向量,等于端口开路电压向量[Ud(0)]与发电机电动势向量[Eg]之差;Zg为考虑了发电机内阻抗影响的端口阻抗矩阵。如果网络中含有Ng个三相发电机,在采用相分量计算时,[Zg]则是一个3 Ng×3 Ng价方阵。
4.5 应用综合端口补偿法进行配电网短路故障计算
在计算含有少量环路和接有DER的有源配电网的短路故障时,首先解开其环路、DER支路,建立环路、DER补偿端口,再根据故障类型建立故障补偿端口,求出包括这三类端口的综合端口阻抗矩阵为
式中:Zl、Zg、Zk分别为环路、DER与故障端口阻抗矩阵;非对角元素Zlg、Zlk、Zgk分别代表环路与DER端口间、环路与故障端口间、DER与故障端口间的互阻抗。
利用前推回代法计算所有补偿端口开路时辐射状网络的潮流,分别得到三类端口的开路电压向量[Ul(0)]、[U(0)]、[Ud(0)],再根据DER支路发电机的电动势得到DER端口电压差向量[Ug],进而计算出综合端口补偿电流为
式(22)中[Il]、[Ig]、[Ik]分别代表环路、DER、故障端口的补偿电流向量。根据式(22)计算出的故障端口的补偿电流Ik就是流过故障点的短路电流。计算出[Il]、[Ig]、[Ik]联合作用产生的节点电压,将其与潮流计算获得的节点电压相加,可得到故障后的节点电压,进而根据支路阻抗求出故障后任一支路的电流。
由于是使用前推回代法计算辐射状配电网的潮流,求出综合端口的开路电压,并且配电网中环路与DER(发电机)的数量一般有限,综合端口阻抗矩阵[Zh]的阶数较少,求解式(22)的工作量比较小,因此应用综合端口补偿法计算短路故障具有很高的效率。
需要指出,在配电网接入的DER(发电机)的数量比较多,则[Zh]维数很高,求解式(22)的计算量很大,在这种情况下,端口补偿法的优势不大,宜使用常规的解节点导纳矩阵的计算方法。
利用综合端口补偿法计算短路故障的基本步骤如下。
1)初始化系统,输入网络参数、负荷数据、根节点电压、DER额定输出电压与阻抗参数等。
2)如配电网中存在环路,则选择环路上的任一点,将其断开,建立环路补偿端口。
3)如配电网中接有DER(发电机),则解开DER支路,建立DER补偿端口。
4)根据故障类型,建立故障端口补偿电路。
5)形成综合端口阻抗矩阵。
6)计算辐射状网络潮流,求出故障端口、环路端口的开路电压以及DER端口的电压差。
7)计算端口补偿电流。故障端口的补偿电流即是流过故障点的短路电流。
8)计算综合端口补偿电流单独作用产生的节点电压,将其与潮流计算获得的节点电压相加,即为故障后的实际节点电压,根据这些节点电压,可计算出故障后任一支路的电流。
5 小电流接地故障暂态分析[10]
要严格地计算出小电流接地故障暂态信号的变化过程比较复杂,而使用简化的等效电路进行分析,得出一些初步的结论,可以较好地把握暂态信号的基本特征。
目前,普遍使用的暂态分析等效电路存在错误,下面利用模变换法推导出暂态等效电路,使用它计算出的零模(序)电压和电流,与现场实际测量结果比较吻合。
5.1 模变换法
在分析小电流接地故障的暂态过程时,常规对称分量(序分量)法不再有效,需要使用模变换法。用得比较多的模变换是卡伦包尔(Karenbauer)(1、2、0)变换。以电流为例,Karenbauer变换的1模、2模、0(零)模电流和三个相电流导体之间的关系为
1模电流和2模电流分别在导体A与导体B和导体A与导体C相之间流动,称为线模分量;零模电流在三相导体与大地之间流动,称为地模分量。由于模变换中的零模电流与对称分量法中的零序电流计算公式是一样的,习惯上将暂态零模电流称为暂态零序电流。
5.2 等效电路
假设发生A相接地故障,接地电阻为Rk,线路使用Γ参数模型(线路分布电容用母线侧的集中电容来等效),则故障点的三个模电流相等并且三个模电压之和等于接地电阻上的电压,由此得出的复合模网络如图6所示,其中u1(t)、u2(t)分别是1模、2模等效电源电压[11]。在模量1、2回路中,由于电源阻抗远小于分布电容容抗,可以忽略分布电容的影响。对于中性点不接地系统来说,零模网络电源端是开路的;而在谐振接地系统中,电源回路串联了数值很大的消弧线圈电感Lp(忽略电阻的影响),可以忽略变压器零序电阻与电感的影响。
因此,得出新的小电流接地故障暂态简化等效电路如图7(a)所示。其中u(t)为1模电源电压u1(t)与2模电源电压u2(t)之和(可以证明为A相电源电压);C0是故障线路(故障点到母线)零模电容与故障线路背后系统的零模电容之和;L是两个线模回路电感和故障线路零模电感之和[2(LS1+LL1)+L0];R则等于两个线模回路电阻与故障线路零模电阻与3倍的接地电阻值之和[2(RS1+RL1)+R0+3Rk]。
图7(b)是现在普遍使用的暂态分析等效电路,它与前面使用模变换法推导出的等效电路的区别是将消弧线圈电感与电源并联。后面的分析表明,使用常规等效电路计算出的零模电流、电压与现场测量结果不符,因而该等效电路是不正确的。
5.3 暂态接地电流计算
在接地电阻较小时,零模电容充电速度比较快,暂态过程持续时间短,可以忽略图7(a)中消弧线圈阻抗的影响。假设故障发生在电压出现峰值时,令u(t)=Umcosωt,得到接地点暂态零模电流为
式(24)中为自由分量的衰减系数,为回路的共振频率。由于δ远小于ω0,可近似认为。UmωC0是稳态情况下的单相电容电流有效值IC,因此,暂态零模电流i0(t)表达式可近似写为
暂态零模电流的波形如图8所示,其最大值与稳态电流有效值之比近似等于共振频率与工频频率之比,可能较稳态电流有效值大几倍到十几倍。
流过接地点的电流是零模电流的3倍。
5.4 高阻接地暂态信号特征
在接地电阻较大时,可以忽略图7(a)等效电路中串联电感(L)的影响,而由于零模电容充电速度比较慢,暂态过程持续时间比较长,对谐振接地系统来说,需要考虑消弧线圈电感的影响。可以证明,当接地电阻达到一定数值(数百欧姆以上)时,图9电路中暂态自由分量出现振荡衰减现象。暂态自由分量振荡周期接近工频值,衰减时间常数达数十毫秒。在暂态过程中,自由分量与稳态零序电压相抵消,使得零模电压(中性点电压)幅值缓慢上升,持续时间达数十个周波,如图9所示。
使用现在普遍使用的等效电路分析大电阻接地时零模电压的变化得不到图9所示的波形,与现场实际测量结果不相符,因此是不正确的。
6 结语
1)应用常规的短路电流计算公式近似分析配电网故障,不需要进行复杂的计算,就可对配电网短路电流的大小与分布特征有个大致的把握。
2)DER对配电网短路电流的贡献与其并网装置的类型有关。配电网故障时,可以忽略逆变器型DER输出的短路电流,而同步发电机型、异步发电机型与双馈机型DER输出的短路电流可以使用常规的同步发电机等效电路来分析计算。
3)利用端口补偿法模拟配电网短路故障并考虑其中的环路与DER的影响,可以利用辐射状网络潮流计算比较简单的特点,克服常规短路电流计算方法计算量大的缺点。
4)目前普遍采用的小电流接地故障暂态分析等效电路存在错误。利用模变换法推导出了新的等效电路,利用它计算出的暂态零模电流和电压与现场实测结果较吻合。
本讲的写作承蒙山东大学博士生段昊帮助,特表示感谢!
摘要:传统短路电流的计算方法已难以适应分布式电源接入后配电网短路电流的计算。介绍了配电网短路电流的近似计算公式。分析配电网故障时分布式电源(DER)短路电流输出的特点,给出了用于短路电流输出计算的DER等效电路。指出传统短路故障计算机算法用于配电网存在的问题,介绍了一种高效率的基于端口补偿原理的配电网短路故障计算方法。利用模变换法推导出小电流接地故障暂态分析等效电路,更正了目前普遍使用的等效电路的错误。
基于人工智能的计算机辅助教学 第8篇
一、人工智能
1. 人工智能的定义
人工智能 (Artificial Intelligence, 简称AI) 是计算机科学、控制论、信息论、神经生理学、语言学等多种学科相互渗透发展起来的一门综合性的交叉学科和前沿学科。其精确定义是:一个电脑系统具有人类知识和行为, 并具有学习、推断、判断来解决问题、记忆知识和了解人类自然语言的能力。
2. 人工智能的研究内容
人工智能作为一门综合性学科, 其研究内容涉及到许多方面, 其中与教学实际关系较为密切的是以下四个方面:
(1) 问题解决。问题解决 (Problem Solving) 是人工智能研究初期的主要研究内容之一, 也是其他内容的研究基础, 它主要研究计算机的知识表达和推理技术。
在教育领域中, 研究问题解决的实际意义在于, 把人类解决问题的基本过程赋予计算机, 使其能够按照人类的思维规律进行问题解决, 帮助学生进行有效的学习。
(2) 模式识别。模式识别 (Pattern Recognition) 是近三十年来在信息科学与计算机科学的基础上发展起来的新兴科学, 后期它又受到了人工智能科学的影响, 得到了新的发展。因此, 常被作为人工智能学科的一个分支。
简单地说, 模式识别就是研究用电子计算机代替人来识别事物和环境的方法。所谓模式是指那些供参照模仿用的理想化的标本。因此, 具体来说, 模式识别的含义就是识别出给定的事物与哪一个标本相同或相似。模式识别有时可以理解为模式分类, 即判别给定的事物应该属于哪一类标本。被识别的给定事物通常是字母、符号、汉字、图像、声音、语言、景物, 也可以是统计数字、图表、教授状态、学习状态等, 应用于教育时则称为教育模式识别和学习模式识别。
(3) 自然语言理解。对自然语言理解 (NaturalLanguageProcessing, 简称NLP) 的研究能为实现人机自然语言直接通信提供可能, 并减少软件生产的负担, 从而间接地推动计算机的广泛应用, 提高自动化操作效率。因此, 它已经成为人工智能研究中最为棘手的问题。
自然语言是人机对话的最方便的语言, 其发展的最终目标是把自然语言作为程序语言来使用, 使计算机直接执行自然语言, 不需要中间的解释过程。
在教育领域中, 计算机对自然语言的理解有助于人机对话的实现, 从而能够增进计算机与学生之间的交互作用, 把原有的计算机辅助教学条件下的计算机主动变为智能计算机辅助教学条件下的人机交互主动。
(4) 专家系统。所谓专家系统是指一个 (或一组) 能在某特定领域内, 以人类专家的水平去解决该领域中困难问题的计算机系统。其特点在于能把人类专家在解决问题过程中使用的启发性知识、判断性知识分成事实与规则, 以适当形式存储到计算机中, 建立知识库, 并基于知识库采用合适的产生式系统, 按输入的原始数据选择合适的规则进行推理、演绎, 作出判断和决策, 可起到专家的作用, 因此称为专家系统。
专家系统是人工智能中最为重要的研究内容, 在教育领域中的应用也最为广泛与活跃。教学专家系统的任务是根据学生的特点, 以最合适的教案和教学方法对学生进行教学辅导。
二、计算机辅助教学
1. 计算机辅助教学的定义
计算机辅助教学 (Computer Aided Instruction, 简称CAI) 是在计算机辅助下进行的各种教学活动, 以对话方式与学生讨论教学内容、安排教学进程、进行教学训练的方法与技术。CAI能为学生提供一个良好的个人化学习环境。通过综合应用多媒体、超文本、人工智能和知识库等计算机技术, 克服了传统教学方式上单一、片面的缺点, 有利于激发学生的学习兴趣和认知主体作用的发挥。同时, 它所提供外部刺激的多样性有助于知识的获取与保持。因此, 使用CAI能有效地缩短学习时间、提高教学质量和教学效率, 实现最优化的教学目标。
2. 计算机辅助教学的现状
尽管计算机辅助教学要比传统的教学模式先进不少, 但并不是最完善的, 它还存在许多不足, 主要表现在以下几方面:
(1) 缺乏人机交互能力。在教学过程中, CAI课件的教学信息是按预先设置的教学流程机械式地提供, 教师只能按预定的课件流程进行操作, 学生的学习也是被动的, 不能很好地参与教学过程。因此, 人机交互能力没有很好地体现出来。
(2) 缺乏师生互动。学生在自学及使用现有的CAI课件时, 大多采用的是自主学习的方式。使用这种方式时鲜有师生互动, 因此课件的效果会大打折扣。同时由于缺乏网络支持, 现有的绝大多数CAI课件都是在单机环境下运行的, 无法使用网络来快速更新知识内容, 更无法提供便捷的学习讨论空间、随时随地的师生交流方式以及远程教学实现的条件。
(3) 缺乏智能性。现有的CAI系统很多都没有智能性, 无法进行有针对性的教育。学生的学习是被动的, 他们不能根据自身情况调整学习进度。对教师而言, 教学参与度太低, 他们不能按照学生的认知模型为其准备最适合的学习内容, 更不能给予不同的教学模式与方法。
(4) 缺乏广泛性。CAI系统的设计都是围绕某一知识领域, 对于教学内容、问题的设计和答案的呈现, 都必须在原设计系统允许范围内实现, 无法根据具体教学、学习情况提出新的方案。
由此可见, 传统的CAI系统本身具有无法克服的缺点。随着人工智能技术的发展, 人工智能技术将会越来越多地应用在教育领域。把人工智能技术引入CAI系统, 使CAI系统能合理安排教学内容, 变化教学方法来满足个性化教学的需要, 因此就产生了智能计算机辅助教学系统。
三、智能计算机辅助教学系统
随着计算机科学和人工智能技术的不断发展和成熟, 将AI引入CAI中, 使CAI系统可以理解教什么、教谁以及如何教, 因而也就能合理安排教学内容、改变教学方法, 去满足个别教学的需要, 这就是以AI技术和认知科学理论为基础而形成的智能计算机辅助教学系统 (Intelligent Computer Assisted Instruction, 简称ICAI) 。它是计算机应用技术的一个新领域, 代表了一种新的教学思想和教学方式。智能计算机辅助教学系统的出现, 提高了教学质量, 改善了教学的效率。
1. 智能计算机辅助教学系统的基本结构
ICAI系统主要是在知识表示、推理方法和自然语言理解等三方面应用人工智能技术。其本质上是一个基于知识的教学专家系统, 通常由专家模块、学生模块、教师模块和智能接口模块组成。它的组成结构如下图所示:
(1) 专家模块 (知识库) 。专家模块是由题域知识构成, 它包括两方面的知识:一是教材内容、提问信息、教材重点、难点、评价等有关课程的知识;二是有关应用这些知识来生成问题, 推理解题的知识。其功能有:作为系统全部知识的来源, 为系统其他模块频繁调用, 以实时完成用户行为响应, 通过知识库知识, 生成相应的问题、任务以及解释;通过同步问题解答, 并通过预期学生行为与实际学生行为之间的比较, 评价学生知识掌握程序以及学习状态、学习方式偏好等。这个部分相当于一个根据事实进行演绎推理求出解答的专家部件。
(2) 学生模块。系统通过学生模块建立对学生的了解, 通过比较学生行为与专家行为, 对学生进行智能模拟, 包括学生的知识状态、认知特点和个性特点等。学生模块用来表示学生的学习历史、当前知识水平、解题行为等方面的知识。其任务是:表示学生对所学知识的理解程度, 反映学生已掌握和未掌握的部分, 通过发现错误并作出错误根源的假设, 为进一步指导提供依据。
(3) 教师模块 (教学策略模块) 。在CAI课件的交互作用中, 教学策略是与教学内容融合在一起, 通过教学的分支来体现的。这样做的不足是, 某一教学内容只能按某一种 (或几种) 固定的教学策略来教。而在ICAI中, 教学策略与教学内容是分开的。这样在教学过程中, 系统可随时根据教学的需要, 选择不同的教学策略。
教师模块的主要任务是在一定的教学原理的指导下, 选择适当的教学内容, 并通过接口以适当的表达形式, 在适当的时刻展示给学生。该模块的主要功能有:为学生提供学习环境;指导学生的学习活动;解释现象、过程和原因;为学生提供帮助和学习材料;监视和评价学生学习活动。
(4) 智能接口模块。智能接口模块的作用是处理学生与系统间的信息交流。模块要完成两项任务, 一是在教学模块作出教学决策后, 智能接口模块要以一定的形式把教学内容发送出去;二是建立学生输入信息的方式, 接收学生输入的信息。
2. 智能计算机辅助教学系统的发展方向
ICAI系统在发展中不是孤立、单一的, 它是伴随着多种技术以及人工智能在多种领域应用的不断发展而发展的。其未来的发展方向表现为以下几方面:
(1) 与网络技术的结合。随着多媒体技术和Internet网络的飞速发展, 多媒体教育应用与Internet网进一步融合, CAI不仅仅只在智能上单一发展, 它不可避免地还要向多维的网络空间发展。目前, 已有不少基于Internet网的多媒体教育系统在使用, 它们借助网络的优势, 完成在线学习、实时讨论、网上测试等多种教学任务。将网络CAI与智能CAI有机结合, 互相补充, 能构建成一个新的系统工程。
(2) 智能代理 (Intelligent Agent) 技术的使用。人工智能 (AI) 技术在ICAI中的应用, 除了体现在对多媒体教学系统中引入学生模块和知识推理机制以外, 还可以起到在“智能导航”浏览中, 使用“智能代理”技术代替教师、学生进行指导学习和搜索学习的作用。
在CAI中, 学生学习查询有效知识可以使用代理进行搜索、导引, 由于它自身具备的学习功能, 能够主动、高效地从Internet中发现和收集用户所需要的信息。因此, 它有助于解决使用单一关键字匹配查询、搜索引擎引起的大量无关信息的涌现、信息检索的精确度不高等问题。将“智能代理”技术引入到ICAI中, 将使得教师和学生在教与学的过程中, 提高知识选取效率、加强交互学习和自主能动性学习。
(3) 远程教学。结合网络CAI、智能CAI以及多代理协作, 可以实现真正意义上的远程教学模式。ICAI系统不仅可以作为教师代理, 为学生学习提供指导, 也可以作为学生代理, 辅助学生学习, 还可以成为学生学习、交流、协作过程中多方面的代理。因此, 具有多种特性优势的远程教学具有广阔的发展前景。
(4) 虚拟现实 (Virtual Reality) 的应用。虚拟现实也叫人工现实 (Artificial Reality) , 是由多媒体技术与仿真技术以及计算机技术相结合而生成的一种交互式人工世界。它的根本目标就是达到真实体验和基于自然技能的人机交互。在教学辅助中, 使用创建的虚拟环境, 在一般人所不能亲身体验的情景中, 达到演示、操作的教学目的。目前在教学中使用的有:基于Web的火电厂的虚拟实景建构学习、建筑设计的实景化学习、医学内消化道实景教学等。
四、结语
到目前为止, 人工智能技术已经逐步应用于计算机辅助教学中, 与教学现代化有着密切的关系。随着人工智能技术的发展, 智能计算机辅助教学系统的成效将更加明显。新世纪的教学手段将是以智能化CAI为主线, 多学科、多方位发展的新技术的体现。这种手段产生了人机交互、人机共生等全新概念, 大大扩展了人类的能力, 促进了教育事业的进一步发展。
参考文献
[1]何克抗.教学媒体的理论与实践[M].北京:北京师范大学出版社, 2003.
[2]谢三毛.人工智能在计算机辅助教学中的应用[J].华东交通大学学报, 2005 (12) .
浅析人工智能教学和计算思维的培养 第9篇
关键词:人工智能教学;计算思维;计算机教学
中图分类号:TP18-4
人工智能需要通过电子计算机完成数据运算来模拟大脑的思维能力,从这个层面上看,人工智能的核心内容即是“计算”与“思维”。人工智能课程作为高校计算机类专业的一门核心课程,其研究的方向就是如何利用电子计算机完成数据运算来模拟人体大脑的思维能力,研究的内容涵盖了数学、心理学、认知科学以及计算机科学等方面。然而,由于人工智能课程知识具有较强的抽象性,相关的实践应用较少,学生难以对抽象的知识难以理解和掌握,往往会使得学生感到人工智能课程的枯燥乏味,在一定程度上失去了学习人工智能的兴趣。在这种情况下,如何帮助学生培养计算思维,使其更好的理解抽象知识,是当前人工智能教学亟需解决的问题。
1 当前人工智能教学存在的问题
1.1 忽略了对学生思维能力的培养。在实际的人工智能教学中,一部分教师以理论知识的讲授为主,在很大程度上忽略了对学生思维能力的培养,进而使得学生不能深入的理解和掌握人工智能知识体系的内涵,只是将其视为纯粹的人工智能计算技术堆叠在一起的知识体系,无法掌握其内在联系。在此情况影响下,人工智能课程教学效果往往不尽人意。
1.2 忽视了对人工智能的实践教学。人工智能课程与其他应用类课程相比,更偏向计算机算法的理论知识体系,使得教师在人工智能教学中过于注重理论技术的讲授,而对于这些理论技术的实际用途却没有进行过多的讲述,忽视了对人工智能的实践教学,学生无法真正明白人工智能理论技术的实际用途,即如何在实践中有效应用的问题,使得学生的学习目标不够明确[1]。
1.3 教学过程缺乏相应的情景展示。由于人工智能课程具有较强的逻辑性,然而人工智能的逻辑性并非是通过简单的数学公式展现出来的,而是需要通过慎密的计算机算法才能完成的。但人工智能教学过程缺乏相应的情景展示,对于学生来说,这些慎密的计算机算法的表现方式与完成是无法看见的。在此情况下,学生需要更直观的教学方式才能加深对计算机算法的理解。
2 人工智能教学和计算思维的培养策略
2.1 计算思维的内涵。所谓“计算思维”,主要是指运用简洁、输入、转化以及模拟仿真的方式,将一个看似复杂的问题转变成一个相对简单的问题的思维过程。与传统的数学思维不同,计算思维作为一种相对新型的思维模式,其倡导的是形式规整的、问题求解的以及实现人机共存的思维过程[2]。将计算思维融入到人工智能教学中,通过信息化教学手段向学生传递计算思维,激发学生的计算思维能力,对于学生进一步理解和掌握人工智能理论技术具有十分重要的意义。
2.2 计算思维的抽象教学。抽象思维是当今科学研究的主要手段之一,其是在诸多繁杂的数据信息中抽离出来的具有相同内在特征的一种方法。长期以来,人工智能都在从不同的层面探寻人类大脑思维的构成与思维活动形式,同时对这些思维构成与活动形式进行高度抽象的概括,从而使其演变成为各种思维模型。因此,在进行人工智能教学时,教师需要向学生重点讲解这类思维模型的抽象概括原理,并向学生展示模型抽象形式的过程[3]。例如,在学习人工神经网络这一内容时,教师应在授课前引导学生思考人脑的思维运作方式,并让学生从计算机技术的层面思考人脑运作方式的模型构建,随后让学生思考这类模型如何利用数据结构完成储存的,最后向学生展示已有的模型设计过程。通过层层思考、层层深入的方式,使学生对人工神经网络有了更加深刻的了解。
2.3 计算思维的实验教学。当前,高校课堂对人工智能教学的内容讲解还只是停留在向学生讲授基本原理与计算方法的层面上,然而对这些基本原理与计算方法的实际運用却没有太高的要求[4]。针对这种情况,人工智能教学还需要融入相关的实验教学,使学生在实际运用中逐步形成计算思维。实验教学要求学生能够掌握人工智能问题的分析建模,进而培养学生的计算思维。为了完成这一实验教学,教师可以在课堂中以相关知识的基本原理为基础,融入一系列的具有开放性与创新性的实验,同时,在实验题材的选择上可以选择研究性较强的实践问题[5]。例如,在进行综合性实验过程中,可以适当加入本课程教研组的最新研究成果,在让学生进一步了解学校科研成果的同时,还能通过类似的实验锻炼学生自主思考、发现和解决问题的能力,帮助学生树立问题意识。
2.4 计算思维的转化教学。由于人工智能的实现离不开电子计算机,所以在教学过程中必须重视对算法原理的转化教学,从而让学生了解人工智能的实现过程。在实际的教学中,教师需要先让学生建立起算法的基本逻辑框架,对比人脑计算与电子计算机计算的区别与联系。随后,教师让学生研读相关算法的源代码,进而逐步建立起学生通过程序语言实现与电子计算机沟通的桥梁,这样做是由于学生通常习惯于利用数学建模的方式对算法进行描述,而对于算法用源代码描述方面的能力有所欠缺,让学生研读源代码有助于将学生的数学思维转化为计算思维。最后,教师根据学生对源代码的掌握情况,指导其设计属于自己的智能算法,并将代码录入计算机中进行对比分析。
2.5 计算思维的仿真教学。仿真教学主要就是对教材已有的理论知识与计算方法实行更加直观的可视化教学过程。由于人工智能课程知识过于抽象,以致学生在学习过程中无法真正体验与感受到教师所讲授的算法与基本原理在实际运算中的应用情况,进而使得学生对有关的基本原理的用途不明确,不能真正将所学知识运用到实处。在这种情况下,教师在教学时可以借助WEKA,为学生提供一个清晰的可视化计算坏境,对有关的算法进行仿真试验,从而让学生可以更深的了解人工智能课程的原理内容。例如,在学习人工神经网络时,教师可利用WEKA将需要建立仿真试验的数据编辑输入,设置好相关的参数后向学生展示具体算法的可视化过程。
3 结束语
综上所述,当前的人工智能教学存在许多问题,主要表现在忽略了对学生思维能力的培养,忽视了对人工智能的实践教学,以及教学过程缺乏相应的情景展示等方面上。在实际的人工智能教学中,教师应注重培养学生的计算思维,并将其贯穿于课堂的理论知识教学与实验教学中,锻炼学生的抽象、实验、转化以及仿真能力,进一步提升学生的专业素质与创新能力。
参考文献:
[1]陈杰华,戴丽娟.以培养计算思维为核心的程序设计实验教学[J].实验技术与管理,2011(13):182-183.
[2]牟琴,谭良.计算思维的研究及其进展[J].计算机科学,2011(09):135-136.
[3]任化敏,陈明.计算机应用型人才的计算思维培养研究[J].计算机教育,2010(04):66-67.
[4]牟琴,谭良.基于计算思维的探究教学模式研究[J].中国远程教育,2010(28):204-205.
[5]何钦铭,陆汉权,冯博琴.计算机基础教学的核心任务是计算思维能力的培养——《九校联盟(C9)计算机基础教学发展战略联合声明》解读[J].中国大学教学,2010(12):98-99.
作者简介:韩晓颖(1983.12-),女,内蒙古,讲师,本科,研究方向:计算机应用。
计算机游戏中的人工智能技术 第10篇
1 人工智能
人工智能近几年在计算机方面取得成就是有目共睹的, 在应用计算机方面主要用它来实现和模仿人的智能行为, 使它能够做到人所能做到的一些事, 减轻人们的负担, 人工智能在发展过程中也遇到了许多的阻力, 但在这些阻力和困难面前不断的完善并且得到了充分的发展。人工智能在其他学科方面也是不断发挥其用处, 例如在研究机器自动推理方面、建模、神经元网络方面近几年也是取得了长足的发展。人工智能在其他方面所取得的成就从另一个角度来说它改变了人们的生活习惯, 为人们的生活提供了许许多多的便利。可以说人工智能的发展是20世纪以来最伟大的成就之一。
2 人工智能在计算机游戏当中的应用
电脑游戏自从诞生以来就受到了广大游戏玩家的喜爱, 而随着计算机跟人工智能技术的不断向前发展, 使得游戏虚拟化越来越逼真, 而这些技术的改变给予游戏玩家的体验也是前所未有的。人工智能技术与游戏的结合无论玩家在游戏当中属于哪个级别都可以体验到现实生活当中所无法体验到的刺激。玩家在玩游戏的时候刚开始并不知道他们自己想要玩的是什么游戏, 而通过人工智能技术应用到游戏当中后, 玩家在看到一个精美的游戏后, 自然而然就会对这个游戏产生兴趣, 在即战力方面也能够自己判断。而这些全新的应用正是其他没有应用人工智能技术所不能比拟的。
3 人工智能系统下计算机游戏的工作原理
在人工智能系统工作的原理当中记忆存储是非常重要的, 通过记忆存储可以将一些重要的信息跟数据都收集在里面。游戏玩家在玩游戏的过程当中有时候一些信息是很混乱的, 而通过记忆存储这种方式它可以将一些混乱的信息进行整合, 当玩家需要的时候随时就可以调取出来, 给用户带来了许多的便利。例如, 在游戏当中通过记忆存储这种方式计算机就会自动的算出游戏当中的地方在哪个位置, 哪个方向, 以及它行走的路线, 从而进行综合的比较给游戏玩家具体的参数, 这样玩家就可以在游戏当中充分的感受到人工智能最真实的感受。
3 计算机游戏中的人工智能技术
3.1 作弊手段的运用
在计算机游戏中作弊是使用比较普遍的一种手段, 游戏玩家通过作弊可以知道对手的信息, 以及对方的一些装备情况, 以此来应对其他玩家的攻击。以前玩家在玩游戏过程当中由于并不了解对手的信息, 在游戏中有时候由于不理解对方给玩家带来的损失也是非常大的, 而通过作弊这个手段则很好的解决了这个问题, 帮助玩家应对各种复杂的条件。
3.2 有限状态机
除了记忆存储跟作弊这两个应用之外, 有限状态机的使用也是非常普遍的一个人工智能。首先, 它通过建立一个抽象的建模方式, 将游戏当中一些非常复杂的程序进行简单化处理, 将那些存在内部联系的进行组合交换, 从而构成一条游戏的主线。有限状态机的功能也是很多的, 例如在:管理游戏世界、模拟NPC的思维、维护游戏的一个状态方面也是表现的很突出。有限状态机由于它很好理解, 而且也非常容易实现它的各个目标, 因此在人工智能系统当中得到了充分的应用。
3.3 模糊状态机
模糊状态机是计算机游戏中常见的人工智能, 而模糊状态机又是有限状态机的一个延伸。模糊状态机在表达上也是更加的细致同时也非常的丰富, 通过它可以更好的进行推理, 相对于有限状态机来说模糊状态机可以存储多个内容为用户省去了很多麻烦。游戏玩家在玩游戏的过程当中可能需要掌握多个对手的信息而模糊状态机由于他有多个存储功能, 为玩家省去了很多时间, 从而得到更好的游戏体验。模糊状态机在游戏的使用中更多的是帮玩家出谋划策, 计算其他玩家的信息进一步加强了游戏的娱乐性, 给玩家带来不一样的游戏感受。在其他一些竞技游戏当中可以运用模糊状态机这种形式记录他人的信息从而使得游戏更为逼真, 可玩性进一步提高。
3.4 人工神经网络
人工神经网络是进行信息处理的一个数学模型, 不仅具有强大的信息处理能力而且还具备了其他系统所不能拥有的学习识别功能。传统的技术通常只具备简单的信息处理功能, 而人工神经网络将其他一些分支部分进行整合结算, 不仅节省了大量的时间而且还能够准确的将杂乱无章的信息识别开来, 联合起来进行结算。在游戏中有时候会出现一些比较复杂的场面, 而玩家并不能很好的辨别出来, 而通过人工神经网络则能进行简单化处理, 改善玩家的游戏角色, 给玩家带来不一样的游戏感受。
3.5 遗传算法
遗传算法是一种全新的优化搜索方法, 对于那些比较难并且复杂的数据首先进行模拟计算, 然后将那些需要研究的对象直接进行计算, 大大省去了不必要的时间。玩家在玩游戏中通常并不能很好的辨别敌方方位, 而通过遗传算法就可以自行搜索出敌方的方位, 对自身的装备进行优化, 通过自动学习, 使整个游戏的画面更加真实。遗传算法在使用的过程中用的最多的可能是它取代了一些比较传统的学习算法, 遗传算法将进一步优化人工神经网络可以说是在其基础上得到进一步提升。当然在遗传算法上也有它不足的一面, 尤其在数学基础上有着一定的缺陷, 而这些不足的一面我们有理由相信随着理论研究的不断深入, 最终将会得到完善。
摘要:计算机发展到现在已成为了人们日常生活中不可缺少的一部分, 其发展也是日新月异。在计算机的发展过程当中其应用范围不断的拓展, 在各个领域也是不断分化, 从另一个角度来说计算机的发展方向也正在朝着不同方向延伸, 而微型化、智能化则能很好的代表当今计算机发展的趋势。本文我们将重点谈谈人工智能化技术在计算机游戏当中的应用并进行深入的探讨。
关键词:计算机发展,人工智能技术,微型,应用
参考文献
[1]刘婷婷.游戏中怪物人工智能的实现[J].数字技术与应用, 2012 (4) :200-201.
人工智能计算机发展
声明:除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。如若本站内容侵犯了原著者的合法权益,可联系本站删除。