通过上一篇文章《人工智能之深度自学》,我们确切地告诉深度自学(DL)的概念源自人工神经网络ANN(ArtificialNeuralNetwork)。人工神经网络ANN是20世纪80年代以来人工智能领域蓬勃发展的研究热点。人工神经网络ANN全称为神经网络或类神经网络。
深度自学实质上是深度神经网络DNN,即深度自学从人工神经网络ANN模型发展一起的,因此有适当对人工神经网络ANN作更进一步探究。^_^最近十几年来,人工神经网络ANN的研究工作不断深入,早已获得了相当大进展,其在模式识别、智能机器人、自动控制、预测估算、生物、医学、经济等领域已顺利地解决问题了许多现代计算机难以解决的实际问题,展现出出有了较好的智能特性。那么到底什么是人工神经网络ANN呢?人工神经网络ANN从信息处理角度对人脑神经元网络展开抽象化,创建某种非常简单模型,按有所不同的相连方式构成有所不同的网络。
人工神经网络ANN是一种运算模型,由大量的节点(或称之为神经元)之间互相连接起来包含。每个节点(神经元)代表一种特定的输入函数,称作激励函数(activationfunction)。每两个节点间的相连都代表一个对于通过该相连信号的权重值,称作权重,这相等于人工神经网络的记忆。
网络的输入则依网络的相连方式,权重值和激励函数的有所不同而有所不同。而网络自身一般来说都是对自然界某种算法或者函数的迫近,也有可能是对一种逻辑策略的传达。
人工神经网络ANN的发展历程:1)人工神经网络ANN的概念由W.S.McCulloch和W.Pitts等人于1943年明确提出。他们通过MP模型明确提出了神经元的一般化数学叙述和网络结构方法。2)1960s年,人工神经网络获得了更进一步发展,更加完备的神经网络模型被明确提出,其中还包括感知器和自适应线性元件等。
1982年,J.J.Hopfield明确提出了Hopfield神经网格模型,引进“计算出来能量”概念,得出了网络稳定性辨别。1984年,他又明确提出了倒数时间Hopfield神经网络模型,首创了神经网络用作误解记忆和优化计算出来的新途径。这项开拓性的研究工作有力地推展了神经网络的研究。
3)1985年,有学者明确提出了波耳兹曼模型,在自学中使用统计资料热力学模拟退火技术,确保整个系统渐趋全局平稳点。4)1986年展开理解微观结构地研究,明确提出了分段产于处置的理论。5)1986年,Rumelhart,Hinton,Williams发展了BP算法。
目前为止,BP算法已被用作解决问题大量实际问题。6)1988年,Linsker对感知机网络明确提出了新的自的组织理论,并在Shanon信息论的基础上构成了仅次于互信息理论,从而熄灭了基于NN的信息应用于理论的光芒。7)1988年,Broomhead和Lowe用径向恩函数(Radialbasisfunction,RBF)明确提出分层网络的设计方法,从而将NN的设计与数值分析和线性适应环境滤波互为挂勾。
8)90年代初,Vapnik等明确提出了反对向量机(Supportvectormachines,SVM)和VC(Vapnik-Chervonenkis)维数的概念。9)美国国会通过决议将1990年1月5日开始的十年订为“脑的十年”,国际研究的组织声援它的成员国将“脑的十年”变成全球不道德。在日本的“真实世界计算出来(RWC)”项目中,人工智能的研究出了一个最重要的组成部分。
人工神经网络的研究从此受到了各个发达国家的推崇。人工神经网络特征:人工神经网络是由大量处理单元网络构成的非线性、自适应信息处理系统。它是在现代神经科学研究成果的基础上明确提出的,企图通过仿真大脑神经网络处置、记忆信息的方式展开信息处理。人工神经网络具备四个基本特征:(1)非线性:人工神经元正处于转录或诱导二种有所不同的状态,这种不道德在数学上展现出为一种非线性关系。
具备阈值的神经元包含的网络具备更佳的性能,可以提升容错性和存储容量。(2)非局限性:一个神经网络一般来说由多个神经元普遍相连而出。一个系统的整体不道德不仅各不相同单个神经元的特征,而且有可能主要由单元之间的相互作用、相互连接所要求。
通过单元之间的大量相连仿真大脑的非局限性。(3)十分定性:人工神经网络具备自适应、自的组织、自自学能力。神经网络不但处置的信息可以有各种变化,而且在处置信息的同时,非线性动力系统本身也在大大变化。
使用递归过程刻画动力系统的演化过程。(4)非凸性:一个系统的进化方向,在一定条件下将各不相同某个特定的状态函数。
非凸性是指这种函数有多个极值,故系统具备多个较平稳的平衡态,这将导致系统进化的多样性。
本文来源:RAYBET雷竞技入口-www.fdjs.net
Copyright © 2008-2024 www.fdjs.net. RAYBET雷竞技入口科技 版权所有备案号:ICP备65156409号-4网站地图