您确定要删除吗?

取消
首页 算法大全 应用模型 分析软件 算法学院数据中心 关于本站
在线咨询
400-820-6981
意见反馈
返回顶部

SOM神经网络

人工神经网络 (Artificial Neural Network,ANN)简称神经网络(NN),是基于生物学中神经网络的基本原理,在理解和抽象了人脑结构和外界刺激响应机制后,以网络拓扑知识为理论基础,模拟人脑的神经系统对复杂信息的处理机制的一种数学模型,根植于神经科学、数学、思维科学、人工智能、统计学、物理学、计算机科学以及工程科学的一门技术,通常用于解决分类和回归问题。具有并行分布的处理能力、高容错性、智能化和自学习等能力的特征,本质上是一个有大量简单元件相互连接而成的复杂网络,具有高度的非线性,能够进行复杂的逻辑操作和非线性关系实现的系统。

神经网络由大量的节点(或称神经元)之间相互联接构成,每个节点代表一种特定的输出函数,称为激活函数(activation function);每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重(weight),神经网络就是通过这种方式来模拟人类的记忆。网络的输出则取决于网络的结构、网络的连接方式、权重和激活函数。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达,是对传统逻辑学演算的进一步延伸。

人工神经网络中,神经元处理单元可表示不同的对象,例如特征、字母、概念,或者一些有意义的抽象模式。网络中处理单元的类型分为三类:输入单元、输出单元和隐单元。输入单元接受外部世界的信号与数据;输出单元实现系统处理结果的输出;隐单元是处在输入和输出单元之间,不能由系统外部观察的单元。神经元间的连接权值反映了单元间的连接强度,信息的表示和处理体现在网络处理单元的连接关系中。

算法背景和发展

20世纪40年代,人们开始对神经网络研究。

1943 年,美国心理学家麦克洛奇(Mcculloch)和数学家皮兹(Pitts)提出了M-P模型,此模型比较简单,但是意义重大。在模型中,通过把神经元看作功能逻辑器件来实现算法,从此开创了神经网络模型的理论研究。

1949心理学家赫布(Hebb)提出Hebb法则,为构造有学习功能的神经网络模型奠定了基础。

1957 年,罗森勃拉特(Rosenblatt)以M-P 模型为基础,提出了感知器(Perceptron)模型;

1959年,美国著名工程师威德罗(B.Widrow)和霍夫(M.Hoff)等人提出ADALINE网络模型,ADALINE网络模型是一种连续取值的自适应线性神经元网络模型,可以用于自适应系统。

1972年,芬兰的KohonenT.教授,提出了自组织神经网络SOM(Self-Organizing feature map)。

1976年,美国Grossberg教授提出了著名的自适应共振理论ART(Adaptive Resonance Theory),其学习过程具有自组织和自稳定的特征。

1982年,美国物理学家霍普菲尔德(Hopfield)提出了一种离散神经网络,即离散Hopfield网络,从而有力地推动了神经网络的研究;

1984年,Hinton与年轻学者Sejnowski等合作提出了Boltzmann机模型;

1986年,儒默哈特(D.E.Ru melhart)等人在多层神经网络模型的基础上,提出了多层神经网络权值修正的反向传播学习算法----BP算法(Error Back-Propagation);

1988年,Chua和Yang提出了细胞神经网络(CNN)模型;

1994年,廖晓昕关于细胞神经网络的数学理论与基础的提出,带来了这个领域新的进展。通过拓广神经网络的激活函数类,给出了更一般的时滞细胞神经网络(DCNN)、Hopfield神经网络(HNN)、双向联想记忆网络(BAM)模型;

算法描述

芬兰Helsink大学Kohonen T.教授提出一种自组织特征映射网络SOM(Self-organizing feature Map),又称Kohonen网络。Kohonen认为,一个神经网络接受外界输入模式时,将会分为不同的对应区域,各区域对输入模式有不同的响应特征,而这个过程是自动完成的。SOM网络正是根据这一看法提出的,其特点与人脑的自组织特性相类似。

a.自组织神经网络结构

(1)定义:自组织神经网络是无导师学习网络。它通过自动寻找样本中的内在

规律和本质属性,自组织、自适应地改变网络参数与结构。

(2)结构:层次型结构,具有竞争层。典型结构:输入层+竞争层。

输入层:接受外界信息,将输入模式向竞争层传递,起“观察”作用。

竞争层:负责对输入模式进行分析比较,寻找规律,并归类。

b.自组织神经网络的原理

(1)分类与输入模式的相似性:分类是在类别知识等导师信号的指导下,将待识别的输入模式分配到各自的模式类中,无导师指导的分类称为聚类,聚类的目的是将相似的模式样本划归一类,而将不相似的分离开来,实现模式样本的类内相似性和类间分离性。由于无导师学习的训练样本中不含期望输出,因此对于某一输入模式样本应属于哪一类并没有任何先验知识。对于一组输入模式,只能根据它们之间的相似程度来分为若干类,因此,相似性是输入模式的聚类依据。

(2)相似性测量:神经网络的输入模式向量的相似性测量可用向量之间的距离来衡量。常用的方法有欧氏距离法和余弦法两种。

(3)竞争学习原理:竞争学习规则的生理学基础是神经细胞的侧抑制现象:当一个神经细胞兴奋后,会对其周围的神经细胞产生抑制作用。最强的抑制作用是竞争获胜的“唯我独兴”,这种做法称为“胜者为王”(Winner-Take-All)。竞争学习规则就是从神经细胞的侧抑制现象获得的。它的学习步骤为:A、向量归一化;B、寻找获胜神经元;C、网络输出与权调整;D、重新归一化处理。

SOM网络的拓扑结构:SOM网络共有两层。即:输入层和输出层。

(1)输入层:通过权向量将外界信息汇集到输出层各神经元。输入层的形式与BP网相同,节点数与样本维数相同。

(2)输出层:输出层也是竞争层。其神经元的排列有多种形式。分为一维线阵,二维平面阵和三维栅格阵。最典型的结构是二维形式。它更具大脑皮层的形象。

输出层的每个神经元同它周围的其他神经元侧向连接,排列成棋盘状平面;输入层为单层神经元排列。

c.SOM权值调整域

SOM网采用的算法,称为Kohonen算法,它是在胜者为王WTA(Winner-Take-All)学习规则基础上加以改进的,主要区别是调整权向量与侧抑制的方式不同,侧抑制是“封杀”式的。只有获胜神经元可以调整其权值,其他神经元都无权调整。Kohonen算法:获胜神经元对其邻近神经元的影响是由近及远,由兴奋逐渐变为抑制。换句话说,不仅获胜神经元要调整权值,它周围神经元也要不同程度调整权向量。

d.SOM网络运行原理

SOM网络的运行分训练和工作两个阶段。在训练阶段,网络随机输入训练集中的样本,对某个特定的输入模式,输出层会有某个节点产生最大响应而获胜,而在训练开始阶段,输出层哪个位置的节点将对哪类输入模式产生最大响应是不确定的。当输入模式的类别改变时,二维平面的获胜节点也会改变。获胜节点周围的节点因侧向相互兴奋作用也产生较大影响,于是获胜节点及其优胜邻域内的所有节点所连接的权向量均向输入方向作不同程度的调整,调整力度依邻域内各节点距离获胜节点的远近而逐渐减小。网络通过自组织方式,用大量训练样本调整网络权值,最后使输出层各节点成为对特定模式类敏感的神经元,相应的权向量成为各输入模式的中心向量。并且当两个模式类的特征接近时,代表这两类的节点在位置上也接近。从而在输出层形成能反应样本模式类分布情况的有序特征图。

自组织映射网络(Kohonen)结构见图所示,图中上层为输出层,假定有个节点,输出层中的节点是以二维形式排成一个节点矩阵,输出节点之间也可能实现局部连接,它们中的每个节点是一个输入样本的代表。输入层处于下方,若输入向量为n维,那么输入节点有n个,输入节点与输出层的所有节点通过权值实现全互联。在输出层竞争是这样进行的,对于获胜的节点,在其周围Nj区域内的节点在不同的程度上得到兴奋,而在Nj区域以外的节点都被抑制,这个趋于Nj可以是正方形也可以是六角形,如图所示。区域Nj是时间t的函数,随着的增加,Nj的面积成比例缩小,最后剩下一个节点或一组节点,它们反映一类样本的属性。自组织映射网络为一个无教师指导的、自适应、自组织的网络。

Kohonen 网络结构

对于任意一个输入节点i和输出节点j有:

Nj(t)的形状变化情况

自组织映射学习算法:假定共有K个输入模式,对于某个输入模式通过竞争,逐渐收敛到样本空间所划分的K个子集的中心。当某一模式输入时,对某一输出节点给予最大的刺激,以指示该类模式的所属区域,而同时对获胜周围的一些节点给予较大的刺激。当另一输入模式输入时,获胜区域移到其它区域。

在训练过程中定义获胜节点的邻域为Nj(t),表示在时刻t以节点Nj为中心的某一半径内的所有节点,随着训练过程的进行Nj(t)的半径将逐渐缩小,最后只剩Nj(t)本身。即在初始阶段不但对获胜节点Nj(t)调整权值,也对其周围节点调整权值,直到最后仅对Nj(t)调整权值。保证对于某一类输入模式,获胜节点做出最大的响应,而相邻节点做出较大的响应。几何上相邻的节点代表特征相近的模式。Kohonen网络的具体算法为:

① 连接权值的初始化。

② 对网络输入一个样本模式。

③ 计算Xk与全部输出节点间的权值向量W的距离

④ 选择有最小距离的节点Nj*为竞争获胜节点

⑤ 调整权值

其中,0<α(t)<1,为增益函数,随着时间t而递减。β(Nj,Nj*),随着Nj*距离递减。

⑥ 若还有输入样本则转②,当所有的样本输入完,且满足:

或者完成指定的学习次数后算法结束,否则转②。

α(t)和Nj*(t)没有一般化数学方法,凭经验选取。初始时,Nj*(t)选取较大,后逐渐变小,α(t)开始时较大,后逐渐变为0。

相关应用

SOM网络是自组织竞争型神经网络的一种,该网络为无监督学习网络,能够识别环境特征并自动聚类。

参考资料

1. Simon Haykin,《神经网络原理》,2004,机械工业出版社

2. 维基百科

3. 百度百科

4. 马克威分析系统使用教程,www.tenly.com;

参考案例

SOM神经网络聚类:气温变化和湿度的关系

输入输出

√ 输入要求:数值型,不能是布尔型和描述型。

→ 输出结果:

√ Kohonen神经网络权值表:列出神经网络的权值。

√ Kohonen神经网络聚类表:列出每条记录所属类别。

相关条目

WTA学习规则,人工神经网络,无监督学习

优缺点

优点:

1. 对输入模式的自动聚类;

2. 网络结构简单,具有很好的生物神经元作用;

3. 容错性;

4. 具有特征映射的能力;

5. 具有可视化的优点;

6. 网络具有自稳定性;

7. 具有自联想性,

缺点:

1. 聚类数目和初始网络结构固定,需要用户预先制定聚类数目和初始的权值矩阵;

2. 可能会出现一些始终不能获胜的”死神经元“,和一些因为经常获胜被过度利用的神经元,不能充分利用所有神经元信息而影响聚类质量;

3. 要想往SOM网络中加入新的类别必须先完整的重新学习之后方可进行;

4. 数据的输入顺序会影响甚至决定了输出的结果,数据量少时尤为明显;

5. 连接权值初始值、计算策略,参数选择不当时会导致网络收敛时间过长,甚至不能收敛。

确定