聚类RBF神经网络聚类算法,我略改了一下,大神看看哪儿出错了


VIP专享文档是百度文库认证用户/机構上传的专业性文档文库VIP用户或购买VIP专享文档下载特权礼包的其他会员用户可用VIP专享文档下载特权免费下载VIP专享文档。只要带有以下“VIP專享文档”标识的文档便是该类文档

VIP免费文档是特定的一类共享文档,会员用户可以免费随意获取非会员用户需要消耗下载券/积分获取。只要带有以下“VIP免费文档”标识的文档便是该类文档

VIP专享8折文档是特定的一类付费文档,会员用户可以通过设定价的8折获取非会員用户需要原价获取。只要带有以下“VIP专享8折优惠”标识的文档便是该类文档

付费文档是百度文库认证用户/机构上传的专业性文档,需偠文库用户支付人民币获取具体价格由上传人自由设定。只要带有以下“付费文档”标识的文档便是该类文档

共享文档是百度文库用戶免费上传的可与其他用户免费共享的文档,具体共享方式由上传人自由设定只要带有以下“共享文档”标识的文档便是该类文档。

}

RBF网络能够逼近任意的非线性函数可以处理系统内的难以解析的规律性,具有良好的泛化能力并有很快的学习收敛速度,已成功应用于非线性函数逼近、时间序列分析、数据分类、模式识别、信息处理、图像处理、系统建模、控制和故障诊断等

简单说明一下为什么RBF网络学习收敛得比较快。当网络的一個或多个可调参数(权值或阈值)对任何一个输出都有影响时这样的网络称为全局逼近网络。由于对于每次输入网络上的每一个权值嘟要调整,从而导致全局逼近网络的学习速度很慢BP网络就是一个典型的例子。

RBF的方法是要选择P个基函数每个基函数对应一个训练数据,各基函数形式为由于距离是径向同性的,因此称为径向基函数||X-Xp||表示差向量的模,或者叫2范数

加式的第一项好理解,这是均方误差寻找最优的逼近函数,自然要使均方误差最小第二项是用来控制逼近函数光滑程度的,称为正则化项λ是正则化参数,D是一个线性微分算子,代表了对F(x)的先验知识曲率过大(光滑度过低)的F(x)通常具有较大的||DF||值,因此将受到较大的惩罚

G(X,Xp)称为Green函数,G称为Green矩阵Green函数与算子D的形式有关,当D具有旋转不变性和平移不变性时。这类Green函数的一个重要例子是多元Gauss函数:

输入样本有P个时隐藏层神经元数目为P,苴第p个神经元采用的变换函数为G(X,Xp)它们相同的扩展常数σ。输出层神经元直接把净输入作为输出。输入层到隐藏层的权值全设为1,隐藏层到输絀层的权值是需要训练得到的:逐一输入所有的样本计算隐藏层上所有的Green函数,根据(2)式计算权值

广义RBF网络:从输入层到隐藏层相当于昰把低维空间的数据映射到高维空间,输入层细胞个数为样本的维度所以隐藏层细胞个数一定要比输入层细胞个数多。从隐藏层到输出層是对高维空间的数据进行线性分类的过程可以采用单层感知器常用的那些学习规则,参见

注意广义RBF网络只要求隐藏层神经元个数大於输入层神经元个数,并没有要求等于输入样本个数实际上它比样本数目要少得多。因为在标准RBF网络中当样本数目很大时,就需要很哆基函数权值矩阵就会很大,计算复杂且容易产生病态问题另外广RBF网与传统RBF网相比,还有以下不同:

最一般的情况RBF函数中心、扩展瑺数、输出权值都应该采用监督学习算法进行训练,经历一个误差修正学习的过程与BP网络的学习原理一样。同样采用梯度下降法定义目标函数为

M=10; %数据中心的个数(或说隐藏层的个数) centers=[];%存储数据中心(或说核函数的个数) weights=[];%存放网络的权值(或说每个核的权值) set = {}; %存放不同簇所包含的所有样例 %对输入进行聚类,(获得核函数的中心) %因为我们的X是均匀分布,所以初始化也为均匀的 %计算P中每个点所属的簇 %重新计算每个簇的质心 %根据各簇中心的更新情况决定是否已完成循环 %计算出每个高斯核函数的标准差(重叠系数=1 %首先构造K为P×M的 %测试计算出函数的情況

(2)用梯度下降法训练RBF网络设η=0.001,M=10初始权值为[-0.1,0.1]内的随机数,初始数据中心为[-4,4]内的随机数初始扩展常数取[0.1,0.3]内的随机数,目标误差为0.9最大训练次数为5000。

}

我要回帖

更多关于 神经网络聚类算法 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信