您好、欢迎来到现金彩票网!
当前位置:大象彩票app下载 > 感觉器感知器 >

CICC科普栏目|详解径向基函数神经网络RBNN它和多层感知器MLP有

发布时间:2019-06-06 17:35 来源:未知 编辑:admin

  在单层感知器/多层感知器(MLP)中,我们只有线性可分性,因为它们是由输入和输出层(MLP中的一些隐藏层)组成的。

  •那我们的RBNN所指代的是什么呢?它将输入信号转换成另一种形式,然后将其馈送到网络中以获得线性可分离性。

  •RBNN由输入、隐藏和输出层组成。RBNN被严格限制为只能含有一个隐藏层。我们将这个隐藏层称为特征向量。

  相较于在低维空间中,非线性可分离问题(模式分类问题)在高维空间中具有高度可分离性。

  高斯函数通常用于径向基函数(confrontal映射)。因此我们定义径向距离r = x-t 。

  我有4个输入,而我不会在此增加特征向量的维度。所以我将在此处选择2个接受器。对于每个变换函数φ(x),我们都将得到每个接受器t。

  •神经网络训练(反向传播)是一种曲线拟合方法。它在训练阶段适合非线性曲线。它通过随机逼近法运行,我们称之为反向传播。

  •对于隐层中的每个节点,我们必须找到t(接受器)和方差(σ)[方差——径向基函数的扩展系数spread。

  •在隐藏层中,每个节点表示每个变换基函数。任何一个函数都可以满足非线性的可分离性,甚至组合函数也可以满足非线性的可分离性。

  •所以在我们的隐藏层转换中,包括了所有的非线性项。就像X²+Y²+ 5XY;它都包含在超曲面方程(X&Y是输入)中。

  •因此,第一阶段的训练是通过聚类算法完成的。我们定义我们需要的聚类中心数量。并且通过聚类算法,我们计算聚类中心,然后将其分配为每个隐藏神经元的接受器。

  •对于每个接受器,我可以发现方差为“各受体与每个簇最近样本之间的距离的平方和”:= 1 / N * X-t ²。

  1、RBNN的训练速度比在多层感知器(MLP)中更快→在MLP中进行许多“交互”。

  2、我们可以很容易地解释RBNN隐藏层中每个节点的含义/功能是什么。这在MLP中却很困难。

  3、(隐藏层中的#节点数目以及隐藏层的#数量)在MLP中这个参数化是很困难的。但是在RBNN中没有发现这点。

http://dpi-berlin.net/ganjueqiganzhiqi/492.html
锟斤拷锟斤拷锟斤拷QQ微锟斤拷锟斤拷锟斤拷锟斤拷锟斤拷锟斤拷微锟斤拷
关于我们|联系我们|版权声明|网站地图|
Copyright © 2002-2019 现金彩票 版权所有