Main Content

layrecnet

层循环神经网络

说明

示例

layrecnet(layerDelays,hiddenSizes,trainFcn) 接受以下参量:

  • 由递增的 0 或正时滞组成的行向量,layerDelays

  • 由一个或多个隐藏层大小组成的行向量,hiddenSizes

  • 反向传播训练函数,trainFcn

并返回一个层循环神经网络。

层循环神经网络类似于前馈网络,不同之处在于每层都有一个循环连接和与之相关联的抽头延迟。这允许网络对时间序列输入数据具有无限的动态响应。此网络类似于时滞 (timedelaynet) 和分布延迟 (distdelaynet) 神经网络,它们具有有限的输入响应。

示例

全部折叠

此示例说明如何使用层循环神经网络来求解简单的时间序列问题。

[X,T] = simpleseries_dataset;
net = layrecnet(1:2,10);
[Xs,Xi,Ai,Ts] = preparets(net,X,T);
net = train(net,Xs,Ts,Xi,Ai);

view(net)

Y = net(Xs,Xi,Ai);
perf = perform(net,Y,Ts)
perf = 6.1239e-11

输入参数

全部折叠

零或正输入延迟,指定为递增的行向量。

隐藏层的大小,指定为由一个或多个元素组成的行向量。

训练函数名称,指定为下列各项之一。

训练函数算法
'trainlm'

莱文贝格-马夸特

'trainbr'

贝叶斯正则化

'trainbfg'

BFGS 拟牛顿

'trainrp'

弹性反向传播

'trainscg'

量化共轭梯度

'traincgb'

带鲍威尔/比尔重启的共轭梯度

'traincgf'

弗莱彻-鲍威尔共轭梯度

'traincgp'

波拉克-里比埃尔共轭梯度

'trainoss'

单步正割

'traingdx'

可变学习率梯度下降

'traingdm'

带动量的梯度下降

'traingd'

梯度下降

示例: 例如,您可以将可变学习率梯度下降算法指定为训练算法,如下所示:'traingdx'

有关训练函数的详细信息,请参阅训练与应用多层浅层神经网络选择多层神经网络训练函数

数据类型: char

版本历史记录

在 R2010b 中推出