Main Content

本页翻译不是最新的。点击此处可查看最新英文版本。

reluLayer

修正线性单元 (ReLU) 层

说明

ReLU 层对输入的每个元素执行阈值运算,其中任何小于零的值都设置为零。

此运算等效于

f(x)={x,x00,x<0.

创建对象

描述

layer = reluLayer 创建一个 ReLU 层。

示例

layer = reluLayer('Name',Name) 创建一个 ReLU 层,并使用名称-值对组设置可选的 Name 属性。例如,reluLayer('Name','relu1') 创建一个名为 'relu1' 的 ReLU 层。

属性

全部展开

层名称,指定为字符向量或字符串标量。对于 Layer 数组输入,trainnettrainNetworkassembleNetworklayerGraphdlnetwork 函数会自动为层指定名称 ""

ReLULayer 对象将此属性存储为字符向量。

数据类型: char | string

此 属性 为只读。

层的输入数,返回为 1。此层只接受一个输入。

数据类型: double

此 属性 为只读。

输入名称,返回为 {'in'}。此层只接受一个输入。

数据类型: cell

此 属性 为只读。

层的输出数,返回为 1。此层只有一个输出。

数据类型: double

此 属性 为只读。

输出名称,返回为 {'out'}。此层只有一个输出。

数据类型: cell

示例

全部折叠

创建一个名为 'relu1' 的 ReLU 层。

layer = reluLayer('Name','relu1')
layer = 
  ReLULayer with properties:

    Name: 'relu1'

Layer 数组中包含一个 ReLU 层。

layers = [ ...
    imageInputLayer([28 28 1])
    convolution2dLayer(5,20)
    reluLayer
    maxPooling2dLayer(2,'Stride',2)
    fullyConnectedLayer(10)
    softmaxLayer
    classificationLayer]
layers = 
  7x1 Layer array with layers:

     1   ''   Image Input             28x28x1 images with 'zerocenter' normalization
     2   ''   2-D Convolution         20 5x5 convolutions with stride [1  1] and padding [0  0  0  0]
     3   ''   ReLU                    ReLU
     4   ''   2-D Max Pooling         2x2 max pooling with stride [2  2] and padding [0  0  0  0]
     5   ''   Fully Connected         10 fully connected layer
     6   ''   Softmax                 softmax
     7   ''   Classification Output   crossentropyex

详细信息

全部展开

参考

[1] Nair, Vinod, and Geoffrey E. Hinton. "Rectified linear units improve restricted boltzmann machines." In Proceedings of the 27th international conference on machine learning (ICML-10), pp. 807-814. 2010.

扩展功能

C/C++ 代码生成
使用 MATLAB® Coder™ 生成 C 代码和 C++ 代码。

GPU 代码生成
使用 GPU Coder™ 为 NVIDIA® GPU 生成 CUDA® 代码。

版本历史记录

在 R2016a 中推出