帮助中心帮助中心
应用修正线性单元激活
自 R2019b 起
Y = relu(X)
修正线性单元 (ReLU) 激活运算执行非线性阈值运算,其中任何小于零的输入值都设置为零。
此运算等效于
f(x)={x,x>00,x≤0.
注意
此函数将 ReLU 运算应用于 dlarray 数据。如果要在 layerGraph 对象或 Layer 数组中应用 ReLU 激活,请使用以下层:
dlarray
layerGraph
Layer
reluLayer
示例
Y = relu(X) 通过应用阈值运算来计算输入 X 的 ReLU 激活。X 中所有小于零的值都设置为零。
Y
X
全部折叠
创建一个格式化的 dlarray 对象,其中包含一批(128 个)具有 3 个通道的 28×28 图像。指定格式 'SSCB'(空间、空间、通道、批量)。
'SSCB'
miniBatchSize = 128; inputSize = [28 28]; numChannels = 3; X = rand(inputSize(1),inputSize(2),numChannels,miniBatchSize); X = dlarray(X,"SSCB");
查看输入数据的大小和格式。
size(X)
ans = 1×4 28 28 3 128
dims(X)
ans = 'SSCB'
使用 relu 函数应用 ReLU 运算。
relu
Y = relu(X);
查看输出的大小和格式。
size(Y)
dims(Y)
输入数据,指定为格式化或未格式化的 dlarray 对象。
ReLU 激活,以 dlarray 形式返回。输出 Y 与输入 X 具有相同的基础数据类型。
如果输入数据 X 是格式化的 dlarray,则 Y 与 X 具有相同的维度格式。如果输入数据不是格式化的 dlarray,则 Y 是未格式化的 dlarray,其维度顺序与输入数据相同。
用法说明和限制:
当输入参数 X 是基础数据类型为 gpuArray 的 dlarray 时,此函数在 GPU 上运行。
gpuArray
有关详细信息,请参阅Run MATLAB Functions on a GPU (Parallel Computing Toolbox)。
在 R2019b 中推出
dlarray | dlconv | batchnorm | leakyrelu | gelu | dlgradient | dlfeval
dlconv
batchnorm
leakyrelu
gelu
dlgradient
dlfeval
您曾对此示例进行过修改。是否要打开带有您的编辑的示例?
您点击的链接对应于以下 MATLAB 命令:
请在 MATLAB 命令行窗口中直接输入以执行命令。Web 浏览器不支持 MATLAB 命令。
Select a Web Site
Choose a web site to get translated content where available and see local events and offers. Based on your location, we recommend that you select: .
You can also select a web site from the following list:
Select the China site (in Chinese or English) for best site performance. Other MathWorks country sites are not optimized for visits from your location.
Contact your local office