本页提供 MATLAB® 中的深度学习层的列表。
要了解如何针对不同任务从层创建网络,请参阅以下示例。
任务 | 了解更多信息 |
---|---|
为图像分类或回归创建深度学习网络。 | |
创建深度学习网络以处理序列和时序数据。 | |
为音频数据创建深度学习网络。 | 使用深度学习进行语音命令识别 |
为文本数据创建深度学习网络。 |
使用以下函数创建不同层类型。或者,使用深度网络设计器以交互方式创建网络。
要了解如何定义您自己的自定义层,请参阅定义自定义深度学习层。
层 | 说明 |
---|---|
图像输入层向网络输入二维图像,并应用数据归一化。 | |
三维图像输入层向网络输入三维图像或三维体,并应用数据归一化。 | |
序列输入层向网络输入序列数据。 | |
特征输入层将特征数据输入网络并应用数据归一化。当您有表示特征的数值标量数据集(数据没有空间和时间维度)时,请使用此层。 | |
| ROI 输入层将图像输入到 Fast R-CNN 目标检测网络。 |
层 | 说明 |
---|---|
二维卷积层对输入应用滑动卷积滤波器。 | |
三维卷积层将滑动立方体卷积滤波器应用于三维输入。 | |
二维分组卷积层将输入通道分成各个组,并应用滑动卷积滤波器。使用分组卷积层进行按通道可分离(也称为按深度可分离)卷积。 | |
转置的二维卷积层对特征图进行上采样。 | |
转置的三维卷积层对三维特征图进行上采样。 | |
全连接层将输入乘以权重矩阵,然后添加偏置向量。 |
层 | 说明 |
---|---|
序列输入层向网络输入序列数据。 | |
LSTM 层学习时序和序列数据中时间步之间的长期相关性。 | |
双向 LSTM (BiLSTM) 层学习时序或序列数据的时间步之间的双向长期相关性。当您希望网络在每个时间步从完整时序中学习时,这些相关性会很有用。 | |
GRU 层学习时序和序列数据中时间步之间的相关性。 | |
序列折叠层将一批图像序列转换为一批图像。使用序列折叠层独立地对图像序列的时间步执行卷积运算。 | |
序列展开层在序列折叠后还原输入数据的序列结构。 | |
扁平化层将输入的空间维度折叠成通道维度。 | |
| 单词嵌入层将单词索引映射到向量。 |
层 | 说明 |
---|---|
ReLU 层对输入的每个元素执行阈值运算,其中任何小于零的值都设置为零。 | |
泄漏 ReLU 层执行阈值运算,其中小于零的任何输入值都乘以固定标量。 | |
裁剪 ReLU 层执行阈值运算,其中任何小于零的输入值都设置为零,裁剪上限以上的任何值都设置为该裁剪上限。 | |
ELU 激活层对正输入执行单位运算,对负输入执行指数非线性运算。 | |
双曲正切 (tanh) 激活层对层输入应用 tanh 函数。 | |
| PReLU 层执行阈值运算,其中对于每个通道,任何小于零的输入值都乘以在训练时学习到的标量。 |
层 | 说明 |
---|---|
批量归一化层对小批量中的每个输入通道进行归一化。为了加快卷积神经网络的训练并降低对网络初始化的敏感度,请在卷积层和非线性部分之间使用批量归一化层,如 ReLU 层。 | |
组归一化层将输入数据的通道划分为若干组,并对每组中的激活进行归一化。为了加快卷积神经网络的训练并降低对网络初始化的敏感度,请在卷积层和非线性部分之间使用组归一化层,如 ReLU 层。通过设置适当的组数,可以执行实例归一化和层归一化。 | |
按通道局部响应(跨通道)归一化层执行按通道归一化。 | |
丢弃层以给定的概率将输入元素随机设置为零。 | |
二维裁剪层对输入应用二维裁剪。 | |
三维裁剪层将三维体裁剪到输入特征图的大小。 | |
| 二维调整大小层根据缩放因子或指定的高度和宽度调整二维输入的大小。 |
| 三维调整大小层根据缩放因子或指定的高度、宽度和深度调整三维输入的大小。 |
层 | 说明 |
---|---|
平均池化层通过将输入划分为矩形池化区域并计算每个区域的平均值来执行下采样。 | |
三维平均池化层通过将三维输入划分为立方体池化区域并计算每个区域的平均值来执行下采样。 | |
全局平均池化层通过计算输入的高度和宽度维度的均值来执行下采样。 | |
三维全局平均池化层通过计算输入的高度、宽度和深度维度的均值来执行下采样。 | |
最大池化层通过将输入划分为矩形池化区域并计算每个区域的最大值来执行下采样。 | |
三维最大池化层通过将三维输入划分为立方体池化区域并计算每个区域的最大值来执行下采样。 | |
全局最大池化层通过计算输入的高度和宽度维度的最大值来执行下采样。 | |
三维全局最大池化层通过计算输入的高度、宽度和深度维度的最大值来执行下采样。 | |
最大去池化层对最大池化层的输出进行去池化。 |
层 | 说明 |
---|---|
相加层按元素将来自多个神经网络层的输入相加。 | |
相乘层按元素将来自多个神经网络层的输入相乘。 | |
深度串联层接受具有相同高度和宽度的输入,并沿第三个维度(通道维度)串联它们。 | |
串联层接受输入并沿指定维度串联它们。除串联维度外,所有其他维度中的输入必须具有相同的大小。 | |
| 加权相加层按元素对来自多个神经网络层的输入进行缩放和相加。 |
层 | 说明 |
---|---|
| ROI 输入层将图像输入到 Fast R-CNN 目标检测网络。 |
| ROI 最大池化层对输入特征图中的每个矩形 ROI 输出固定大小的特征图。使用此层创建一个 Fast 或 Faster R-CNN 目标检测网络。 |
| ROI 对齐层对输入特征图中的每个矩形 ROI 输出固定大小的特征图。使用此层创建一个掩膜 RCNN 网络。 |
| 锚框层存储用于目标检测网络中特征图的锚框。 |
| 区域提议层是 Faster R-CNN 中区域提议网络 (RPN) 的一部分,该层输出图像中潜在目标周围的边界框。 |
| SSD 合并层合并特征图的输出,用于后续回归和分类损失计算。 |
| 空间到深度层将输入的空间模块置换到深度维度。当您需要在不丢弃任何特征数据的情况下合并不同大小的特征图时,请使用此层。 |
| 区域提议网络 (RPN) softmax 层对输入应用 softmax 激活函数。使用此层创建一个 Faster R-CNN 目标检测网络。 |
| 焦点损失层使用焦点损失预测目标类。 |
| 区域提议网络 (RPN) 分类层通过使用交叉熵损失函数将图像区域分类为目标或背景。使用此层创建一个 Faster R-CNN 目标检测网络。 |
| 框回归层通过使用平滑 L1 损失函数来细化边界框位置。使用此层创建一个 Fast 或 Faster R-CNN 目标检测网络。 |
层 | 说明 |
---|---|
| 投影和重构层接受 1×1×numLatentInputs 数组作为输入,并将它们转换为指定大小的图像。使用投影和重构层来重构 GAN 的噪声输入。 |
| 嵌入和重构层接受分类元素的数值索引作为输入,并将其转换为指定大小的图像。使用嵌入和重构层将分类数据输入到条件 GAN 中。 |
层 | 说明 |
---|---|
softmax 层对输入应用 softmax 函数。 | |
sigmoid 层对输入应用 sigmoid 函数,使得输出在区间 (0,1) 内有界。 | |
分类层计算具有互斥类的多类分类问题的交叉熵损失。 | |
回归层计算回归问题的半均方误差损失。 | |
| 像素分类层为每个图像像素或体素提供分类标签。 |
| Dice 像素分类层使用广义 Dice 损失为每个图像像素或体素提供分类标签。 |
| 焦点损失层使用焦点损失预测目标类。 |
| 区域提议网络 (RPN) softmax 层对输入应用 softmax 激活函数。使用此层创建一个 Faster R-CNN 目标检测网络。 |
| 区域提议网络 (RPN) 分类层通过使用交叉熵损失函数将图像区域分类为目标或背景。使用此层创建一个 Faster R-CNN 目标检测网络。 |
| 框回归层通过使用平滑 L1 损失函数来细化边界框位置。使用此层创建一个 Fast 或 Faster R-CNN 目标检测网络。 |
| 加权分类层计算分类问题的加权交叉熵损失。 |
| Tversky 像素分类层使用 Tversky 损失为每个图像像素或体素提供分类标签。 |
| 分类 SSE 层计算分类问题的误差损失平方和。 |
| 回归 MAE 层计算回归问题的均值绝对误差损失。 |
trainingOptions
| trainNetwork
| 深度网络设计器