通常来说,卷积层通常会减少输入图像的空间维度,这就导致在进行语义分割任务时非常困难。为了解决这一点,我们可以使用另外一种类型的卷积神经网络,它可以增加采样中间特征层的空间维度 -- 转置卷积
转置卷积
我们来对比一下
二维卷积层
- 输入
X: n_h \times n_w
- 核(Kernel)
W: k_h \times K_w
- 偏差
b \in \mathbb{R}
- 输出
Y: (n_h - k_h + 1) \times (n_w - k_w + 1)
Y = W * X + b
二维转置卷积层
- 输入
X: n_h \times n_w
- 核(Kernel)
W: k_h \times K_w
- 偏差
b \in \mathbb{R}
- 输出
Y: (n_h + k_h - 1) \times (n_w + k_w - 1)
Y = W * X + b
可以看出,使用相同的超参数,通过卷积和转置卷积后 ,图像的大小是不变的
同时转置卷积和卷积一样,可以有padding,stride以及多通道输入输出
为什么叫转置卷积
对于卷积Y = X * W
我们可以构造一个矩阵W'
使得Y' = W' * X'
,其中X'
和Y'
分别是X
和Y
的向量版本
而转置卷积则等价于Y' = W'^T * X'
这就是转置卷积名字的由来