转置卷积Transpose Convolution

通常来说,卷积层通常会减少输入图像的空间维度,这就导致在进行语义分割任务时非常困难。为了解决这一点,我们可以使用另外一种类型的卷积神经网络,它可以增加采样中间特征层的空间维度 -- 转置卷积

转置卷积

file

我们来对比一下

二维卷积层

  • 输入X: n_h \times n_w
  • 核(Kernel) W: k_h \times K_w
  • 偏差b \in \mathbb{R}
  • 输出Y: (n_h - k_h + 1) \times (n_w - k_w + 1)
    Y = W * X + b

二维转置卷积层

  • 输入X: n_h \times n_w
  • 核(Kernel) W: k_h \times K_w
  • 偏差b \in \mathbb{R}
  • 输出Y: (n_h + k_h - 1) \times (n_w + k_w - 1)
    Y = W * X + b

可以看出,使用相同的超参数,通过卷积和转置卷积后 ,图像的大小是不变的

同时转置卷积和卷积一样,可以有padding,stride以及多通道输入输出

为什么叫转置卷积

对于卷积Y = X * W我们可以构造一个矩阵W'使得Y' = W' * X',其中X'Y'分别是XY的向量版本

而转置卷积则等价于Y' = W'^T * X'

这就是转置卷积名字的由来

暂无评论

发送评论 编辑评论


				
|´・ω・)ノ
ヾ(≧∇≦*)ゝ
(☆ω☆)
(╯‵□′)╯︵┴─┴
 ̄﹃ ̄
(/ω\)
∠( ᐛ 」∠)_
(๑•̀ㅁ•́ฅ)
→_→
୧(๑•̀⌄•́๑)૭
٩(ˊᗜˋ*)و
(ノ°ο°)ノ
(´இ皿இ`)
⌇●﹏●⌇
(ฅ´ω`ฅ)
(╯°A°)╯︵○○○
φ( ̄∇ ̄o)
ヾ(´・ ・`。)ノ"
( ง ᵒ̌皿ᵒ̌)ง⁼³₌₃
(ó﹏ò。)
Σ(っ °Д °;)っ
( ,,´・ω・)ノ"(´っω・`。)
╮(╯▽╰)╭
o(*////▽////*)q
>﹏<
( ๑´•ω•) "(ㆆᴗㆆ)
😂
😀
😅
😊
🙂
🙃
😌
😍
😘
😜
😝
😏
😒
🙄
😳
😡
😔
😫
😱
😭
💩
👻
🙌
🖕
👍
👫
👬
👭
🌚
🌝
🙈
💊
😶
🙏
🍦
🍉
😣
Source: github.com/k4yt3x/flowerhd
颜文字
Emoji
小恐龙
花!
上一篇
下一篇