- 深度学习需要大量的样本
- 样本不平衡问题
如图所示,网络包含下采样和上采样两部分(文中为收缩和扩张模块)
采用两个不进行填充的$3\times3$卷积,跟着一个$Relu$激活函数,然后$2\times2$的池化层用于下采样,同样每下采样一次扩大一倍特征层数
上采样之后跟一个$2\times2$的卷积用于减少特征层数,然后和下采样的特征融合,但是并不是直接融合(因为尺寸不对应)而是对下采样特征进行了剪裁,最后同样使用两个不进行填充的$3\times3$的卷积,同样跟着一个$Relu$激活函数,不同的是这次是把特征减少一半
The cropping is necessary due to the loss of border pixels in every convolution.
不是很理解这个操作,剪裁了不是丢失更多么?
最后使用$1\times1$卷积输出特征图。文中没有说明上采样用的啥方法....
使用$softmax$和交叉熵损失结合
$$
p_{k}(\mathrm{x})=\exp \left(a_{k}(\mathrm{x})\right) /\left(\sum_{k^{\prime}=1}^{K} \exp \left(a_{k^{\prime}}(\mathrm{x})\right)\right)\
E=\sum_{\mathbf{x} \in \Omega} w(\mathbf{x}) \log \left(p_{\ell(\mathbf{x})}(\mathbf{x})\right)
$$
- 这篇论文是用于医学图像的,实验部分也看不懂,后面的损失函数也是看的有点懵逼,主要还是这个网络的结构设计
- 低层信息和高层信息融合好像就是从这里开始的吧
- 文中由于数据缺少,对数据做了增强
- 文中不用填充卷积保持卷积尺寸一致呀?
- 文中在特征融合的时候进行特征剪裁,一是为了尺寸对应,但文中说的主要原因却不是这个