功能描述:
基于深度卷积神经网络(DCNN)的图像去噪方法。通过从污染图像中分离噪声图像可以实现潜在清晰图像。在训练阶段,采用梯度裁剪方案来防止梯度爆炸,并使网络能够快速收敛。实验结果表明,与现有技术的去噪方法相比,所提出的去噪方法可以实现更好的性能。同时,结果表明,去噪方法具有通过一个单一的去噪模型抑制不同噪声水平的不同噪声的能力。
设计的网络结构如图1所示。一个大小为43×43的污染图像被输入到设计的DCNN中,相应的输出是预测的噪声图像,输出的尺寸是43×43。深度的本文设计的网络设置为10。在设计的DCNN中有几个卷积层,但没有池化层。在每个卷积层中,有64个5×5卷积核。
众所周知,增加感受域的大小可以利用更大图像区域中的上下文信息[21]。在这里,感受野在CNN中在空间上是连续的。CNN通过强化相邻层神经元之间的局部连通性模式来利用空间局部相关性[36]。换句话说,第m层中的卷积层的输入是第(m-1)层中卷积层的子集的输出。因此,形成了空间上连续的感受野。然而,每个卷积层对于输入之外的感受域之外的变化没有响应,这确保学习的卷积核对空间局部输入模式产生最强响应。然而,我们可以堆叠许多这样的层以使卷积核变得越来越全球化(即,响应于更大的像素空间区域)。换一种说法,随着网络深度的增加,感受野的大小增加。假设我们对所有图层使用n×n相同大小的卷积核。对于第一层,接受场的大小是n×n。对于第二层,大小感受野在高度和宽度上增加(n-1)等等。因此,如果设计的DCNN的深度是d,其感受野是[(n-1)d + 1]×[(n-1)d + 1]。
由于实验平台的局限性,设计的DCNN的深度d被设置为10.似乎卷积核的尺寸越大,设计的DCNN的接收场的尺寸越大,其中固定深度是并且设计的DCNN实现更好的性能。但值得一提的是,所有卷积操作都不使用零填充来避免训练期间的边界效应。在测试阶段,所有的卷积层都有足够的零填充。因此,过零填充会导致严重失真。而且,尺寸较大的卷积核与较小尺寸的卷积核相比,会导致较大的计算负担[26]。因此,卷积核的适当大小有助于设计的DCNN。在这里,我们将卷积核的大小设置为5×5。如上面的段落所示,接受但为了确保网络在训练过程中具有良好的灵活性,我们选择了尺寸为43×43的输入图像。我们还进行了一个实验来验证输入训练与那些尺寸为43×43的图像相比,可以实现良好的性能其他尺寸。详情请参阅第3.4节。

每个卷积层上的更多卷积核可以获得更多的特征映射,这表明可以表示输入图像的更多潜在特征。然而,超过一定水平的特征映射太多会使训练过程在数值上不稳定。64个卷积核通常用于大多数DCNN 。所以,我们在每个卷积层也使用64个卷积核。
联系:highspeedlogic
QQ :1224848052
微信:HuangL1121
邮箱:1224848052@qq.com
网站:http://www.mat7lab.com/
网站:http://www.hslogic.com/
微信扫一扫:
|