Chrome Extension
WeChat Mini Program
Use on ChatGLM

混合双注意力机制生成对抗网络的图像修复模型

Lan Zhi,Yan Caiping, Li Hong, Zheng Yadan

Journal of Image and Graphics(2023)

Cited 0|Views1
No score
Abstract
目的 图像修复是指用合理的内容来填补图像缺失或损坏的部分.尽管生成对抗网络(generative adver-sarial network,GAN)取得了巨大的进步,但当缺失区域很大时,现有的大多数方法仍然会产生扭曲的结构和模糊的纹理.其中一个主要原因是卷积操作的局域性,它不考虑全局或远距离结构信息,只是扩大了局部感受野.方法 为了克服上述问题,提出了一种新的图像修复网络,即混合注意力生成对抗网络(hybrid dual attention generative adversarial network,HDA-GAN),它可以同时捕获全局结构信息和局部细节纹理.具体地,HDA-GAN将两种级联的通道注意力传播模块和级联的自注意力传播模块集成到网络的不同层中.对于级联的通道注意力传播模块,将多个多尺度通道注意力块级联在网络的高层,用于学习从低级细节到高级语义的特征.对于级联的自注意力传播模块,将多个基于分块的自注意力块级联在网络的中低层,以便在保留更多的细节的同时捕获远程依赖关系.级联模块将多个相同的注意力块堆叠成不同的层,能够增强局部纹理传播到全局结构.结果 本文采用客观评价指标:均方差(mean squared error,MSE)、峰值信噪比(peak signal-to-noise ratio,PSNR)和结构相似性指数(structural similarity index,SSIM)在Paris Street View数据集和CelebA-HQ(CelebA-high quality)数据集上进行了大量实验.定量比较中,HDA-GAN在Paris Street View数据集上相比于Edge-LBAM(edge-guided learnable bidirectional attention maps)方法,在掩码不同的比例上,PSNR 提升了1.28 dB、1.13dB、0.93 dB 和 0.80 dB,SSIM 分别提升了5.2%、8.2%、10.6%和13.1%.同样地,在 CelebA-HQ 数据集上相比于 AOT-GAN(aggregated contextual transformations generative adversarial network)方法,在掩码不同的比例上,MAE分别降低了2.2%、5.4%、11.1%、18.5%和28.1%,PSNR分别提升了0.93dB、0.68dB、0.73dB、0.84dB和0.74dB.通过可视化实验可以明显观察到修复效果优于以上方法.结论 本文提出的图像修复方法,充分发挥了深度学习模型进行特征学习和图像生成的优点,使得修复图像缺失或损坏的部分更加准确.
More
Key words
image inpainting,generative adversarial network(GAN),cascaded channel attention propagation module,cascaded self-attention propagation module,large area inpainting
AI Read Science
Must-Reading Tree
Example
Generate MRT to find the research sequence of this paper
Chat Paper
Summary is being generated by the instructions you defined