論文の概要: Progressive Training of Multi-level Wavelet Residual Networks for Image
Denoising
- arxiv url: http://arxiv.org/abs/2010.12422v1
- Date: Fri, 23 Oct 2020 14:14:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 23:55:34.976891
- Title: Progressive Training of Multi-level Wavelet Residual Networks for Image
Denoising
- Title(参考訳): 画像復調のためのマルチレベルウェーブレット残差ネットワークのプログレッシブトレーニング
- Authors: Yali Peng, Yue Cao, Shigang Liu, Jian Yang, and Wangmeng Zuo
- Abstract要約: 本稿では,マルチレベルウェーブレット残差ネットワーク(MWRN)アーキテクチャと,画像復調性能向上のためのプログレッシブトレーニング手法を提案する。
人工ノイズ画像と実世界のノイズ画像の両方で実験したところ、PT-MWRNは最先端のノイズ評価法に対して良好に機能することがわかった。
- 参考スコア(独自算出の注目度): 80.10533234415237
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have witnessed the great success of deep convolutional neural
networks (CNNs) in image denoising. Albeit deeper network and larger model
capacity generally benefit performance, it remains a challenging practical
issue to train a very deep image denoising network. Using multilevel
wavelet-CNN (MWCNN) as an example, we empirically find that the denoising
performance cannot be significantly improved by either increasing wavelet
decomposition levels or increasing convolution layers within each level. To
cope with this issue, this paper presents a multi-level wavelet residual
network (MWRN) architecture as well as a progressive training (PTMWRN) scheme
to improve image denoising performance. In contrast to MWCNN, our MWRN
introduces several residual blocks after each level of discrete wavelet
transform (DWT) and before inverse discrete wavelet transform (IDWT). For
easing the training difficulty, scale-specific loss is applied to each level of
MWRN by requiring the intermediate output to approximate the corresponding
wavelet subbands of ground-truth clean image. To ensure the effectiveness of
scale-specific loss, we also take the wavelet subbands of noisy image as the
input to each scale of the encoder. Furthermore, progressive training scheme is
adopted for better learning of MWRN by beigining with training the lowest level
of MWRN and progressively training the upper levels to bring more fine details
to denoising results. Experiments on both synthetic and real-world noisy images
show that our PT-MWRN performs favorably against the state-of-the-art denoising
methods in terms both quantitative metrics and visual quality.
- Abstract(参考訳): 近年、画像復調における深層畳み込みニューラルネットワーク(CNN)の大きな成功を目撃している。
深いネットワークとより大きなモデルキャパシティは、一般的にパフォーマンスにメリットがありますが、非常に深い画像のデノジングネットワークをトレーニングすることは、依然として難しい課題です。
マルチレベルwavelet-cnn (mwcnn) を例にとると,ウェーブレット分解レベルの増加や畳み込み層の増加により,ノイズ除去性能が著しく改善できないことがわかった。
本稿では,マルチレベルウェーブレット残差ネットワーク(MWRN)アーキテクチャと,画像復調性能向上のためのプログレッシブトレーニング(PTMWRN)スキームを提案する。
MWCNNとは対照的に、MWRNは離散ウェーブレット変換(DWT)と逆離散ウェーブレット変換(IDWT)の各レベルの後、いくつかの残留ブロックを導入する。
訓練難易度を緩和するために、中間出力を必要とし、対応する地中清浄画像のウェーブレットサブバンドを近似することにより、mwrnの各レベルにスケール特異的な損失を適用する。
スケール特異的損失の有効性を確保するため、ノイズ画像のウェーブレットサブバンドをエンコーダの各スケールへの入力として用いる。
さらに, MWRNの下位レベルを訓練し, 上位レベルを段階的に訓練することで, MWRNの学習性を向上させるためのプログレッシブトレーニング手法が採用されている。
合成画像と実世界のノイズ画像の両方で実験した結果,pt-mwrnは定量的指標と視覚品質の両面で最先端のノイズ除去法に好適な効果を示した。
関連論文リスト
- DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - Enhancing convolutional neural network generalizability via low-rank weight approximation [6.763245393373041]
十分なノイズ処理は、画像処理にとって重要な第一歩であることが多い。
ディープニューラルネットワーク(DNN)は画像のノイズ化に広く利用されている。
本研究では,タッカー低ランクテンソル近似に基づく自己教師付き画像復調フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-26T14:11:05Z) - Multi-stage image denoising with the wavelet transform [125.2251438120701]
深部畳み込みニューラルネットワーク(Deep Convolutional Neural Network, CNN)は、正確な構造情報を自動マイニングすることで、画像の復調に使用される。
動的畳み込みブロック(DCB)、2つのカスケードウェーブレット変換および拡張ブロック(WEB)、残留ブロック(RB)の3段階を経由した、MWDCNNによるCNNの多段階化を提案する。
論文 参考訳(メタデータ) (2022-09-26T03:28:23Z) - Exploring Inter-frequency Guidance of Image for Lightweight Gaussian
Denoising [1.52292571922932]
本稿では,周波数帯域を低域から高域に漸進的に洗練するために,IGNetと呼ばれる新しいネットワークアーキテクチャを提案する。
この設計では、より周波数間先行と情報を利用するため、モデルサイズは軽量化でき、競争結果も維持できる。
論文 参考訳(メタデータ) (2021-12-22T10:35:53Z) - Dense-Sparse Deep Convolutional Neural Networks Training for Image Denoising [0.6215404942415159]
畳み込みニューラルネットワークのような深層学習手法は、画像認知の領域で注目されている。
ディープラーニング畳み込み畳み込みニューラルネットワークは、バッチ正規化と残留学習の正規化メソッドを追加して、多くのフィードフォワード畳み込み層を使用して、トレーニングを高速化し、denoisingパフォーマンスを大幅に改善する。
本稿では,高密度スパース・デンス・ネットワークのトレーニング手法を深層化畳み込みニューラルネットワークに適用することにより,学習可能なパラメータを著しく削減できることを示す。
論文 参考訳(メタデータ) (2021-07-10T15:14:19Z) - Learning a Model-Driven Variational Network for Deformable Image
Registration [89.9830129923847]
VR-Netは、教師なしの変形可能な画像登録のための新しいカスケード可変ネットワークである。
登録精度において最先端のディープラーニング手法よりも優れています。
ディープラーニングの高速推論速度と変分モデルのデータ効率を維持している。
論文 参考訳(メタデータ) (2021-05-25T21:37:37Z) - Image Denoising using Attention-Residual Convolutional Neural Networks [0.0]
本稿では,学習に基づく新たな非盲検手法であるAttention Residual Convolutional Neural Network (ARCNN)を提案し,その拡張としてFlexible Attention Residual Convolutional Neural Network (FARCNN)を提案する。
ARCNNはガウス語とポアソン語で約0.44dBと0.96dBの平均PSNR結果を達成し、FARCNNはARCNNに比べて若干パフォーマンスが悪くても非常に一貫した結果を示した。
論文 参考訳(メタデータ) (2021-01-19T16:37:57Z) - Wavelet Integrated CNNs for Noise-Robust Image Classification [51.18193090255933]
我々は、離散ウェーブレット変換(DWT)により、最大プール、ストライド畳み込み、平均プールを置き換えることでCNNを強化する。
VGG、ResNets、DenseNetのウェーブレット統合バージョンであるWaveCNetsは、バニラバージョンよりも精度が高く、ノイズ・ロバスト性も向上している。
論文 参考訳(メタデータ) (2020-05-07T09:10:41Z) - Variational Denoising Network: Toward Blind Noise Modeling and Removal [59.36166491196973]
ブラインド画像のデノイングはコンピュータビジョンにおいて重要な問題であるが、非常に難しい問題である。
本稿では,ノイズ推定と画像デノーミングを併用した新しい変分推論手法を提案する。
論文 参考訳(メタデータ) (2019-08-29T15:54:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。