論文の概要: Dense-Sparse Deep CNN Training for Image Denoising
- arxiv url: http://arxiv.org/abs/2107.04857v1
- Date: Sat, 10 Jul 2021 15:14:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-14 07:05:43.802025
- Title: Dense-Sparse Deep CNN Training for Image Denoising
- Title(参考訳): Dense-Sparse Deep CNN Training for Image Denoising
- Authors: Basit O. Alawode, Mudassir Masood, Tarig Ballal, and Tareq Al-Naffouri
- Abstract要約: 畳み込みニューラルネットワーク(CNN)のような深層学習(DL)手法は、画像認知領域で注目されている。
ディープ・デノイングCNN(DnCNN)は、多くのフィードフォワード・コンボリューション・レイヤを使用して、バッチ正規化と残差学習の正規化を行い、デノージング性能を大幅に向上させる。
しかし、これは膨大な数のトレーニング可能なパラメータを犠牲にしている。
本稿では,パラメータ数を削減しつつ,同等の性能を実現し,この問題に対処する。
- 参考スコア(独自算出の注目度): 3.4176234391973512
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, deep learning (DL) methods such as convolutional neural networks
(CNNs) have gained prominence in the area of image denoising. This is owing to
their proven ability to surpass state-of-the-art classical image denoising
algorithms such as BM3D. Deep denoising CNNs (DnCNNs) use many feedforward
convolution layers with added regularization methods of batch normalization and
residual learning to improve denoising performance significantly. However, this
comes at the expense of a huge number of trainable parameters. In this paper,
we address this issue by reducing the number of parameters while achieving a
comparable level of performance. We derive motivation from the improved
performance obtained by training networks using the dense-sparse-dense (DSD)
training approach. We extend this training approach to a reduced DnCNN (RDnCNN)
network resulting in a faster denoising network with significantly reduced
parameters and comparable performance to the DnCNN.
- Abstract(参考訳): 近年,畳み込みニューラルネットワーク(cnns)などの深層学習(dl)手法が画像デノイジングの分野で注目されている。
これは、bm3dのような最先端の古典的な画像デノイジングアルゴリズムを超える能力が証明されたためである。
deep denoising cnns (dncnns) は、多くのフィードフォワード畳み込み層を使用し、バッチ正規化と残差学習の正規化法を追加し、デニューズ性能を大幅に改善する。
しかし、これは膨大な数のトレーニング可能なパラメータを犠牲にしている。
本稿では,パラメータ数を削減しつつ,同等の性能を実現することで,この問題に対処した。
本研究では,DSDトレーニング手法を用いて,トレーニングネットワークによって得られる性能向上からモチベーションを導出する。
我々はこのトレーニングアプローチをDnCNN(RDnCNN)ネットワークに拡張し、パラメータが大幅に減少し、DnCNNに匹敵する性能を持つ高速な復調ネットワークを実現する。
関連論文リスト
- Learning Provably Robust Estimators for Inverse Problems via Jittering [51.467236126126366]
簡単な正規化手法であるジッタリングが,逆問題に対する最悪ケース頑健な推定器の学習に有効かどうかを検討する。
ジッタリングは最悪の場合のロバスト性を大幅に向上させるが,デノイング以上の逆問題に最適であることを示す。
論文 参考訳(メタデータ) (2023-07-24T14:19:36Z) - Neural information coding for efficient spike-based image denoising [0.5156484100374058]
本研究では,ガウス聴覚のためのスパイキングニューラルネットワーク(SNN)について検討する。
本稿では,Leaky Integrate and Fire(LIF)ニューロンによる情報変換処理の形式的解析を提案する。
我々は、その性能を古典的なレートコーディング機構と比較する。
その結果, LIFニューロンを用いたSNNは, 計算コストを抑えつつ, 競争性能を向上できることがわかった。
論文 参考訳(メタデータ) (2023-05-15T09:05:32Z) - Multi-stage image denoising with the wavelet transform [125.2251438120701]
深部畳み込みニューラルネットワーク(Deep Convolutional Neural Network, CNN)は、正確な構造情報を自動マイニングすることで、画像の復調に使用される。
動的畳み込みブロック(DCB)、2つのカスケードウェーブレット変換および拡張ブロック(WEB)、残留ブロック(RB)の3段階を経由した、MWDCNNによるCNNの多段階化を提案する。
論文 参考訳(メタデータ) (2022-09-26T03:28:23Z) - Deep Semantic Statistics Matching (D2SM) Denoising Network [70.01091467628068]
本稿では,Deep Semantic Statistics Matching (D2SM) Denoising Networkを紹介する。
事前訓練された分類ネットワークの意味的特徴を利用して、意味的特徴空間における明瞭な画像の確率的分布と暗黙的に一致させる。
識別画像のセマンティックな分布を学習することで,ネットワークの認知能力を大幅に向上させることを実証的に見出した。
論文 参考訳(メタデータ) (2022-07-19T14:35:42Z) - Image denoising by Super Neurons: Why go deep? [31.087153520130112]
合成画像と実世界画像の両方におけるスーパーニューロンの利用について検討する。
以上の結果から,同じ幅と深さで,超ニューロンを持つSelf-ONNsはデノナイジング性能を著しく向上させることが明らかとなった。
論文 参考訳(メタデータ) (2021-11-29T20:52:10Z) - Learning Spatial and Spatio-Temporal Pixel Aggregations for Image and
Video Denoising [104.59305271099967]
ピクセル集計ネットワークを提示し、画像デノイジングのためのピクセルサンプリングと平均戦略を学びます。
時間空間にまたがるサンプル画素をビデオデノナイズするための画素集約ネットワークを開発した。
本手法は,動的シーンにおける大きな動きに起因する誤認問題を解決することができる。
論文 参考訳(メタデータ) (2021-01-26T13:00:46Z) - Exploring ensembles and uncertainty minimization in denoising networks [0.522145960878624]
画素とチャネルに適切な重みを割り当てることに焦点を当てた2つの注意モジュールからなる融合モデルを提案する。
実験の結果,本モデルでは,通常の事前学習型デノナイジングネットワークのベースライン上での性能が向上することが示された。
論文 参考訳(メタデータ) (2021-01-24T20:48:18Z) - Image Denoising using Attention-Residual Convolutional Neural Networks [0.0]
本稿では,学習に基づく新たな非盲検手法であるAttention Residual Convolutional Neural Network (ARCNN)を提案し,その拡張としてFlexible Attention Residual Convolutional Neural Network (FARCNN)を提案する。
ARCNNはガウス語とポアソン語で約0.44dBと0.96dBの平均PSNR結果を達成し、FARCNNはARCNNに比べて若干パフォーマンスが悪くても非常に一貫した結果を示した。
論文 参考訳(メタデータ) (2021-01-19T16:37:57Z) - Progressive Training of Multi-level Wavelet Residual Networks for Image
Denoising [80.10533234415237]
本稿では,マルチレベルウェーブレット残差ネットワーク(MWRN)アーキテクチャと,画像復調性能向上のためのプログレッシブトレーニング手法を提案する。
人工ノイズ画像と実世界のノイズ画像の両方で実験したところ、PT-MWRNは最先端のノイズ評価法に対して良好に機能することがわかった。
論文 参考訳(メタデータ) (2020-10-23T14:14:00Z) - Variational Denoising Network: Toward Blind Noise Modeling and Removal [59.36166491196973]
ブラインド画像のデノイングはコンピュータビジョンにおいて重要な問題であるが、非常に難しい問題である。
本稿では,ノイズ推定と画像デノーミングを併用した新しい変分推論手法を提案する。
論文 参考訳(メタデータ) (2019-08-29T15:54:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。