論文の概要: Image Superresolution using Scale-Recurrent Dense Network
- arxiv url: http://arxiv.org/abs/2201.11998v1
- Date: Fri, 28 Jan 2022 09:18:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-31 23:36:29.185774
- Title: Image Superresolution using Scale-Recurrent Dense Network
- Title(参考訳): スケールリカレントDense Networkを用いた画像超解像
- Authors: Kuldeep Purohit, Srimanta Mandal, A. N. Rajagopalan
- Abstract要約: 畳み込みニューラルネットワーク(CNN)の設計の最近の進歩は、画像超解像(SR)の性能を大幅に向上させた。
残差ブロック内の一連の密接な接続を含む単位上に構築されたスケールリカレントSRアーキテクチャを提案する(Residual Dense Blocks (RDBs))。
我々のスケールリカレント設計は、現在の最先端のアプローチに比べてパラメトリックに効率的でありながら、より高いスケール要因の競合性能を提供する。
- 参考スコア(独自算出の注目度): 30.75380029218373
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Recent advances in the design of convolutional neural network (CNN) have
yielded significant improvements in the performance of image super-resolution
(SR). The boost in performance can be attributed to the presence of residual or
dense connections within the intermediate layers of these networks. The
efficient combination of such connections can reduce the number of parameters
drastically while maintaining the restoration quality. In this paper, we
propose a scale recurrent SR architecture built upon units containing series of
dense connections within a residual block (Residual Dense Blocks (RDBs)) that
allow extraction of abundant local features from the image. Our scale recurrent
design delivers competitive performance for higher scale factors while being
parametrically more efficient as compared to current state-of-the-art
approaches. To further improve the performance of our network, we employ
multiple residual connections in intermediate layers (referred to as
Multi-Residual Dense Blocks), which improves gradient propagation in existing
layers. Recent works have discovered that conventional loss functions can guide
a network to produce results which have high PSNRs but are perceptually
inferior. We mitigate this issue by utilizing a Generative Adversarial Network
(GAN) based framework and deep feature (VGG) losses to train our network. We
experimentally demonstrate that different weighted combinations of the VGG loss
and the adversarial loss enable our network outputs to traverse along the
perception-distortion curve. The proposed networks perform favorably against
existing methods, both perceptually and objectively (PSNR-based) with fewer
parameters.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)の設計の最近の進歩は、画像超解像(SR)の性能に大きな改善をもたらした。
性能の向上は、これらのネットワークの中間層に残留または密接な接続が存在することに起因する。
このような接続の効率的な組み合わせは、修復品質を維持しながらパラメータの数を劇的に削減することができる。
本稿では,残差ブロック (residual dense blocks (rdbs)) 内の一連の高密度接続を含むユニット上に,画像から豊富な局所的特徴を抽出するためのスケールリカレントsrアーキテクチャを提案する。
我々のスケールリカレント設計は、現在の最先端のアプローチに比べてパラメトリックに効率的でありながら、より高いスケール要因の競合性能を提供する。
ネットワークの性能をさらに向上するため,中間層では複数の残差接続(Multi-Residual Dense Blocks)を採用し,既存の層では勾配伝搬を改善する。
最近の研究で、従来の損失関数は、高いPSNRを持つが知覚的に劣る結果を生み出すためにネットワークを導くことができることがわかった。
我々はGAN(Generative Adversarial Network)ベースのフレームワークとVGG(Deep Feature)の損失を利用してネットワークをトレーニングすることでこの問題を軽減する。
実験により,VGG損失と対向損失の重み付けの組み合わせの違いが,ネットワーク出力を知覚歪曲線に沿って横切ることを実証した。
提案したネットワークは,より少ないパラメータで知覚的かつ客観的に(PSNRベース)既存の手法に対して良好に動作する。
関連論文リスト
- Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - RDRN: Recursively Defined Residual Network for Image Super-Resolution [58.64907136562178]
深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像において顕著な性能を得た。
本稿では,注目ブロックを効率的に活用する新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-17T11:06:29Z) - Deep Networks for Image and Video Super-Resolution [30.75380029218373]
単一画像超解像(SISR)は、MDCB(Mixed-Dense connection block)と呼ばれる効率的な畳み込みユニットを用いて構築される。
ネットワークの2つのバージョンをトレーニングし、異なる損失構成を用いて相補的な画像品質を向上させる。
ネットワークは複数のフレームから情報を集約し,時間的整合性を維持するために学習する。
論文 参考訳(メタデータ) (2022-01-28T09:15:21Z) - DDCNet: Deep Dilated Convolutional Neural Network for Dense Prediction [0.0]
受容場(ERF)とネットワーク内の空間的特徴の高分解能は、高分解能密度推定を提供することに不可欠である。
空間的特徴の解像度を高く保ちながら、より大きな受容場を提供できるネットワークアーキテクチャを設計するための体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-07-09T23:15:34Z) - Asymmetric CNN for image super-resolution [102.96131810686231]
深層畳み込みニューラルネットワーク(CNN)は、過去5年間で低レベルビジョンに広く適用されています。
画像超解像のための非対称ブロック(AB)、mem?ory拡張ブロック(MEB)、高周波数特徴強調ブロック(HFFEB)からなる非対称CNN(ACNet)を提案する。
我々のACNetは、ブラインドノイズの単一画像超解像(SISR)、ブラインドSISR、ブラインドSISRを効果的に処理できる。
論文 参考訳(メタデータ) (2021-03-25T07:10:46Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z) - Iterative Network for Image Super-Resolution [69.07361550998318]
単一画像超解像(SISR)は、最近の畳み込みニューラルネットワーク(CNN)の発展により、大幅に活性化されている。
本稿では、従来のSISRアルゴリズムに関する新たな知見を提供し、反復最適化に依存するアプローチを提案する。
反復最適化の上に,新しい反復型超解像ネットワーク (ISRN) を提案する。
論文 参考訳(メタデータ) (2020-05-20T11:11:47Z) - Deep Adaptive Inference Networks for Single Image Super-Resolution [72.7304455761067]
シングルイメージ超解像(SISR)は、ディープ畳み込みニューラルネットワーク(CNN)の展開により、近年大きく進歩している。
本稿では,深部SISR(AdaDSR)の適応型推論ネットワークを活用することで,この問題に対処する。
我々のAdaDSRは、SISRモデルをバックボーンとし、画像の特徴とリソース制約を入力として取り、ローカルネットワーク深さのマップを予測する軽量アダプタモジュールを備える。
論文 参考訳(メタデータ) (2020-04-08T10:08:20Z) - Multi-wavelet residual dense convolutional neural network for image
denoising [2.500475462213752]
画像復号化タスクにおけるネットワークの性能と頑健性を改善するために, 短期的残差学習法を用いる。
ここでは、バックボーンとしてマルチウェーブレット畳み込みニューラルネットワーク(MWCNN)を選択し、各層に残留密度ブロック(RDB)を挿入する。
他のRDBベースのネットワークと比較して、隣接する層からオブジェクトのより多くの特徴を抽出し、大きなRFを保存し、計算効率を高めることができる。
論文 参考訳(メタデータ) (2020-02-19T17:21:37Z) - Mixed-Precision Quantized Neural Network with Progressively Decreasing
Bitwidth For Image Classification and Object Detection [21.48875255723581]
ビット幅が徐々に増大する混合精度量子化ニューラルネットワークを提案し,精度と圧縮のトレードオフを改善する。
典型的なネットワークアーキテクチャとベンチマークデータセットの実験は、提案手法がより良い結果または同等の結果が得られることを示した。
論文 参考訳(メタデータ) (2019-12-29T14:11:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。