論文の概要: Revisiting RCAN: Improved Training for Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2201.11279v1
- Date: Thu, 27 Jan 2022 02:20:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-29 01:08:36.391261
- Title: Revisiting RCAN: Improved Training for Image Super-Resolution
- Title(参考訳): RCAN再考:画像超解法のトレーニングの改善
- Authors: Zudi Lin, Prateek Garg, Atmadeep Banerjee, Salma Abdel Magid, Deqing
Sun, Yulun Zhang, Luc Van Gool, Donglai Wei, Hanspeter Pfister
- Abstract要約: 一般的なRCANモデルを再検討し、SRにおける異なるトレーニングオプションの効果について検討する。
RCAN は CNN をベースとした SR アーキテクチャのほぼすべてにおいて,標準ベンチマークで RCAN 以降のアーキテクチャよりも優れるか,あるいは適合することを示す。
- 参考スコア(独自算出の注目度): 94.8765153437517
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image super-resolution (SR) is a fast-moving field with novel architectures
attracting the spotlight. However, most SR models were optimized with dated
training strategies. In this work, we revisit the popular RCAN model and
examine the effect of different training options in SR. Surprisingly (or
perhaps as expected), we show that RCAN can outperform or match nearly all the
CNN-based SR architectures published after RCAN on standard benchmarks with a
proper training strategy and minimal architecture change. Besides, although
RCAN is a very large SR architecture with more than four hundred convolutional
layers, we draw a notable conclusion that underfitting is still the main
problem restricting the model capability instead of overfitting. We observe
supportive evidence that increasing training iterations clearly improves the
model performance while applying regularization techniques generally degrades
the predictions. We denote our simply revised RCAN as RCAN-it and recommend
practitioners to use it as baselines for future research. Code is publicly
available at https://github.com/zudi-lin/rcan-it.
- Abstract(参考訳): 画像超解像(SR)は、スポットライトを惹きつける新しいアーキテクチャを持つ高速移動場である。
しかし、ほとんどのsrモデルは古い訓練戦略で最適化された。
本研究では,一般的なRCANモデルを再検討し,SRにおける異なるトレーニングオプションの効果を検討する。
驚いたことに(あるいは予想どおりに)、RCANは、RCANが標準ベンチマークで公表したCNNベースのSRアーキテクチャを、適切なトレーニング戦略と最小限のアーキテクチャ変更で上回ったり、ほぼ一致させることができることを示す。
さらに、RCANは400以上の畳み込み層を持つ非常に大きなSRアーキテクチャであるが、過度に適合するのではなくモデル能力を制限する主な問題である、という注目すべき結論を導いている。
トレーニングイテレーションの増加がモデル性能を向上する一方で、正規化手法を適用した場合、一般的に予測を劣化させるという支持的な証拠を観察する。
簡単な修正RCANをRCAN-itと表現し,今後の研究のベースラインとして活用することを推奨する。
コードはhttps://github.com/zudi-lin/rcan-itで公開されている。
関連論文リスト
- Enhanced Super-Resolution Training via Mimicked Alignment for Real-World Scenes [51.92255321684027]
トレーニング中、LR入力とHR画像の整列により、誤調整問題を緩和する新しいプラグアンドプレイモジュールを提案する。
具体的には,従来のLR試料の特徴を保ちながらHRと整合する新しいLR試料を模倣する。
本手法を合成および実世界のデータセット上で総合的に評価し,SRモデルのスペクトル間での有効性を実証した。
論文 参考訳(メタデータ) (2024-10-07T18:18:54Z) - Robust Capped lp-Norm Support Vector Ordinal Regression [85.84718111830752]
正規回帰は、ラベルが固有の順序を示す特殊な教師付き問題である。
卓越した順序回帰モデルとしてのベクトル順序回帰は、多くの順序回帰タスクで広く使われている。
我々は,新たなモデルであるCapped $ell_p$-Norm Support Vector Ordinal Regression (CSVOR)を導入する。
論文 参考訳(メタデータ) (2024-04-25T13:56:05Z) - Low-Res Leads the Way: Improving Generalization for Super-Resolution by
Self-Supervised Learning [45.13580581290495]
本研究は,SRモデルの現実の画像への適応性を高めるために,新しい"Low-Res Leads the Way"(LWay)トレーニングフレームワークを導入する。
提案手法では,低分解能(LR)再構成ネットワークを用いて,LR画像から劣化埋め込みを抽出し,LR再構成のための超解出力とマージする。
私たちのトレーニング体制は普遍的に互換性があり、ネットワークアーキテクチャの変更は不要です。
論文 参考訳(メタデータ) (2024-03-05T02:29:18Z) - Efficient Test-Time Adaptation for Super-Resolution with Second-Order
Degradation and Reconstruction [62.955327005837475]
画像超解像(SR)は,低分解能(LR)から高分解能(HR)へのマッピングを,一対のHR-LRトレーニング画像を用いて学習することを目的としている。
SRTTAと呼ばれるSRの効率的なテスト時間適応フレームワークを提案し、SRモデルを異なる/未知の劣化型でテストドメインに迅速に適応させることができる。
論文 参考訳(メタデータ) (2023-10-29T13:58:57Z) - In defense of parameter sharing for model-compression [38.80110838121722]
ランダム化パラメータ共有(RPS)法は、トレーニング開始時にモデル圧縮の牽引力を得た。
RPSは、より小さなモデルと、中程度に情報を得たプルーニング戦略を一貫して上回っている。
本稿では, RPS モデルへのパラダイムシフトを論じる。
論文 参考訳(メタデータ) (2023-10-17T22:08:01Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - A High-Performance Accelerator for Super-Resolution Processing on
Embedded GPU [24.084304913250826]
組み込みデバイス上でのフルスタックSRアクセラレーションフレームワークを実装した。
ディープ辞書学習ベースのSRモデルにおける通信と計算のボトルネックは、完全に取り組まれている。
論文 参考訳(メタデータ) (2023-03-16T00:09:09Z) - RepSR: Training Efficient VGG-style Super-Resolution Networks with
Structural Re-Parameterization and Batch Normalization [30.927648867624498]
本稿では,構造的再パラメータ化手法を用いて,効率的なVGG型超解像(SR)ネットワークのトレーニングについて検討する。
バッチ正規化(BN)は、トレーニングの非線形性をもたらし、最終的なパフォーマンスを改善するために重要である。
特に、我々はまず、通常通りミニバッチ統計を用いたSRネットワークを訓練し、その後、人口統計を使用するように切り替える。
論文 参考訳(メタデータ) (2022-05-11T17:55:49Z) - LAPAR: Linearly-Assembled Pixel-Adaptive Regression Network for Single
Image Super-Resolution and Beyond [75.37541439447314]
単一画像超解像(SISR)は、低解像度(LR)画像を高解像度(HR)バージョンにアップサンプリングする根本的な問題を扱う。
本稿では,線形組立画素適応回帰ネットワーク (LAPAR) を提案する。
論文 参考訳(メタデータ) (2021-05-21T15:47:18Z) - Neural Network-based Reconstruction in Compressed Sensing MRI Without
Fully-sampled Training Data [17.415937218905125]
CS-MRIは、アンダーサンプリングされたMR画像の再構成を約束している。
ニューラルネットワークで繰り返しをアンロールすることで、古典的なテクニックの反復性をモデル化するディープラーニングモデルが開発されている。
本稿では,古典的最適化方式で広く用いられている損失関数を応用して,非学習型再構成ネットワークを教師なしで訓練するための新しい戦略について検討する。
論文 参考訳(メタデータ) (2020-07-29T17:46:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。