論文の概要: Residual Local Feature Network for Efficient Super-Resolution
- arxiv url: http://arxiv.org/abs/2205.07514v1
- Date: Mon, 16 May 2022 08:46:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-17 16:57:15.827226
- Title: Residual Local Feature Network for Efficient Super-Resolution
- Title(参考訳): 超解像能率のための残留局所特徴ネットワーク
- Authors: Fangyuan Kong, Mingxi Li, Songwei Liu, Ding Liu, Jingwen He, Yang Bai,
Fangmin Chen, Lean Fu
- Abstract要約: 本研究では,Residual Local Feature Network (RLFN)を提案する。
主なアイデアは、3つの畳み込みレイヤを局所的な特徴学習に使用して、機能の集約を単純化することだ。
さらに,NTIRE 2022の高効率超解像問題において,第1位を獲得した。
- 参考スコア(独自算出の注目度): 20.62809970985125
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning based approaches has achieved great performance in single image
super-resolution (SISR). However, recent advances in efficient super-resolution
focus on reducing the number of parameters and FLOPs, and they aggregate more
powerful features by improving feature utilization through complex layer
connection strategies. These structures may not be necessary to achieve higher
running speed, which makes them difficult to be deployed to
resource-constrained devices. In this work, we propose a novel Residual Local
Feature Network (RLFN). The main idea is using three convolutional layers for
residual local feature learning to simplify feature aggregation, which achieves
a good trade-off between model performance and inference time. Moreover, we
revisit the popular contrastive loss and observe that the selection of
intermediate features of its feature extractor has great influence on the
performance. Besides, we propose a novel multi-stage warm-start training
strategy. In each stage, the pre-trained weights from previous stages are
utilized to improve the model performance. Combined with the improved
contrastive loss and training strategy, the proposed RLFN outperforms all the
state-of-the-art efficient image SR models in terms of runtime while
maintaining both PSNR and SSIM for SR. In addition, we won the first place in
the runtime track of the NTIRE 2022 efficient super-resolution challenge. Code
will be available at https://github.com/fyan111/RLFN.
- Abstract(参考訳): ディープラーニングに基づくアプローチは、シングルイメージ超解像(SISR)において大きなパフォーマンスを実現している。
しかし,近年の高解像度化ではパラメータやFLOPの削減に焦点が当てられ,複雑な層接続戦略による機能利用の改善により,より強力な特徴を集約している。
これらの構造は、より高速な実行を実現するために必要とされないため、リソース制約のあるデバイスにデプロイすることは困難である。
本研究では,Residual Local Feature Network (RLFN)を提案する。
主なアイデアは、3つの畳み込みレイヤを局所的な特徴学習に使い、特徴集約を単純化し、モデルの性能と推論時間の間に良いトレードオフをもたらす。
さらに,一般的なコントラスト損失を再検討し,特徴抽出器の中間的特徴の選択が性能に多大な影響を与えていることを確認する。
さらに,新しい多段階ウォームスタートトレーニング戦略を提案する。
各段において、前段からの事前訓練重量を利用してモデル性能を向上させる。
改良されたコントラスト損失とトレーニング戦略と組み合わせて、提案したRLFNは、PSNRとSSIMの両方をSR用に維持しつつ、実行時にすべての最先端の効率的な画像SRモデルより優れている。
さらに、ntire 2022の効率的なスーパーレゾリューションチャレンジのランタイムトラックで1位を獲得しました。
コードはhttps://github.com/fyan111/rlfnで入手できる。
関連論文リスト
- HASN: Hybrid Attention Separable Network for Efficient Image Super-resolution [5.110892180215454]
単一画像の超高解像度化のための軽量な手法は、限られたハードウェアリソースのために優れた性能を達成した。
その結果, 各ブロックの残差接続により, モデルストレージと計算コストが増大することが判明した。
我々は,基本的特徴抽出モジュールとして,奥行き分離可能な畳み込み,完全連結層,アクティベーション関数を用いる。
論文 参考訳(メタデータ) (2024-10-13T14:00:21Z) - LeRF: Learning Resampling Function for Adaptive and Efficient Image Interpolation [64.34935748707673]
最近のディープニューラルネットワーク(DNN)は、学習データ前処理を導入することで、パフォーマンスを著しく向上させた。
本稿では,DNNが学習した構造的前提と局所的連続仮定の両方を活かした学習再サンプリング(Learning Resampling, LeRF)を提案する。
LeRFは空間的に異なる再サンプリング関数を入力画像ピクセルに割り当て、ニューラルネットワークを用いてこれらの再サンプリング関数の形状を予測する。
論文 参考訳(メタデータ) (2024-07-13T16:09:45Z) - Transforming Image Super-Resolution: A ConvFormer-based Efficient Approach [58.57026686186709]
本稿では, Convolutional Transformer Layer (ConvFormer) を導入し, ConvFormer-based Super-Resolution Network (CFSR) を提案する。
CFSRは畳み込みベースのアプローチとトランスフォーマーベースのアプローチの両方の利点を継承する。
CFSRは計算コストと性能のバランスが最適であることを示す実験である。
論文 参考訳(メタデータ) (2024-01-11T03:08:00Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - RDRN: Recursively Defined Residual Network for Image Super-Resolution [58.64907136562178]
深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像において顕著な性能を得た。
本稿では,注目ブロックを効率的に活用する新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-17T11:06:29Z) - Image Superresolution using Scale-Recurrent Dense Network [30.75380029218373]
畳み込みニューラルネットワーク(CNN)の設計の最近の進歩は、画像超解像(SR)の性能を大幅に向上させた。
残差ブロック内の一連の密接な接続を含む単位上に構築されたスケールリカレントSRアーキテクチャを提案する(Residual Dense Blocks (RDBs))。
我々のスケールリカレント設計は、現在の最先端のアプローチに比べてパラメトリックに効率的でありながら、より高いスケール要因の競合性能を提供する。
論文 参考訳(メタデータ) (2022-01-28T09:18:43Z) - Fourier Space Losses for Efficient Perceptual Image Super-Resolution [131.50099891772598]
提案した損失関数の適用のみで,最近導入された効率的なジェネレータアーキテクチャの性能向上が可能であることを示す。
フーリエ空間における周波数に対する損失の直接的強調は知覚的画質を著しく向上させることを示す。
訓練されたジェネレータは、最先端の知覚的SR法である RankSRGAN と SRFlow よりも2.4倍、48倍高速である。
論文 参考訳(メタデータ) (2021-06-01T20:34:52Z) - Hierarchical Residual Attention Network for Single Image
Super-Resolution [2.0571256241341924]
本稿では,残差特徴と注意集約の効率的な手法に基づく新しい軽量超解像モデルを提案する。
提案アーキテクチャは,比較的少ない計算量とメモリフットプリントを維持しながら,いくつかのデータセットにおける最先端性能を上回る。
論文 参考訳(メタデータ) (2020-12-08T17:24:28Z) - Iterative Network for Image Super-Resolution [69.07361550998318]
単一画像超解像(SISR)は、最近の畳み込みニューラルネットワーク(CNN)の発展により、大幅に活性化されている。
本稿では、従来のSISRアルゴリズムに関する新たな知見を提供し、反復最適化に依存するアプローチを提案する。
反復最適化の上に,新しい反復型超解像ネットワーク (ISRN) を提案する。
論文 参考訳(メタデータ) (2020-05-20T11:11:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。