論文の概要: Hierarchical Residual Attention Network for Single Image
Super-Resolution
- arxiv url: http://arxiv.org/abs/2012.04578v1
- Date: Tue, 8 Dec 2020 17:24:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 20:58:31.425944
- Title: Hierarchical Residual Attention Network for Single Image
Super-Resolution
- Title(参考訳): 単一画像超解像のための階層的残留注意ネットワーク
- Authors: Parichehr Behjati, Pau Rodriguez, Armin Mehri, Isabelle Hupont, Carles
Fern\'andez Tena, Jordi Gonzalez
- Abstract要約: 本稿では,残差特徴と注意集約の効率的な手法に基づく新しい軽量超解像モデルを提案する。
提案アーキテクチャは,比較的少ない計算量とメモリフットプリントを維持しながら,いくつかのデータセットにおける最先端性能を上回る。
- 参考スコア(独自算出の注目度): 2.0571256241341924
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural networks are the most successful models in single image
super-resolution. Deeper networks, residual connections, and attention
mechanisms have further improved their performance. However, these strategies
often improve the reconstruction performance at the expense of considerably
increasing the computational cost. This paper introduces a new lightweight
super-resolution model based on an efficient method for residual feature and
attention aggregation. In order to make an efficient use of the residual
features, these are hierarchically aggregated into feature banks for posterior
usage at the network output. In parallel, a lightweight hierarchical attention
mechanism extracts the most relevant features from the network into attention
banks for improving the final output and preventing the information loss
through the successive operations inside the network. Therefore, the processing
is split into two independent paths of computation that can be simultaneously
carried out, resulting in a highly efficient and effective model for
reconstructing fine details on high-resolution images from their low-resolution
counterparts. Our proposed architecture surpasses state-of-the-art performance
in several datasets, while maintaining relatively low computation and memory
footprint.
- Abstract(参考訳): 畳み込みニューラルネットワークは、単一画像の超解像において最も成功したモデルである。
より深いネットワーク、残差接続、およびアテンション機構は、その性能をさらに改善した。
しかし、これらの戦略はしばしば計算コストを大幅に増加させながら、復元性能を向上させる。
本稿では,残差特徴と注意集約の効率的な手法に基づく新しい軽量超解像モデルを提案する。
残像を効率的に利用するために、これらは階層的に特徴バンクに集約され、ネットワーク出力で後続使用することができる。
並行して、軽量な階層的注意機構は、ネットワークから最も関連する特徴を注意バンクに抽出し、最終的な出力を改善し、ネットワーク内の連続した操作による情報損失を防止する。
そのため、処理を2つの独立した計算経路に分割し、低解像度画像から高解像度画像の細部を再構成する高効率かつ効率的なモデルを作成することができる。
提案アーキテクチャは,比較的少ない計算量とメモリフットプリントを維持しながら,いくつかのデータセットにおける最先端性能を上回る。
関連論文リスト
- Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - RDRN: Recursively Defined Residual Network for Image Super-Resolution [58.64907136562178]
深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像において顕著な性能を得た。
本稿では,注目ブロックを効率的に活用する新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-17T11:06:29Z) - Real Image Restoration via Structure-preserving Complementarity
Attention [10.200625895876023]
本稿では,高密度モジュールとスパースモジュールを含む軽量なコンプレメンタリアテンションモジュールを提案する。
そこで,本論文では,勾配に基づく構造保存分岐を構築した。
論文 参考訳(メタデータ) (2022-07-28T04:24:20Z) - Residual Local Feature Network for Efficient Super-Resolution [20.62809970985125]
本研究では,Residual Local Feature Network (RLFN)を提案する。
主なアイデアは、3つの畳み込みレイヤを局所的な特徴学習に使用して、機能の集約を単純化することだ。
さらに,NTIRE 2022の高効率超解像問題において,第1位を獲得した。
論文 参考訳(メタデータ) (2022-05-16T08:46:34Z) - Image Superresolution using Scale-Recurrent Dense Network [30.75380029218373]
畳み込みニューラルネットワーク(CNN)の設計の最近の進歩は、画像超解像(SR)の性能を大幅に向上させた。
残差ブロック内の一連の密接な接続を含む単位上に構築されたスケールリカレントSRアーキテクチャを提案する(Residual Dense Blocks (RDBs))。
我々のスケールリカレント設計は、現在の最先端のアプローチに比べてパラメトリックに効率的でありながら、より高いスケール要因の競合性能を提供する。
論文 参考訳(メタデータ) (2022-01-28T09:18:43Z) - Structured Convolutions for Efficient Neural Network Design [65.36569572213027]
畳み込みニューラルネットワーク構築ブロックのテクスト単純構造における冗長性を利用してモデル効率に取り組む。
この分解が2Dカーネルや3Dカーネルだけでなく、完全に接続されたレイヤにも適用可能であることを示す。
論文 参考訳(メタデータ) (2020-08-06T04:38:38Z) - OverNet: Lightweight Multi-Scale Super-Resolution with Overscaling
Network [3.6683231417848283]
SISRを任意のスケールで1つのモデルで解くための,深層でも軽量な畳み込みネットワークであるOverNetを紹介した。
我々のネットワークは、従来の手法よりも少ないパラメータを使用しながら、標準ベンチマークにおいて、過去の最先端結果よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-05T22:10:29Z) - Iterative Network for Image Super-Resolution [69.07361550998318]
単一画像超解像(SISR)は、最近の畳み込みニューラルネットワーク(CNN)の発展により、大幅に活性化されている。
本稿では、従来のSISRアルゴリズムに関する新たな知見を提供し、反復最適化に依存するアプローチを提案する。
反復最適化の上に,新しい反復型超解像ネットワーク (ISRN) を提案する。
論文 参考訳(メタデータ) (2020-05-20T11:11:47Z) - Resolution Adaptive Networks for Efficient Inference [53.04907454606711]
本稿では,低分解能表現が「容易」な入力を分類するのに十分である,という直感に触発された新しいレゾリューション適応ネットワーク(RANet)を提案する。
RANetでは、入力画像はまず、低解像度表現を効率的に抽出する軽量サブネットワークにルーティングされる。
ネットワーク内の高解像度パスは、"ハード"サンプルを認識する能力を維持している。
論文 参考訳(メタデータ) (2020-03-16T16:54:36Z) - Spatial-Spectral Residual Network for Hyperspectral Image
Super-Resolution [82.1739023587565]
ハイパースペクトル画像超解像のための新しいスペクトル空間残差ネットワーク(SSRNet)を提案する。
提案手法は,2次元畳み込みではなく3次元畳み込みを用いて空間スペクトル情報の探索を効果的に行うことができる。
各ユニットでは空間的・時間的分離可能な3次元畳み込みを用いて空間的・スペクトル的な情報を抽出する。
論文 参考訳(メタデータ) (2020-01-14T03:34:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。