論文の概要: GRAN: Ghost Residual Attention Network for Single Image Super Resolution
- arxiv url: http://arxiv.org/abs/2302.14557v2
- Date: Thu, 2 Mar 2023 02:01:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-03 17:32:24.369219
- Title: GRAN: Ghost Residual Attention Network for Single Image Super Resolution
- Title(参考訳): GRAN:シングルイメージ超解像のためのゴースト残留注意ネットワーク
- Authors: Axi Niu, Pei Wang, Yu Zhu, Jinqiu Sun, Qingsen Yan, Yanning Zhang
- Abstract要約: 本稿では,Ghost Residual Attention Block (GRAB) グループを導入し,標準的な畳み込み操作の欠点を克服する。
Ghost Moduleは、標準の畳み込みを置き換えるために線形操作を採用することで、本質的な機能の基盤となる情報を明らかにすることができる。
ベンチマークデータセットを用いて行った実験は,定性的・定量的に,本手法の優れた性能を示すものである。
- 参考スコア(独自算出の注目度): 44.4178326950426
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, many works have designed wider and deeper networks to achieve
higher image super-resolution performance. Despite their outstanding
performance, they still suffer from high computational resources, preventing
them from directly applying to embedded devices. To reduce the computation
resources and maintain performance, we propose a novel Ghost Residual Attention
Network (GRAN) for efficient super-resolution. This paper introduces Ghost
Residual Attention Block (GRAB) groups to overcome the drawbacks of the
standard convolutional operation, i.e., redundancy of the intermediate feature.
GRAB consists of the Ghost Module and Channel and Spatial Attention Module
(CSAM) to alleviate the generation of redundant features. Specifically, Ghost
Module can reveal information underlying intrinsic features by employing linear
operations to replace the standard convolutions. Reducing redundant features by
the Ghost Module, our model decreases memory and computing resource
requirements in the network. The CSAM pays more comprehensive attention to
where and what the feature extraction is, which is critical to recovering the
image details. Experiments conducted on the benchmark datasets demonstrate the
superior performance of our method in both qualitative and quantitative.
Compared to the baseline models, we achieve higher performance with lower
computational resources, whose parameters and FLOPs have decreased by more than
ten times.
- Abstract(参考訳): 近年,画像の高解像度化を実現するために,より広範に深いネットワークを設計する作業が数多く行われている。
その優れた性能にもかかわらず、高い計算資源に苦しんでおり、組み込みデバイスに直接適用できない。
計算資源の削減と性能の維持を目的として,高速超解像のための新しいゴースト残留注意ネットワーク(GRAN)を提案する。
本稿では,Ghost Residual Attention Block (GRAB) グループを導入し,標準的な畳み込み操作の欠点,すなわち中間機能の冗長性を克服する。
grabはghostモジュールとchannelとspatial attention module(csam)で構成され、冗長な機能の生成を緩和する。
具体的には、Ghost Moduleは、標準の畳み込みを置き換えるために線形操作を採用することで、本質的な機能の基盤となる情報を明らかにすることができる。
Ghost Moduleによる冗長な機能の削減により、ネットワーク内のメモリとコンピューティングリソースの要求を低減します。
CSAMは、機能抽出の場所と場所について、より包括的な注意を払っている。
ベンチマークデータセット上で行った実験は,質的および定量的に,本手法の優れた性能を示す。
ベースラインモデルと比較すると,計算資源が小さく,パラメータやフロップが10倍以上も減少し,高い性能を実現している。
関連論文リスト
- HASN: Hybrid Attention Separable Network for Efficient Image Super-resolution [5.110892180215454]
単一画像の超高解像度化のための軽量な手法は、限られたハードウェアリソースのために優れた性能を達成した。
その結果, 各ブロックの残差接続により, モデルストレージと計算コストが増大することが判明した。
我々は,基本的特徴抽出モジュールとして,奥行き分離可能な畳み込み,完全連結層,アクティベーション関数を用いる。
論文 参考訳(メタデータ) (2024-10-13T14:00:21Z) - DVMSR: Distillated Vision Mamba for Efficient Super-Resolution [7.551130027327461]
本研究では,ビジョン・マンバと蒸留戦略を組み込んだ新しい軽量画像SRネットワークであるDVMSRを提案する。
提案したDVMSRは,モデルパラメータの観点から,最先端の効率的なSR手法より優れている。
論文 参考訳(メタデータ) (2024-05-05T17:34:38Z) - HAT: Hybrid Attention Transformer for Image Restoration [61.74223315807691]
トランスフォーマーに基づく手法は、画像の超解像や復調といった画像復元タスクにおいて顕著な性能を示している。
本稿では,新たなHAT(Hybrid Attention Transformer)を提案する。
我々のHATは,定量的かつ定性的に,最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-09-11T05:17:55Z) - Efficient Image Super-Resolution with Feature Interaction Weighted Hybrid Network [101.53907377000445]
軽量画像超解像は、低解像度画像から低計算コストで高解像度画像を再構成することを目的としている。
既存の方法では、活性化関数による中間層の特徴が失われる。
本稿では,中間的特徴損失が再構成品質に与える影響を最小限に抑えるために,特徴相互作用重み付きハイブリッドネットワーク(FIWHN)を提案する。
論文 参考訳(メタデータ) (2022-12-29T05:57:29Z) - RDRN: Recursively Defined Residual Network for Image Super-Resolution [58.64907136562178]
深部畳み込みニューラルネットワーク(CNN)は、単一画像超解像において顕著な性能を得た。
本稿では,注目ブロックを効率的に活用する新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-11-17T11:06:29Z) - Fast and Memory-Efficient Network Towards Efficient Image
Super-Resolution [44.909233016062906]
我々は、資源制約のあるデバイスのためのメモリ効率の高い画像超解像ネットワーク(FMEN)を構築した。
FMENは、最先端のEISRモデルであるE-RFDNと比較して33%高速で、メモリ消費を74%削減する。
FMEN-S は NTIRE 2022 の高効率超解像における最小のメモリ消費と2番目に短いランタイムを実現する。
論文 参考訳(メタデータ) (2022-04-18T16:49:20Z) - Hybrid Pixel-Unshuffled Network for Lightweight Image Super-Resolution [64.54162195322246]
畳み込みニューラルネットワーク(CNN)は画像超解像(SR)において大きな成功を収めた
ほとんどのディープCNNベースのSRモデルは、高い性能を得るために大量の計算を処理している。
SRタスクに効率的かつ効果的なダウンサンプリングモジュールを導入することで,HPUN(Hybrid Pixel-Unshuffled Network)を提案する。
論文 参考訳(メタデータ) (2022-03-16T20:10:41Z) - GhostSR: Learning Ghost Features for Efficient Image Super-Resolution [49.393251361038025]
畳み込みニューラルネットワーク(CNN)に基づく単一の画像スーパーリゾリューション(SISR)システムは、膨大な計算コストを必要としながら派手なパフォーマンスを実現します。
SISRモデルの冗長な特徴(すなわちゴースト特徴)を生成するためにシフト演算を用いることを提案する。
提案モジュールに埋め込まれた非コンパクトかつ軽量なSISRモデルの両方が,ベースラインと同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2021-01-21T10:09:47Z) - Hierarchical Residual Attention Network for Single Image
Super-Resolution [2.0571256241341924]
本稿では,残差特徴と注意集約の効率的な手法に基づく新しい軽量超解像モデルを提案する。
提案アーキテクチャは,比較的少ない計算量とメモリフットプリントを維持しながら,いくつかのデータセットにおける最先端性能を上回る。
論文 参考訳(メタデータ) (2020-12-08T17:24:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。