論文の概要: Spatially-Adaptive Feature Modulation for Efficient Image
Super-Resolution
- arxiv url: http://arxiv.org/abs/2302.13800v1
- Date: Mon, 27 Feb 2023 14:19:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 15:30:12.023053
- Title: Spatially-Adaptive Feature Modulation for Efficient Image
Super-Resolution
- Title(参考訳): 画像超解像の空間適応的特徴変調
- Authors: Long Sun, Jiangxin Dong, Jinhui Tang, Jinshan Pan
- Abstract要約: 視覚変換器(ViT)のようなブロック上に,空間適応型特徴変調(SAFM)機構を開発する。
提案法は最先端のSR法よりも3倍程度小さい。
- 参考スコア(独自算出の注目度): 90.16462805389943
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although numerous solutions have been proposed for image super-resolution,
they are usually incompatible with low-power devices with many computational
and memory constraints. In this paper, we address this problem by proposing a
simple yet effective deep network to solve image super-resolution efficiently.
In detail, we develop a spatially-adaptive feature modulation (SAFM) mechanism
upon a vision transformer (ViT)-like block. Within it, we first apply the SAFM
block over input features to dynamically select representative feature
representations. As the SAFM block processes the input features from a
long-range perspective, we further introduce a convolutional channel mixer
(CCM) to simultaneously extract local contextual information and perform
channel mixing. Extensive experimental results show that the proposed method is
$3\times$ smaller than state-of-the-art efficient SR methods, e.g., IMDN, in
terms of the network parameters and requires less computational cost while
achieving comparable performance. The code is available at
https://github.com/sunny2109/SAFMN.
- Abstract(参考訳): イメージスーパーレゾリューションのための多くのソリューションが提案されているが、計算量やメモリの制約の多い低消費電力デバイスとは互換性がない。
本稿では,超解像を効率的に解くために,単純かつ効果的な深層ネットワークを提案する。
具体的には,視覚トランスフォーマー(vit)様ブロック上に空間適応型特徴変調(safm)機構を開発する。
まず、入力特徴に対してSAFMブロックを適用し、代表的特徴表現を動的に選択する。
SAFMブロックが入力特徴を長距離視点で処理する際、局所的な文脈情報を同時に抽出し、チャネル混合を行う畳み込みチャネルミキサー(CCM)を導入する。
大規模な実験結果から,提案手法は高効率SR法(例えばIMDN)よりも3ドル(約3,300円)ほど小さく,計算コストの低減と同等性能の達成を図っている。
コードはhttps://github.com/sunny2109/SAFMNで入手できる。
関連論文リスト
- Transforming Image Super-Resolution: A ConvFormer-based Efficient
Approach [63.98380888730723]
本稿では, Convolutional Transformer Layer (ConvFormer) と ConvFormer-based Super-Resolution Network (CFSR) を紹介する。
CFSRは、計算コストの少ない長距離依存と広範囲の受容場を効率的にモデル化する。
これは、x2 SRタスクのUrban100データセットで0.39dB、パラメータが26%、FLOPが31%減少している。
論文 参考訳(メタデータ) (2024-01-11T03:08:00Z) - Efficient Mixed Transformer for Single Image Super-Resolution [1.7740376367999706]
Mixed Transformer Block (MTB) は複数の連続トランス層から構成される。
Pixel Mixer (PM) はSelf-Attention (SA) を置き換えるために使用される。
PMは、ピクセルシフト操作による局所的な知識集約を強化することができる。
論文 参考訳(メタデータ) (2023-05-19T03:19:38Z) - Cross-receptive Focused Inference Network for Lightweight Image
Super-Resolution [64.25751738088015]
トランスフォーマーに基づく手法は、単一画像超解像(SISR)タスクにおいて顕著な性能を示した。
動的に特徴を抽出するために文脈情報を組み込む必要がある変換器は無視される。
我々は,CNNとTransformerを混合したCTブロックのカスケードで構成される,軽量なクロスレセプティブ・フォーカスド・推論・ネットワーク(CFIN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T16:32:29Z) - ShuffleMixer: An Efficient ConvNet for Image Super-Resolution [88.86376017828773]
本稿では、大きな畳み込みとチャネル分割シャッフル操作を探索する軽量画像超解像のためのShuffleMixerを提案する。
具体的には,チャネル分割とシャッフルを基本成分とする2つのプロジェクション層を効率よく混合する。
実験結果から,ShuffleMixerはモデルパラメータやFLOPの手法に比べて約6倍小さいことがわかった。
論文 参考訳(メタデータ) (2022-05-30T15:26:52Z) - Hybrid Pixel-Unshuffled Network for Lightweight Image Super-Resolution [64.54162195322246]
畳み込みニューラルネットワーク(CNN)は画像超解像(SR)において大きな成功を収めた
ほとんどのディープCNNベースのSRモデルは、高い性能を得るために大量の計算を処理している。
SRタスクに効率的かつ効果的なダウンサンプリングモジュールを導入することで,HPUN(Hybrid Pixel-Unshuffled Network)を提案する。
論文 参考訳(メタデータ) (2022-03-16T20:10:41Z) - Asymmetric CNN for image super-resolution [102.96131810686231]
深層畳み込みニューラルネットワーク(CNN)は、過去5年間で低レベルビジョンに広く適用されています。
画像超解像のための非対称ブロック(AB)、mem?ory拡張ブロック(MEB)、高周波数特徴強調ブロック(HFFEB)からなる非対称CNN(ACNet)を提案する。
我々のACNetは、ブラインドノイズの単一画像超解像(SISR)、ブラインドSISR、ブラインドSISRを効果的に処理できる。
論文 参考訳(メタデータ) (2021-03-25T07:10:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。