論文の概要: CubeFormer: A Simple yet Effective Baseline for Lightweight Image Super-Resolution
- arxiv url: http://arxiv.org/abs/2412.02234v1
- Date: Tue, 03 Dec 2024 08:02:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:44:33.444302
- Title: CubeFormer: A Simple yet Effective Baseline for Lightweight Image Super-Resolution
- Title(参考訳): CubeFormer:軽量画像超解像のためのシンプルで効果的なベースライン
- Authors: Jikai Wang, Huan Zheng, Jianbing Shen,
- Abstract要約: 軽量画像超解像(SR)法は、解像度を高め、軽量ニューラルネットワークを用いて画像の詳細を復元することを目的としている。
分析の結果,これらの手法は,特徴表現や細部回復に悪影響を及ぼす制約付き特徴多様性によって妨げられていることが明らかとなった。
そこで我々は,包括的情報集約を完了させることにより,特徴の豊かさを高めるために,CubeFormerというシンプルで効果的なベースラインを提案する。
- 参考スコア(独自算出の注目度): 55.94314421887744
- License:
- Abstract: Lightweight image super-resolution (SR) methods aim at increasing the resolution and restoring the details of an image using a lightweight neural network. However, current lightweight SR methods still suffer from inferior performance and unpleasant details. Our analysis reveals that these methods are hindered by constrained feature diversity, which adversely impacts feature representation and detail recovery. To respond this issue, we propose a simple yet effective baseline called CubeFormer, designed to enhance feature richness by completing holistic information aggregation. To be specific, we introduce cube attention, which expands 2D attention to 3D space, facilitating exhaustive information interactions, further encouraging comprehensive information extraction and promoting feature variety. In addition, we inject block and grid sampling strategies to construct intra-cube transformer blocks (Intra-CTB) and inter-cube transformer blocks (Inter-CTB), which perform local and global modeling, respectively. Extensive experiments show that our CubeFormer achieves state-of-the-art performance on commonly used SR benchmarks. Our source code and models will be publicly available.
- Abstract(参考訳): 軽量画像超解像(SR)法は、解像度を高め、軽量ニューラルネットワークを用いて画像の詳細を復元することを目的としている。
しかし、現在の軽量のSR手法は依然として性能が劣り、不愉快な詳細に悩まされている。
分析の結果,これらの手法は,特徴表現や細部回復に悪影響を及ぼす制約付き特徴多様性によって妨げられていることが明らかとなった。
この問題に対処するために,包括的情報集約を完了させることで特徴の豊かさを高めるために,CubeFormerというシンプルなベースラインを提案する。
具体的には,2次元の注意を3次元空間に拡張し,徹底的な情報相互作用を促進し,包括的情報抽出と特徴量の促進を促進する立方体アテンションを導入する。
Intra-CTB(Intra-CTB)とInter-CTB(Inter-CTB)をそれぞれ構築するために,ブロックとグリッドのサンプリング戦略を注入する。
我々のCubeFormerは、一般的なSRベンチマークで最先端のパフォーマンスを実現している。
ソースコードとモデルが公開されます。
関連論文リスト
- Robust Hyperspectral Image Panshapring via Sparse Spatial-Spectral Representation [9.3350274016294]
S$3$RNetはハイパースペクトル画像パネルペンのための新しいフレームワークである。
低分解能ハイパースペクトル画像(LRHSI)と高分解能マルチスペクトル画像(HRMSI)を疎空間スペクトル表現により組み合わせる。
S$3$RNetは、複数の評価指標で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-01-14T09:09:14Z) - Low-Resolution Self-Attention for Semantic Segmentation [93.30597515880079]
我々は,グローバルコンテキストを計算コストの大幅な削減で捉えるために,低解像度自己認識(LRSA)機構を導入する。
我々のアプローチは、入力画像の解像度に関わらず、固定された低解像度空間における自己注意を計算することである。
本稿では,エンコーダ・デコーダ構造を持つビジョントランスであるLRFormerを構築することで,LRSA手法の有効性を示す。
論文 参考訳(メタデータ) (2023-10-08T06:10:09Z) - Rank-Enhanced Low-Dimensional Convolution Set for Hyperspectral Image
Denoising [50.039949798156826]
本稿では,ハイパースペクトル(HS)画像の難解化問題に対処する。
ランク付き低次元畳み込み集合(Re-ConvSet)を提案する。
次に、Re-ConvSetを広く使われているU-Netアーキテクチャに組み込んで、HS画像復号法を構築する。
論文 参考訳(メタデータ) (2022-07-09T13:35:12Z) - Cross-receptive Focused Inference Network for Lightweight Image
Super-Resolution [64.25751738088015]
トランスフォーマーに基づく手法は、単一画像超解像(SISR)タスクにおいて顕著な性能を示した。
動的に特徴を抽出するために文脈情報を組み込む必要がある変換器は無視される。
我々は,CNNとTransformerを混合したCTブロックのカスケードで構成される,軽量なクロスレセプティブ・フォーカスド・推論・ネットワーク(CFIN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T16:32:29Z) - Learning Enriched Features for Real Image Restoration and Enhancement [166.17296369600774]
畳み込みニューラルネットワーク(CNN)は、画像復元作業における従来のアプローチよりも劇的に改善されている。
ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とした,新しいアーキテクチャを提案する。
提案手法は,高解像度の空間的詳細を同時に保存しながら,複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
論文 参考訳(メタデータ) (2020-03-15T11:04:30Z) - Spatial-Spectral Residual Network for Hyperspectral Image
Super-Resolution [82.1739023587565]
ハイパースペクトル画像超解像のための新しいスペクトル空間残差ネットワーク(SSRNet)を提案する。
提案手法は,2次元畳み込みではなく3次元畳み込みを用いて空間スペクトル情報の探索を効果的に行うことができる。
各ユニットでは空間的・時間的分離可能な3次元畳み込みを用いて空間的・スペクトル的な情報を抽出する。
論文 参考訳(メタデータ) (2020-01-14T03:34:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。