論文の概要: $L^2$FMamba: Lightweight Light Field Image Super-Resolution with State Space Model
- arxiv url: http://arxiv.org/abs/2503.19253v1
- Date: Tue, 25 Mar 2025 01:24:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:54:15.047698
- Title: $L^2$FMamba: Lightweight Light Field Image Super-Resolution with State Space Model
- Title(参考訳): L^2$FMamba:国家空間モデルによる軽量光フィールド画像の超解像
- Authors: Zeqiang Wei, Kai Jin, Zeyi Hou, Kuan Song, Xiuzhuang Zhou,
- Abstract要約: トランスフォーマーは、長距離依存性モデリング機能により、光フィールド画像の超解像タスクに大幅な性能向上をもたらす。
我々は,光場画像における重要な長距離空間-角依存性を効率的に捉えるために,プログレッシブ特徴抽出にインスパイアされた新しいモジュールLF-VSSMブロックを導入する。
本稿では,LF-VSSMブロックを統合した軽量ネットワークである$L2$FMambaを提案する。
- 参考スコア(独自算出の注目度): 3.741194134589865
- License:
- Abstract: Transformers bring significantly improved performance to the light field image super-resolution task due to their long-range dependency modeling capability. However, the inherently high computational complexity of their core self-attention mechanism has increasingly hindered their advancement in this task. To address this issue, we first introduce the LF-VSSM block, a novel module inspired by progressive feature extraction, to efficiently capture critical long-range spatial-angular dependencies in light field images. LF-VSSM successively extracts spatial features within sub-aperture images, spatial-angular features between sub-aperture images, and spatial-angular features between light field image pixels. On this basis, we propose a lightweight network, $L^2$FMamba (Lightweight Light Field Mamba), which integrates the LF-VSSM block to leverage light field features for super-resolution tasks while overcoming the computational challenges of Transformer-based approaches. Extensive experiments on multiple light field datasets demonstrate that our method reduces the number of parameters and complexity while achieving superior super-resolution performance with faster inference speed.
- Abstract(参考訳): トランスフォーマーは、長距離依存性モデリング機能により、光フィールド画像の超解像タスクに大幅な性能向上をもたらす。
しかしながら、その中心となる自己注意機構の本質的に高い計算複雑性は、この課題における彼らの進歩を妨げている。
この問題に対処するために,我々はまず,プログレッシブな特徴抽出にインスパイアされた新しいモジュールLF-VSSMブロックを導入し,光場画像における重要な長距離空間角依存性を効果的に捉えた。
LF-VSSMは、サブアパーチャ画像内の空間的特徴、サブアパーチャ画像間の空間的角的特徴、光フィールド画像画素間の空間的角的特徴を順次抽出する。
そこで本研究では,LF-VSSMブロックを統合した軽量ネットワークである$L^2$FMamba(Lightweight Light Field Mamba)を提案する。
複数の光場データセットに対する大規模な実験により,提案手法はより高速な推論速度で優れた超解像性能を達成しつつ,パラメータや複雑性の削減を図っている。
関連論文リスト
- LGFN: Lightweight Light Field Image Super-Resolution using Local Convolution Modulation and Global Attention Feature Extraction [5.461017270708014]
本稿では,LGFN という軽量なモデルを提案する。このモデルでは,異なるビューの局所的特徴とグローバル的特徴と,LF 画像 SR のための異なるチャネルの特徴を統合している。
我々のモデルは0.45Mのパラメータと19.33GのFLOPを持つ。
論文 参考訳(メタデータ) (2024-09-26T11:53:25Z) - Mamba-based Light Field Super-Resolution with Efficient Subspace Scanning [48.99361249764921]
4次元光場(LF)超解像において,トランスフォーマー法は優れた性能を示した。
しかし、その二次的な複雑さは、高解像度の4D入力の効率的な処理を妨げる。
我々は,効率的な部分空間走査戦略を設計し,マンバをベースとした光場超解法 MLFSR を提案する。
論文 参考訳(メタデータ) (2024-06-23T11:28:08Z) - LFMamba: Light Field Image Super-Resolution with State Space Model [28.426889157353028]
LFMambaと呼ばれる光フィールド画像の超解像のためのSSMネットワークを提案する。
LFベンチマーク実験の結果, LFMambaの性能は良好であった。
LFMambaは、状態空間モデルによるLFの効果的な表現学習に光を当てていると期待している。
論文 参考訳(メタデータ) (2024-06-18T10:13:19Z) - Spatial-frequency Dual-Domain Feature Fusion Network for Low-Light Remote Sensing Image Enhancement [49.15531684596958]
低照度リモートセンシング画像強調のためのDFFN(Dual-Domain Feature Fusion Network)を提案する。
第1フェーズは振幅情報を学習して画像輝度を復元し、第2フェーズは位相情報を学習して詳細を洗練させる。
我々は、現在の暗光リモートセンシング画像強調におけるデータセットの欠如に対応するために、2つの暗光リモートセンシングデータセットを構築した。
論文 参考訳(メタデータ) (2024-04-26T13:21:31Z) - Physics-Inspired Degradation Models for Hyperspectral Image Fusion [61.743696362028246]
ほとんどの融合法は、融合アルゴリズム自体にのみ焦点をあて、分解モデルを見落としている。
我々は、LR-HSIとHR-MSIの劣化をモデル化するための物理インスパイアされた劣化モデル(PIDM)を提案する。
提案したPIDMは,既存の核融合法における核融合性能を向上させることができる。
論文 参考訳(メタデータ) (2024-02-04T09:07:28Z) - Beyond Subspace Isolation: Many-to-Many Transformer for Light Field Image Super-resolution [4.83071396703167]
本稿では,光フィールド画像超解像処理のための新しいM2MTを提案する。
M2MTは、自己認識機構を実行する前に、空間部分空間内の角情報を集約する。
光フィールド画像内の全てのサブアパーチャ画像全体への完全なアクセスを可能にする。
論文 参考訳(メタデータ) (2024-01-01T12:48:23Z) - Learning based Deep Disentangling Light Field Reconstruction and
Disparity Estimation Application [1.5603081929496316]
本稿では,光電界拡散機構の原理を継承し,高度なネットワーク構造を付加するDeep Disentangling Mechanismを提案する。
本研究では,DDASR(Deep Disentangling Mechanism)に基づく光電場再構成ネットワークを設計し,実験においてSOTAの性能を実現する。
論文 参考訳(メタデータ) (2023-11-14T12:48:17Z) - Spatially-Adaptive Feature Modulation for Efficient Image
Super-Resolution [90.16462805389943]
視覚変換器(ViT)のようなブロック上に,空間適応型特徴変調(SAFM)機構を開発する。
提案法は最先端のSR法よりも3倍程度小さい。
論文 参考訳(メタデータ) (2023-02-27T14:19:31Z) - Hyperspectral Image Super-resolution via Deep Progressive Zero-centric
Residual Learning [62.52242684874278]
空間情報とスペクトル情報の相互モダリティ分布が問題となる。
本稿では,PZRes-Netという,新しいテクスライトウェイトなディープニューラルネットワークベースのフレームワークを提案する。
本フレームワークは,高分解能かつテクテッセロ中心の残像を学習し,シーンの空間的詳細を高頻度で表現する。
論文 参考訳(メタデータ) (2020-06-18T06:32:11Z) - Learning Light Field Angular Super-Resolution via a Geometry-Aware
Network [101.59693839475783]
そこで本研究では,広いベースラインを持つスパースサンプリング光場を超解き放つことを目的とした,エンド・ツー・エンドの学習ベースアプローチを提案する。
提案手法は,実行時間48$times$を節約しつつ,2番目のベストメソッドのPSNRを平均2dBまで改善する。
論文 参考訳(メタデータ) (2020-02-26T02:36:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。