論文の概要: VAMamba: An Efficient Visual Adaptive Mamba for Image Restoration
- arxiv url: http://arxiv.org/abs/2509.23601v1
- Date: Sun, 28 Sep 2025 03:12:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.317494
- Title: VAMamba: An Efficient Visual Adaptive Mamba for Image Restoration
- Title(参考訳): VAMamba:画像復元のための効率的な視覚適応型マンバ
- Authors: Han Hu, Zhuoran Zheng, Liang Li, Chen Lyu,
- Abstract要約: VAMambaは2つの重要なイノベーションを持つVisual Adaptive Mambaフレームワークである。
QCLAMencesfeaturelearningthrougha FIFOキャッシュ。
GPS-SS2D(GreedyPathScanSS2D)は適応走査を誘導する。
VAMambaは、修復の質と効率の両方において、既存のアプローチを一貫して上回っている。
- 参考スコア(独自算出の注目度): 20.467340636278657
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent Mamba-based image restoration methods have achieved promising results but remain limited by fixed scanning patterns and inefficient feature utilization. Conventional Mamba architectures rely on predetermined paths that cannot adapt to diverse degradations, constraining both restoration performance and computational efficiency. To overcome these limitations, we propose VAMamba, a Visual Adaptive Mamba framework with two key innovations. First, QCLAM(Queue-basedCacheLow-rankAdaptiveMemory)enhancesfeaturelearningthrougha FIFO cache that stores historical representations. Similarity between current LoRA-adapted and cached features guides intelligent fusion, enabling dynamic reuse while effectively controlling memorygrowth.Second, GPS-SS2D(GreedyPathScanSS2D)introducesadaptive scanning. A Vision Transformer generates score maps to estimate pixel importance, and a greedy strategy de termines optimal forward and backward scanning paths. These learned trajectories replace rigid patterns, enabling SS2D to perform targeted feature extraction. The integration of QCLAM and GPS-SS2D allows VAMamba to adaptively focus on degraded regions while maintaining high computational efficiency. Extensive experiments across diverse restoration tasks demonstrate that VAMamba consistently outperforms existing approaches in both restoration quality and efficiency, establishing new benchmarks for adaptive image restoration. Our code is available at https://github.com/WaterHQH/VAMamba.
- Abstract(参考訳): 近年, マンバをベースとした画像復元法は有望な成果を上げているが, 固定走査パターンと非効率的な特徴利用によって制限されている。
従来のマンバのアーキテクチャは、様々な劣化に適応できない所定の経路に依存しており、復元性能と計算効率の両方を制約している。
これらの制限を克服するため、我々は2つの重要なイノベーションを持つVisual Adaptive MambaフレームワークであるVAMambaを提案する。
まず、QCLAM(Queue-basedCacheLow-rankAdaptiveMemory)enhancesfeaturelearningthrougha FIFOキャッシュ。
現在のLoRA適応機能とキャッシュ機能との類似性は、インテリジェントフュージョンを誘導し、メモリグロースを効果的に制御しながら動的再利用を可能にする。
ビジョン変換器は、スコアマップを生成して画素重要度を推定し、最適な前方及び後方走査経路を定式化する。
これらの学習軌道は厳密なパターンに取って代わられ、SS2Dはターゲットとなる特徴抽出を行うことができる。
QCLAMとGPS-SS2Dの統合により、VAMambaは高い計算効率を維持しながら、劣化した領域に適応的に焦点を合わせることができる。
様々な修復タスクにわたる大規模な実験により、VAMambaは修復品質と効率の両方において既存のアプローチより一貫して優れており、適応的な画像復元のための新しいベンチマークが確立されている。
私たちのコードはhttps://github.com/WaterHQH/VAMamba.comから入手可能です。
関連論文リスト
- EAMamba: Efficient All-Around Vision State Space Model for Image Restoration [11.190025966582041]
本研究では,マルチヘッド選択走査モジュール(MHSSM)と全周走査機構を組み込んだ拡張フレームワークであるEfficient All-Around Mamba (EAMamba)を紹介する。
EAMambaは、既存の低レベルのVision Mamba法と比較して、FLOPの大幅な31~89%の削減を実現している。
論文 参考訳(メタデータ) (2025-06-27T14:12:58Z) - 2DMCG:2DMambawith Change Flow Guidance for Change Detection in Remote Sensing [4.18306618346671]
本稿では、2次元空間情報をキャプチャする能力を高めるビジョンマンバ変種に基づく効率的なフレームワークを提案する。
このフレームワークは、2DMambaエンコーダを使用して、多時間画像からグローバルなコンテキスト空間情報を効果的に学習する。
ベンチマークデータセットの実験は、最先端の手法と比較して、我々のフレームワークの優れた性能を示している。
論文 参考訳(メタデータ) (2025-03-01T14:55:13Z) - Detail Matters: Mamba-Inspired Joint Unfolding Network for Snapshot Spectral Compressive Imaging [40.80197280147993]
本研究では,HSI再建の非線形および不適切な特徴を克服するために,マンバインスパイアされたジョイント・アンフォールディング・ネットワーク(MiJUN)を提案する。
本稿では,初期最適化段階への依存を減らすために,高速化された展開ネットワーク方式を提案する。
テンソルモード-$k$展開をMambaネットワークに統合することにより,Mambaによる走査戦略を洗練する。
論文 参考訳(メタデータ) (2025-01-02T13:56:23Z) - 2DMamba: Efficient State Space Model for Image Representation with Applications on Giga-Pixel Whole Slide Image Classification [40.10133518650528]
画像の2次元空間構造を組み込んだ新しい2次元選択型SSMフレームワークである2DMambaを提案する。
WSI分類と生存分析のための10の公開データセットの実験では、2DMambaはAUCで2.48%、F1スコアで3.11%、精度で2.47%、Cインデックスで5.52%改善している。
論文 参考訳(メタデータ) (2024-12-01T05:42:58Z) - V2M: Visual 2-Dimensional Mamba for Image Representation Learning [68.51380287151927]
Mambaは、フレキシブルな設計と、1Dシーケンスを処理するための効率的なハードウェア性能のために、広く注目を集めている。
最近の研究では、マンバを2D画像をパッチに平らにすることで視覚領域に適用し、それらを1Dシークエンスとして扱うことが試みられている。
2次元空間における画像トークンを直接処理する完全解として,視覚的2次元マンバモデルを提案する。
論文 参考訳(メタデータ) (2024-10-14T11:11:06Z) - Cross-Scan Mamba with Masked Training for Robust Spectral Imaging [51.557804095896174]
本研究では,空間スペクトルSSMを用いたクロススキャンマンバ(CS-Mamba)を提案する。
実験の結果, CS-Mambaは最先端の性能を達成し, マスク付きトレーニング手法によりスムーズな特徴を再構築し, 視覚的品質を向上させることができた。
論文 参考訳(メタデータ) (2024-08-01T15:14:10Z) - MambaVC: Learned Visual Compression with Selective State Spaces [74.29217829932895]
本稿では,SSMに基づくシンプルで強力で効率的な圧縮ネットワークであるMambaVCを紹介する。
MambaVC は2次元選択的走査 (2DSS) モジュールを備えた視覚状態空間 (VSS) ブロックを各ダウンサンプリング後の非線形活性化関数として開発する。
圧縮ベンチマークデータセットでは、MambaVCはより低い計算とメモリオーバーヘッドでより優れたレート歪み性能を達成する。
論文 参考訳(メタデータ) (2024-05-24T10:24:30Z) - VMamba: Visual State Space Model [98.0517369083152]
状態空間言語モデルであるMambaを、線形時間複雑性を持つビジョンバックボーンであるVMambaに適合させる。
VMambaのコアには2D Selective Scan (SS2D)モジュールを備えたVisual State-Space (VSS)ブロックのスタックがある。
論文 参考訳(メタデータ) (2024-01-18T17:55:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。