論文の概要: RD-UIE: Relation-Driven State Space Modeling for Underwater Image Enhancement
- arxiv url: http://arxiv.org/abs/2505.01224v1
- Date: Fri, 02 May 2025 12:21:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-05 17:21:20.016194
- Title: RD-UIE: Relation-Driven State Space Modeling for Underwater Image Enhancement
- Title(参考訳): RD-UIE:水中画像強調のための関係駆動状態空間モデリング
- Authors: Kui Jiang, Yan Luo, Junjun Jiang, Xin Xu, Fei Ma, Fei Yu,
- Abstract要約: 水中画像強調(UIE)は、海洋視覚応用のための重要な前処理ステップである。
実効UIE(RD-UIE)のための新しい関係駆動型マンバフレームワークを開発した。
水中強化ベンチマークの実験では、RD-UIEは最先端のアプローチであるWMambaよりも優れていた。
- 参考スコア(独自算出の注目度): 59.364418120895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Underwater image enhancement (UIE) is a critical preprocessing step for marine vision applications, where wavelength-dependent attenuation causes severe content degradation and color distortion. While recent state space models like Mamba show potential for long-range dependency modeling, their unfolding operations and fixed scan paths on 1D sequences fail to adapt to local object semantics and global relation modeling, limiting their efficacy in complex underwater environments. To address this, we enhance conventional Mamba with the sorting-based scanning mechanism that dynamically reorders scanning sequences based on statistical distribution of spatial correlation of all pixels. In this way, it encourages the network to prioritize the most informative components--structural and semantic features. Upon building this mechanism, we devise a Visually Self-adaptive State Block (VSSB) that harmonizes dynamic sorting of Mamba with input-dependent dynamic convolution, enabling coherent integration of global context and local relational cues. This exquisite design helps eliminate global focus bias, especially for widely distributed contents, which greatly weakens the statistical frequency. For robust feature extraction and refinement, we design a cross-feature bridge (CFB) to adaptively fuse multi-scale representations. These efforts compose the novel relation-driven Mamba framework for effective UIE (RD-UIE). Extensive experiments on underwater enhancement benchmarks demonstrate RD-UIE outperforms the state-of-the-art approach WMamba in both quantitative metrics and visual fidelity, averagely achieving 0.55 dB performance gain on the three benchmarks. Our code is available at https://github.com/kkoucy/RD-UIE/tree/main
- Abstract(参考訳): 水中画像強調(UIE)は、波長依存性の減衰が厳しい内容劣化と色歪みを引き起こす海洋視覚アプリケーションにとって重要な前処理ステップである。
マンバのような最近の状態空間モデルは長距離依存モデリングの可能性を示しているが、その展開操作と1次元シーケンス上の固定されたスキャンパスは局所的なオブジェクトセマンティクスやグローバルな関係モデリングに適応できず、複雑な水中環境での有効性を制限している。
そこで本研究では,全画素の空間相関の統計的分布に基づいて,スキャンシーケンスを動的に並べ替えるソートに基づくスキャン機構により,従来のマンバを改良する。
このようにして、ネットワークは最も有意義なコンポーネントである構造的特徴と意味的特徴の優先順位付けを推奨する。
このメカニズムを構築する際に、入力依存の動的畳み込みとMambaの動的ソートを調和させる視覚的自己適応状態ブロック(VSSB)を考案し、グローバルコンテキストとローカルリレーショナルキューのコヒーレントな統合を可能にする。
この厳密な設計は、特に広く分散されたコンテンツにおいて、グローバルな焦点バイアスを排除し、統計周波数を著しく弱めるのに役立つ。
頑健な特徴抽出と改善のために,多スケール表現を適応的に融合するクロス機能ブリッジ (CFB) を設計する。
これらの取り組みは、効果的なUIE(RD-UIE)のための新しい関係駆動型Mambaフレームワークを構成する。
水中強化ベンチマークに関する大規模な実験は、RD-UIEが3つのベンチマークで平均0.55dBの性能向上を達成し、測定値と視力の両方において最先端のアプローチであるWMambaよりも優れていることを示した。
私たちのコードはhttps://github.com/kkoucy/RD-UIE/tree/mainで利用可能です。
関連論文リスト
- An Efficient and Mixed Heterogeneous Model for Image Restoration [71.85124734060665]
現在の主流のアプローチは、CNN、Transformers、Mambasの3つのアーキテクチャパラダイムに基づいている。
混合構造融合に基づく効率的で汎用的なIRモデルであるRestorMixerを提案する。
論文 参考訳(メタデータ) (2025-04-15T08:19:12Z) - ContextFormer: Redefining Efficiency in Semantic Segmentation [48.81126061219231]
畳み込み法は、局所的な依存関係をうまく捉えるが、長距離関係に苦慮する。
ビジョントランスフォーマー(ViT)は、グローバルなコンテキストキャプチャでは優れるが、高い計算要求によって妨げられる。
我々は,リアルタイムセマンティックセグメンテーションの効率,精度,堅牢性のバランスをとるために,CNN と ViT の強みを活用したハイブリッドフレームワーク ContextFormer を提案する。
論文 参考訳(メタデータ) (2025-01-31T16:11:04Z) - SIGMA: Selective Gated Mamba for Sequential Recommendation [56.85338055215429]
最近の進歩であるMambaは、時系列予測において例外的なパフォーマンスを示した。
SIGMA(Selective Gated Mamba)と呼ばれる,シークエンシャルレコメンデーションのための新しいフレームワークを紹介する。
以上の結果から,SIGMAは5つの実世界のデータセットにおいて,現在のモデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-08-21T09:12:59Z) - MambaVT: Spatio-Temporal Contextual Modeling for robust RGB-T Tracking [51.28485682954006]
本研究では,マンバをベースとした純フレームワーク(MambaVT)を提案する。
具体的には、長距離クロスフレーム統合コンポーネントを考案し、ターゲットの外観変化にグローバルに適応する。
実験では、RGB-TトラッキングのためのMambaのビジョンの可能性が示され、MambaVTは4つの主要なベンチマークで最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2024-08-15T02:29:00Z) - RSDehamba: Lightweight Vision Mamba for Remote Sensing Satellite Image Dehazing [19.89130165954241]
リモートセンシング画像デハージング(RSID)は、高品質な画像復元のための不均一かつ物理的に不規則なヘイズ要素を取り除くことを目的としている。
本稿では,RSID分野におけるRSDhambaと呼ばれるマンバモデル上での最初の軽量ネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-16T12:12:07Z) - IRSRMamba: Infrared Image Super-Resolution via Mamba-based Wavelet Transform Feature Modulation Model [7.842507196763463]
IRSRMambaはマルチスケール適応のためのウェーブレット変換特徴変調を統合する新しいフレームワークである。
IRSRMambaはPSNR、SSIM、知覚品質において最先端の手法より優れている。
この研究は、高忠実度赤外線画像強調のための有望な方向として、Mambaベースのアーキテクチャを確立する。
論文 参考訳(メタデータ) (2024-05-16T07:49:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。