論文の概要: Mamba-UIE: Enhancing Underwater Images with Physical Model Constraint
- arxiv url: http://arxiv.org/abs/2407.19248v1
- Date: Sat, 27 Jul 2024 13:22:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 19:11:23.394672
- Title: Mamba-UIE: Enhancing Underwater Images with Physical Model Constraint
- Title(参考訳): Mamba-UIE:物理モデル制約による水中画像の強調
- Authors: Song Zhang, Yuqing Duan, Dong Ana, Daoliang Li, Ran Zhao,
- Abstract要約: 水中画像強調(UIE)では、畳み込みニューラルネットワーク(CNN)は長距離依存関係のモデリングに固有の制限がある。
本研究では,物理モデルによる制約に基づく水中画像強調フレームワークであるMamba-UIEを提案する。
提案したMamba-UIEは既存の最先端手法よりも優れており,PSNRは27.13で,SSIMは0.93である。
- 参考スコア(独自算出の注目度): 5.788516672280936
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In underwater image enhancement (UIE), convolutional neural networks (CNN) have inherent limitations in modeling long-range dependencies and are less effective in recovering global features. While Transformers excel at modeling long-range dependencies, their quadratic computational complexity with increasing image resolution presents significant efficiency challenges. Additionally, most supervised learning methods lack effective physical model constraint, which can lead to insufficient realism and overfitting in generated images. To address these issues, we propose a physical model constraint-based underwater image enhancement framework, Mamba-UIE. Specifically, we decompose the input image into four components: underwater scene radiance, direct transmission map, backscatter transmission map, and global background light. These components are reassembled according to the revised underwater image formation model, and the reconstruction consistency constraint is applied between the reconstructed image and the original image, thereby achieving effective physical constraint on the underwater image enhancement process. To tackle the quadratic computational complexity of Transformers when handling long sequences, we introduce the Mamba-UIE network based on linear complexity state space models (SSM). By incorporating the Mamba in Convolution block, long-range dependencies are modeled at both the channel and spatial levels, while the CNN backbone is retained to recover local features and details. Extensive experiments on three public datasets demonstrate that our proposed Mamba-UIE outperforms existing state-of-the-art methods, achieving a PSNR of 27.13 and an SSIM of 0.93 on the UIEB dataset. Our method is available at https://github.com/zhangsong1213/Mamba-UIE.
- Abstract(参考訳): 水中画像強調(UIE)では、畳み込みニューラルネットワーク(CNN)は長距離依存のモデリングに固有の制限があり、グローバルな特徴の回復にはあまり効果がない。
トランスフォーマーは長距離依存のモデリングに優れていますが、画像解像度の増大に伴う2次計算の複雑さは、大きな効率上の課題を示します。
さらに、ほとんどの教師付き学習手法は効果的な物理モデル制約を欠いているため、現実主義が不十分になり、生成した画像に過度に適合する可能性がある。
これらの課題に対処するために,物理モデル制約に基づく水中画像強調フレームワークであるMamba-UIEを提案する。
具体的には、入力画像を水中のシーンラディアンス、ダイレクトトランスミッションマップ、バックスキャッタートランスミッションマップ、グローバルバックグラウンドライトの4つのコンポーネントに分解する。
これらの部品は、改良された水中画像形成モデルに従って再組み立てされ、再構成画像と原画像との再構成一貫性制約が適用され、水中画像強調処理に有効な物理的制約が達成される。
長い列を扱う場合の変換器の2次計算複雑性に対処するために,線形複雑性状態空間モデル(SSM)に基づくMamba-UIEネットワークを導入する。
コンボリューションブロックにMambaを組み込むことで、長距離依存はチャネルレベルと空間レベルの両方でモデル化され、CNNバックボーンは局所的な特徴と詳細を回復するために保持される。
3つの公開データセットに対する大規模な実験により、提案したMamba-UIEは既存の最先端手法より優れており、PSNRは27.13、SSIMは0.93であることがわかった。
私たちのメソッドはhttps://github.com/zhangsong1213/Mamba-UIEで利用可能です。
関連論文リスト
- LaMamba-Diff: Linear-Time High-Fidelity Diffusion Models Based on Local Attention and Mamba [54.85262314960038]
局所的意図的マンバブロックは、大域的コンテキストと局所的詳細の両方を線形複雑性でキャプチャする。
このモデルは, 256x256の解像度で, ImageNet上の様々なモデルスケールでDiTの性能を上回り, 優れたスケーラビリティを示す。
ImageNet 256x256 と 512x512 の最先端拡散モデルと比較すると,最大 62% GFLOP の削減など,我々の最大のモデルには顕著な利点がある。
論文 参考訳(メタデータ) (2024-08-05T16:39:39Z) - PixMamba: Leveraging State Space Models in a Dual-Level Architecture for Underwater Image Enhancement [7.443057703389351]
水中画像強調(UIE)は海洋調査や探査に重要であるが、複雑な色歪みと激しいぼやけによって妨げられている。
近年のディープラーニングに基づく手法は目覚ましい成果を上げているが、これらの手法は高い計算コストと不十分なグローバルモデリングに苦慮している。
我々は,ステートスペースモデル(SSM)を活用して,効率的なグローバル依存性モデリングを実現することにより,これらの課題を克服するために設計された新しいアーキテクチャであるPixMambaを提案する。
論文 参考訳(メタデータ) (2024-06-12T17:34:38Z) - DiM: Diffusion Mamba for Efficient High-Resolution Image Synthesis [56.849285913695184]
Diffusion Mamba (DiM) は高分解能画像合成のためのシーケンスモデルである。
DiMアーキテクチャは高解像度画像の推論時間効率を実現する。
実験は、我々のDiMの有効性と効率を実証する。
論文 参考訳(メタデータ) (2024-05-23T06:53:18Z) - MambaUIE&SR: Unraveling the Ocean's Secrets with Only 2.8 GFLOPs [1.7648680700685022]
水中画像強調(UIE)技術は,光吸収・散乱による水中画像劣化問題に対処することを目的としている。
近年、畳み込みニューラルネットワーク(CNN)とトランスフォーマーベースの手法が広く研究されている。
MambaUIEは、グローバルおよびローカル情報を効率的に合成することができ、非常に少数のパラメータを高い精度で保持する。
論文 参考訳(メタデータ) (2024-04-22T05:12:11Z) - CU-Mamba: Selective State Space Models with Channel Learning for Image Restoration [7.292363114816646]
本稿では,二つの状態空間モデルフレームワークをU-Netアーキテクチャに組み込んだChannel-Aware U-Shaped Mambaモデルを紹介する。
実験は、CU-Mambaが既存の最先端手法よりも優れていることを検証する。
論文 参考訳(メタデータ) (2024-04-17T22:02:22Z) - MambaIR: A Simple Baseline for Image Restoration with State-Space Model [46.827053426281715]
我々は,バニラ・マンバを改善するために,局部増強とチャンネルアテンションを導入するMambaIRを紹介した。
本手法は,画像SR上でSwinIRを最大0.45dB向上させる。
論文 参考訳(メタデータ) (2024-02-23T23:15:54Z) - Swin-UMamba: Mamba-based UNet with ImageNet-based pretraining [85.08169822181685]
本稿では,医療画像のセグメンテーションに特化して設計された新しいマンバモデルSwin-UMambaを紹介する。
Swin-UMamba は CNN や ViT,最新の Mamba ベースのモデルと比較して,優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-02-05T18:58:11Z) - DGNet: Dynamic Gradient-Guided Network for Water-Related Optics Image
Enhancement [77.0360085530701]
水中画像強調(UIE)は、水中環境によって引き起こされる複雑な劣化のために難しい課題である。
従来の手法では、劣化過程を理想化し、中音や物体の動きが画像の特徴の分布に与える影響を無視することが多い。
提案手法では,予測画像を用いて疑似ラベルを動的に更新し,動的勾配を加えてネットワークの勾配空間を最適化する。
論文 参考訳(メタデータ) (2023-12-12T06:07:21Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。