論文の概要: LLEMamba: Low-Light Enhancement via Relighting-Guided Mamba with Deep Unfolding Network
- arxiv url: http://arxiv.org/abs/2406.01028v1
- Date: Mon, 3 Jun 2024 06:23:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-06-06 02:17:50.690581
- Title: LLEMamba: Low-Light Enhancement via Relighting-Guided Mamba with Deep Unfolding Network
- Title(参考訳): LLEMamba:ディープ・アンフォールディング・ネットワークを用いたライティングガイドマンバによる低照度化
- Authors: Xuanqi Zhang, Haijin Zeng, Jinwang Pan, Qiangqiang Shen, Yongyong Chen,
- Abstract要約: 深部展開ネットワーク(LLEMamba)を用いた照明誘導型マンバによる新しい低照度化手法を提案する。
我々のLLEMambaは、まず、深く展開するネットワークに乗算器の交互方向法(ADMM)に基づく反復最適化過程を組み込んだ、深い事前を持つRetinexモデルを構築した。
Transformerとは異なり、複数のイテレーションで深層展開フレームワークを支援するため、LLEMambaは計算複雑性の低い新しいMambaアーキテクチャを導入した。
- 参考スコア(独自算出の注目度): 9.987504237289832
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transformer-based low-light enhancement methods have yielded promising performance by effectively capturing long-range dependencies in a global context. However, their elevated computational demand limits the scalability of multiple iterations in deep unfolding networks, and hence they have difficulty in flexibly balancing interpretability and distortion. To address this issue, we propose a novel Low-Light Enhancement method via relighting-guided Mamba with a deep unfolding network (LLEMamba), whose theoretical interpretability and fidelity are guaranteed by Retinex optimization and Mamba deep priors, respectively. Specifically, our LLEMamba first constructs a Retinex model with deep priors, embedding the iterative optimization process based on the Alternating Direction Method of Multipliers (ADMM) within a deep unfolding network. Unlike Transformer, to assist the deep unfolding framework with multiple iterations, the proposed LLEMamba introduces a novel Mamba architecture with lower computational complexity, which not only achieves light-dependent global visual context for dark images during reflectance relight but also optimizes to obtain more stable closed-form solutions. Experiments on the benchmarks show that LLEMamba achieves superior quantitative evaluations and lower distortion visual results compared to existing state-of-the-art methods.
- Abstract(参考訳): トランスフォーマーをベースとした低照度化手法は,グローバルコンテキストにおける長距離依存性を効果的にキャプチャすることで,有望な性能を実現している。
しかし、その高い計算需要は、深層展開ネットワークにおける複数イテレーションのスケーラビリティを制限するため、解釈可能性と歪みの柔軟バランスが困難である。
この問題に対処するために,Retinex Optimization と Mamba Deep Priors によって理論的解釈性と忠実性が保証される深層展開ネットワーク (LLEMamba) を用いたリライト誘導型マンバによる新しい低照度化手法を提案する。
具体的には、LLEMambaは、まず、深く展開するネットワーク内に、乗算器の交互方向法(ADMM)に基づく反復最適化過程を組み込んだ、深い事前のRetinexモデルを構築します。
Transformerとは異なり、複数のイテレーションで深層展開フレームワークを支援するため、LLEMambaは計算複雑性の低い新しいMambaアーキテクチャを導入している。
ベンチマーク実験により,LLEMambaは既存の最先端手法と比較して,優れた定量的評価と低歪みの視覚的結果が得られることが示された。
関連論文リスト
- Binarized Mamba-Transformer for Lightweight Quad Bayer HybridEVS Demosaicing [21.15110217419682]
本稿では,HybridEVS RAW画像の効率的な復調を実現するために,軽量なマンバ型バイナリニューラルネットワークを提案する。
Bi-Mambaは全ての射影をバイナライズし、コアSelective Scanを完全精度で保持する。
我々は,BMTNetの性能と計算効率の両面において,定量的かつ定性的な実験を行い,BMTNetの有効性を実証した。
論文 参考訳(メタデータ) (2025-03-20T13:32:27Z) - Detail Matters: Mamba-Inspired Joint Unfolding Network for Snapshot Spectral Compressive Imaging [40.80197280147993]
本研究では,HSI再建の非線形および不適切な特徴を克服するために,マンバインスパイアされたジョイント・アンフォールディング・ネットワーク(MiJUN)を提案する。
本稿では,初期最適化段階への依存を減らすために,高速化された展開ネットワーク方式を提案する。
テンソルモード-$k$展開をMambaネットワークに統合することにより,Mambaによる走査戦略を洗練する。
論文 参考訳(メタデータ) (2025-01-02T13:56:23Z) - MambaVO: Deep Visual Odometry Based on Sequential Matching Refinement and Training Smoothing [13.827464353174182]
MambaVOは、マッチング品質を高め、ポーズ推定を改善するために、堅牢でマンバベースのマッチングとトレーニングを実行する。
公開ベンチマークでは、MambaVOとMambaVO++がSOTAのパフォーマンスを示し、リアルタイム実行を保証する。
論文 参考訳(メタデータ) (2024-12-28T08:42:48Z) - Mamba-SEUNet: Mamba UNet for Monaural Speech Enhancement [54.427965535613886]
Mambaは、新しいステートスペースモデル(SSM)として、自然言語処理やコンピュータビジョンに広く応用されている。
本稿では,MambaとU-Net for SEタスクを統合する革新的なアーキテクチャであるMamba-SEUNetを紹介する。
論文 参考訳(メタデータ) (2024-12-21T13:43:51Z) - MobileMamba: Lightweight Multi-Receptive Visual Mamba Network [51.33486891724516]
従来の軽量モデルの研究は、主にCNNとTransformerベースの設計に重点を置いてきた。
効率と性能のバランスをとるMobileMambaフレームワークを提案する。
MobileMambaはTop-1で83.6%を達成し、既存の最先端の手法を上回っている。
論文 参考訳(メタデータ) (2024-11-24T18:01:05Z) - ECMamba: Consolidating Selective State Space Model with Retinex Guidance for Efficient Multiple Exposure Correction [48.77198487543991]
本稿では,反射率と照明マップの復元を目的とした,二重経路を持つ露出補正のためのMamba(ECMamba)に基づく新しいフレームワークを提案する。
具体的には、Retinex理論を導出し、入力を2つの中間空間にマッピングできるRetinex推定器を訓練する。
我々は、ECMMのコア演算子として、Retinex情報(Retinex-SS2D)で案内される新しい2次元選択状態空間層を開発する。
論文 参考訳(メタデータ) (2024-10-28T21:02:46Z) - ReMamba: Equip Mamba with Effective Long-Sequence Modeling [50.530839868893786]
本研究では,長い文脈の理解能力を高めるReMambaを提案する。
ReMambaは2段階のプロセスで選択的圧縮と適応のテクニックを取り入れている。
論文 参考訳(メタデータ) (2024-08-28T02:47:27Z) - Cross-Scan Mamba with Masked Training for Robust Spectral Imaging [51.557804095896174]
本研究では,空間スペクトルSSMを用いたクロススキャンマンバ(CS-Mamba)を提案する。
実験の結果, CS-Mambaは最先端の性能を達成し, マスク付きトレーニング手法によりスムーズな特徴を再構築し, 視覚的品質を向上させることができた。
論文 参考訳(メタデータ) (2024-08-01T15:14:10Z) - ECoFLaP: Efficient Coarse-to-Fine Layer-Wise Pruning for Vision-Language
Models [70.45441031021291]
LVLM(Large Vision-Language Models)は、様々なモダリティから豊富な情報を統合することで、世界を包括的に理解することができる。
LVLMは計算/エネルギーの膨大なコストと炭素消費のためにしばしば問題となる。
本稿では,LVLMの2段間粗大な重み付け法であるECoFLaP(Efficient Coarse-to-Fine LayerWise Pruning)を提案する。
論文 参考訳(メタデータ) (2023-10-04T17:34:00Z) - Dual Degradation-Inspired Deep Unfolding Network for Low-Light Image
Enhancement [3.4929041108486185]
低照度画像強調のためのDual degrAdation-inSpired Deep Unfolding Network(DASUNet)を提案する。
輝度空間と色空間の間の劣化特異性を考慮することによって、2つの異なる画像先行性を学ぶ。
ソースコードと事前訓練されたモデルは公開されます。
論文 参考訳(メタデータ) (2023-08-05T03:07:11Z) - Low-light Image Enhancement by Retinex Based Algorithm Unrolling and
Adjustment [50.13230641857892]
本稿では,低照度画像強調(LIE)問題に対する新たなディープラーニングフレームワークを提案する。
提案フレームワークは,大域的明るさと局所的明るさ感度の両方を考慮したアルゴリズムアンロールと調整ネットワークに着想を得た分解ネットワークを含む。
一連の典型的なLIEデータセットの実験では,既存の手法と比較して,定量的かつ視覚的に,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-02-12T03:59:38Z) - NerfingMVS: Guided Optimization of Neural Radiance Fields for Indoor
Multi-view Stereo [97.07453889070574]
本稿では,従来のSfM再構成と学習に基づく先行手法を併用した多視点深度推定手法を提案する。
提案手法は室内シーンにおける最先端手法を著しく上回ることを示す。
論文 参考訳(メタデータ) (2021-09-02T17:54:31Z) - ReLLIE: Deep Reinforcement Learning for Customized Low-Light Image
Enhancement [21.680891925479195]
低照度画像強調(LLIE)は広く普及するが難しい問題である。
本稿では、低照度化をカスタマイズするReLLIEと呼ばれる新しい深層強化学習手法を提案する。
論文 参考訳(メタデータ) (2021-07-13T03:36:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。