論文の概要: EvRWKV: A RWKV Framework for Effective Event-guided Low-Light Image Enhancement
- arxiv url: http://arxiv.org/abs/2507.03184v1
- Date: Tue, 01 Jul 2025 19:05:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.612417
- Title: EvRWKV: A RWKV Framework for Effective Event-guided Low-Light Image Enhancement
- Title(参考訳): EvRWKV: 効果的なイベント誘導低光画像強調のためのRWKVフレームワーク
- Authors: WenJie Cai, Qingguo Meng, Zhenyu Wang, Xingbo Dong, Zhe Jin,
- Abstract要約: EvRWKVは、二重ドメイン処理による連続的な相互モーダル相互作用を実現する新しいフレームワークである。
我々は,EvRWKVが最先端性能を実現し,ノイズを抑制し,構造的詳細を復元し,低照度環境に挑戦する際の視覚的明瞭度を向上させることにより,画像品質を効果的に向上することを示す。
- 参考スコア(独自算出の注目度): 10.556338127441167
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Capturing high-quality visual content under low-light conditions remains a challenging problem due to severe noise, motion blur, and underexposure, which degrade the performance of downstream applications. Traditional frame-based low-light enhancement methods often amplify noise or fail to preserve structural details, especially in real-world scenarios. Event cameras, offering high dynamic range and microsecond temporal resolution by asynchronously capturing brightness changes, emerge as promising alternatives for low-light imaging. However, existing event-image fusion methods suffer from simplistic fusion strategies and inadequate handling of spatial-temporal misalignment and noise. To address these challenges, we propose EvRWKV, a novel framework that enables continuous cross-modal interaction through dual-domain processing. Our approach incorporates a Cross-RWKV module, leveraging the Receptance Weighted Key Value (RWKV) architecture for fine-grained temporal and cross-modal fusion, and an Event Image Spectral Fusion Enhancer (EISFE) module, which jointly performs adaptive frequency-domain noise suppression and spatial-domain deformable convolution alignment. Extensive qualitative and quantitative evaluations on real-world low-light datasets(SDE, SDSD, RELED) demonstrate that EvRWKV achieves state-of-the-art performance, effectively enhancing image quality by suppressing noise, restoring structural details, and improving visual clarity in challenging low-light conditions.
- Abstract(参考訳): 低照度条件下での高品質な視覚コンテンツをキャプチャすることは、ダウンストリームアプリケーションの性能を低下させる激しいノイズ、動きのぼかし、過度な露出のために依然として難しい問題である。
従来のフレームベースの低照度拡張手法は、特に現実のシナリオにおいて、ノイズを増幅したり、構造的な詳細を保存するのに失敗することが多い。
イベントカメラは、輝度変化を非同期にキャプチャすることで、高ダイナミックレンジとマイクロ秒の時間分解能を提供する。
しかし、既存の事象像融合法は、単純な融合戦略と空間的時間的ずれとノイズの不十分な処理に悩まされている。
これらの課題に対処するために、デュアルドメイン処理による連続的な相互モーダル相互作用を実現する新しいフレームワークであるEvRWKVを提案する。
提案手法では,Receptance Weighted Key Value (RWKV) アーキテクチャを応用したクロスRWKVモジュールと,適応周波数領域雑音抑圧と空間領域変形可能な畳み込みアライメントを行うEvent Image Spectral Fusion Enhancer (EISFE) モジュールを併用する。
実世界の低照度データセット(SDE,SDSD,RELED)の大規模定性的・定量的評価は、EvRWKVが最先端の性能を実現し、ノイズを抑制し、構造的詳細を復元することで画像品質を効果的に向上し、低照度に挑戦する際の視覚的明瞭度を向上させることを実証している。
関連論文リスト
- Exploring Fourier Prior and Event Collaboration for Low-Light Image Enhancement [1.8724535169356553]
イベントカメラは低照度画像強調のための性能向上を提供する。
現在、既存のイベントベースのメソッドは、フレームとイベントを直接単一のモデルにフィードする。
本稿では,振幅-位相絡み付き可視性回復ネットワークを提案する。
第2段階では、空間的ミスマッチを軽減するために、動的アライメントを伴う融合戦略を提案する。
論文 参考訳(メタデータ) (2025-08-01T04:25:00Z) - Bidirectional Image-Event Guided Low-Light Image Enhancement [18.482432245937247]
極端に低照度な条件下では、伝統的なフレームベースのカメラは、ダイナミックレンジと時間分解能が限られており、撮影画像の細部が失われ、動きがぼやけている。
このボトルネックを克服するため、研究者はイベントカメラを導入し、イベント誘導低照度画像強調アルゴリズムを提案した。
しかし, これらの手法は, ダイナミック照明条件による大域的低周波雑音の影響を無視し, スパース事象データにおける局所構造の不連続性も無視する。
論文 参考訳(メタデータ) (2025-06-06T14:28:17Z) - Structure-guided Diffusion Transformer for Low-Light Image Enhancement [19.90700077104533]
我々は、低光強調タスクにDiTを導入し、新しい構造誘導拡散変換器に基づく低光強調フレームワークを設計する。
ウェーブレット変換により特徴量を圧縮し、モデルの推論効率を改善し、多方向周波数帯域を捕捉する。
さらに,構造誘導型注意ブロック(SAB)を提案し,テクスチャに富んだトークンに注意を払い,ノイズ予測におけるノイズ領域からの干渉を避ける。
論文 参考訳(メタデータ) (2025-04-21T12:30:01Z) - Rethinking High-speed Image Reconstruction Framework with Spike Camera [48.627095354244204]
スパイクカメラは連続的なスパイクストリームを生成し、従来のRGBカメラよりも低帯域幅でダイナミックレンジの高速シーンをキャプチャする。
従来のトレーニングパラダイムを超える新しいスパイク・ツー・イメージ再構築フレームワークであるSpikeCLIPを導入する。
実世界の低照度データセットに対する実験により、SpikeCLIPはテクスチャの詳細と回復した画像の輝度バランスを大幅に向上することが示された。
論文 参考訳(メタデータ) (2025-01-08T13:00:17Z) - Retinex-RAWMamba: Bridging Demosaicing and Denoising for Low-Light RAW Image Enhancement [71.13353154514418]
低照度画像の強化、特に生ドメインからsRGBドメインへのマッピングのようなクロスドメインタスクは、依然として大きな課題である。
RAWMambaと呼ばれる低照度RAW画像用にカスタマイズされた新しいMambaベースの手法を提案する。
低照度RAW画像の高精細化を図り、復調を施すことにより、高精細化を実現する。
論文 参考訳(メタデータ) (2024-09-11T06:12:03Z) - Low-Light Video Enhancement via Spatial-Temporal Consistent Decomposition [52.89441679581216]
低照度ビデオエンハンスメント(LLVE)は、激しい視認性とノイズに悩まされる動的または静的なシーンの復元を目指している。
本稿では、ビューに依存しない、ビューに依存しないコンポーネントを組み込んだ革新的なビデオ分解戦略を提案する。
我々のフレームワークは、既存のメソッドを一貫して上回り、新しいSOTAパフォーマンスを確立します。
論文 参考訳(メタデータ) (2024-05-24T15:56:40Z) - LDM-ISP: Enhancing Neural ISP for Low Light with Latent Diffusion Models [54.93010869546011]
本稿では,事前学習した潜伏拡散モデルを用いて,超低照度画像の高精細化のためのニューラルISPを実現することを提案する。
具体的には、RAWドメイン上で動作するために事前訓練された潜在拡散モデルを調整するために、軽量なテーミングモジュールのセットをトレーニングする。
遅延拡散モデルにおけるUNet復調と復号化の異なる役割を観察し、低照度画像強調タスクを遅延空間低周波コンテンツ生成と復号位相高周波ディテール保守に分解するきっかけとなる。
論文 参考訳(メタデータ) (2023-12-02T04:31:51Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - Diffusion in the Dark: A Diffusion Model for Low-Light Text Recognition [78.50328335703914]
ディフュージョン・イン・ザ・ダーク (Diffusion in the Dark, DiD) は、テキスト認識のための低照度画像再構成のための拡散モデルである。
実画像上での低照度テキスト認識において,Digital DiDがSOTAの低照度手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-03-07T23:52:51Z) - INFWIDE: Image and Feature Space Wiener Deconvolution Network for
Non-blind Image Deblurring in Low-Light Conditions [32.35378513394865]
画像と特徴空間Wener deconvolution Network (INFWIDE) と呼ばれる新しい非盲点分解法を提案する。
INFWIDEは、画像空間におけるノイズを除去し、飽和領域を幻覚し、特徴空間におけるリングアーティファクトを抑制する。
合成データと実データを用いた実験は,提案手法の優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-17T15:22:31Z) - Cycle-Interactive Generative Adversarial Network for Robust Unsupervised
Low-Light Enhancement [109.335317310485]
CIGAN(Cycle-Interactive Generative Adversarial Network)は、低照度画像間の照明分布の転送を改善できるだけでなく、詳細な信号も操作できる。
特に、提案した低照度誘導変換は、低照度GAN生成器から劣化GAN生成器へ、低照度画像の特徴をフォワードする。
論文 参考訳(メタデータ) (2022-07-03T06:37:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。