論文の概要: Bidirectional Image-Event Guided Low-Light Image Enhancement
- arxiv url: http://arxiv.org/abs/2506.06120v1
- Date: Fri, 06 Jun 2025 14:28:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.512805
- Title: Bidirectional Image-Event Guided Low-Light Image Enhancement
- Title(参考訳): 双方向画像イベントガイドによる低照度画像強調
- Authors: Zhanwen Liu, Huanna Song, Yang Wang, Nan Yang, Shangyu Xie, Yisheng An, Xiangmo Zhao,
- Abstract要約: 極端に低照度な条件下では、伝統的なフレームベースのカメラは、ダイナミックレンジと時間分解能が限られており、撮影画像の細部が失われ、動きがぼやけている。
このボトルネックを克服するため、研究者はイベントカメラを導入し、イベント誘導低照度画像強調アルゴリズムを提案した。
しかし, これらの手法は, ダイナミック照明条件による大域的低周波雑音の影響を無視し, スパース事象データにおける局所構造の不連続性も無視する。
- 参考スコア(独自算出の注目度): 18.482432245937247
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Under extreme low-light conditions, traditional frame-based cameras, due to their limited dynamic range and temporal resolution, face detail loss and motion blur in captured images. To overcome this bottleneck, researchers have introduced event cameras and proposed event-guided low-light image enhancement algorithms. However, these methods neglect the influence of global low-frequency noise caused by dynamic lighting conditions and local structural discontinuities in sparse event data. To address these issues, we propose an innovative Bidirectional guided Low-light Image Enhancement framework (BiLIE). Specifically, to mitigate the significant low-frequency noise introduced by global illumination step changes, we introduce the frequency high-pass filtering-based Event Feature Enhancement (EFE) module at the event representation level to suppress the interference of low-frequency information, and preserve and highlight the high-frequency edges.Furthermore, we design a Bidirectional Cross Attention Fusion (BCAF) mechanism to acquire high-frequency structures and edges while suppressing structural discontinuities and local noise introduced by sparse event guidance, thereby generating smoother fused representations.Additionally, considering the poor visual quality and color bias in existing datasets, we provide a new dataset (RELIE), with high-quality ground truth through a reliable enhancement scheme. Extensive experimental results demonstrate that our proposed BiLIE outperforms state-of-the-art methods by 0.96dB in PSNR and 0.03 in LPIPS.
- Abstract(参考訳): 極端に低照度な条件下では、伝統的なフレームベースのカメラは、ダイナミックレンジと時間分解能が限られており、撮影画像の細部が失われ、動きがぼやけている。
このボトルネックを克服するため、研究者はイベントカメラを導入し、イベント誘導型低照度画像強調アルゴリズムを提案した。
しかし, これらの手法は, ダイナミック照明条件による大域的低周波雑音の影響を無視し, スパース事象データにおける局所構造の不連続性も無視する。
これらの課題に対処するため,両方向誘導低光画像強調フレームワーク (BiLIE) を提案する。
具体的には、大域的な照明工程の変更によって生じる顕著な低周波ノイズを軽減するため、イベント表現レベルでの周波数高域フィルタリングに基づくイベント特徴強調(EFE)モジュールを導入し、低周波情報の干渉を抑え、高周波エッジを強調・強調する。さらに、スパースイベント誘導による構造的不連続性や局所雑音を抑えながら、高周波構造とエッジを取得するための双方向クロスアテンション融合(BCAF)機構を設計し、既存のデータセットの視覚的品質と色偏差を考慮し、よりスムーズな融合表現を生成する。
以上の結果から,提案したBiLIEはPSNR0.96dB,LPIPS0.03よりも優れていた。
関連論文リスト
- LUMINA-Net: Low-light Upgrade through Multi-stage Illumination and Noise Adaptation Network for Image Enhancement [0.0]
低照度画像強調(LLIE)は、低照度条件下で撮影された画像の視覚的忠実度を高めることを目的としたコンピュータビジョンにおける重要な課題である。
LUMINA-Netは,多段照明モジュールと反射率モジュールを統合した高度なディープラーニングフレームワークである。
論文 参考訳(メタデータ) (2025-02-21T03:37:58Z) - Rethinking High-speed Image Reconstruction Framework with Spike Camera [48.627095354244204]
スパイクカメラは連続的なスパイクストリームを生成し、従来のRGBカメラよりも低帯域幅でダイナミックレンジの高速シーンをキャプチャする。
従来のトレーニングパラダイムを超える新しいスパイク・ツー・イメージ再構築フレームワークであるSpikeCLIPを導入する。
実世界の低照度データセットに対する実験により、SpikeCLIPはテクスチャの詳細と回復した画像の輝度バランスを大幅に向上することが示された。
論文 参考訳(メタデータ) (2025-01-08T13:00:17Z) - LDM-ISP: Enhancing Neural ISP for Low Light with Latent Diffusion Models [54.93010869546011]
本稿では,事前学習した潜伏拡散モデルを用いて,超低照度画像の高精細化のためのニューラルISPを実現することを提案する。
具体的には、RAWドメイン上で動作するために事前訓練された潜在拡散モデルを調整するために、軽量なテーミングモジュールのセットをトレーニングする。
遅延拡散モデルにおけるUNet復調と復号化の異なる役割を観察し、低照度画像強調タスクを遅延空間低周波コンテンツ生成と復号位相高周波ディテール保守に分解するきっかけとなる。
論文 参考訳(メタデータ) (2023-12-02T04:31:51Z) - Advancing Unsupervised Low-light Image Enhancement: Noise Estimation, Illumination Interpolation, and Self-Regulation [55.07472635587852]
低光画像強調(LLIE)技術は、画像の詳細の保存とコントラストの強化に顕著な進歩をもたらした。
これらのアプローチは、動的ノイズを効率的に緩和し、様々な低照度シナリオを収容する上で、永続的な課題に直面する。
まず,低照度画像の雑音レベルを迅速かつ高精度に推定する方法を提案する。
次に、照明と入力の一般的な制約を満たすために、Learningable Illumination Interpolator (LII) を考案する。
論文 参考訳(メタデータ) (2023-05-17T13:56:48Z) - Cycle-Interactive Generative Adversarial Network for Robust Unsupervised
Low-Light Enhancement [109.335317310485]
CIGAN(Cycle-Interactive Generative Adversarial Network)は、低照度画像間の照明分布の転送を改善できるだけでなく、詳細な信号も操作できる。
特に、提案した低照度誘導変換は、低照度GAN生成器から劣化GAN生成器へ、低照度画像の特徴をフォワードする。
論文 参考訳(メタデータ) (2022-07-03T06:37:46Z) - Deep Bilateral Retinex for Low-Light Image Enhancement [96.15991198417552]
低照度画像は、低コントラスト、色歪み、測定ノイズによる視界の低下に悩まされる。
本稿では,低照度画像強調のための深層学習手法を提案する。
提案手法は最先端の手法と非常に競合し, 極めて低照度で撮影した画像の処理において, 他に比べて大きな優位性を有する。
論文 参考訳(メタデータ) (2020-07-04T06:26:44Z) - Unsupervised Low-light Image Enhancement with Decoupled Networks [103.74355338972123]
我々は、実世界の低照度画像を教師なしで拡張する2段階のGANベースのフレームワークを学習する。
提案手法は,照度向上と雑音低減の両面から,最先端の教師なし画像強調法より優れる。
論文 参考訳(メタデータ) (2020-05-06T13:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。