論文の概要: Low-Light Enhancement via Encoder-Decoder Network with Illumination Guidance
- arxiv url: http://arxiv.org/abs/2507.13360v1
- Date: Fri, 04 Jul 2025 09:35:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-27 08:26:15.896735
- Title: Low-Light Enhancement via Encoder-Decoder Network with Illumination Guidance
- Title(参考訳): 照明誘導を用いたエンコーダデコーダネットワークによる低照度化
- Authors: Le-Anh Tran, Chung Nguyen Tran, Ngoc-Luu Nguyen, Nhan Cach Dang, Jordi Carrabina, David Castells-Rufas, Minh Son Nguyen,
- Abstract要約: 本稿では,低照度画像強調のための新しいディープラーニングフレームワーク,Theを紹介する。
Illumination Guidance (EDNIG) を用いたデコーダネットワーク
EDNIGはBright Channel Prior (BCP)から派生した照明マップをガイダンス入力として統合する。
合成損失関数を用いてGAN(Generative Adversarial Network)フレームワーク内で最適化され、対向損失、画素単位の平均二乗誤差(MSE)、知覚損失を組み合わせた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a novel deep learning framework for low-light image enhancement, named the Encoder-Decoder Network with Illumination Guidance (EDNIG). Building upon the U-Net architecture, EDNIG integrates an illumination map, derived from Bright Channel Prior (BCP), as a guidance input. This illumination guidance helps the network focus on underexposed regions, effectively steering the enhancement process. To further improve the model's representational power, a Spatial Pyramid Pooling (SPP) module is incorporated to extract multi-scale contextual features, enabling better handling of diverse lighting conditions. Additionally, the Swish activation function is employed to ensure smoother gradient propagation during training. EDNIG is optimized within a Generative Adversarial Network (GAN) framework using a composite loss function that combines adversarial loss, pixel-wise mean squared error (MSE), and perceptual loss. Experimental results show that EDNIG achieves competitive performance compared to state-of-the-art methods in quantitative metrics and visual quality, while maintaining lower model complexity, demonstrating its suitability for real-world applications. The source code for this work is available at https://github.com/tranleanh/ednig.
- Abstract(参考訳): 本稿では,照明誘導型エンコーダ・デコーダネットワーク(EDNIG)という,低照度画像強調のための新しいディープラーニングフレームワークを提案する。
U-Netアーキテクチャに基づいて、EDNIGはBright Channel Prior (BCP)から派生した照明マップをガイダンス入力として統合する。
この照明誘導は、未公開領域にネットワークが集中し、拡張プロセスを効果的に操るのに役立つ。
モデルの表現力をさらに向上するために、空間ピラミッドプーリング(SPP)モジュールが組み込まれ、多様な照明条件のより優れた処理を可能にした。
さらに、トレーニング中によりスムーズな勾配伝播を保証するために、SwishActivation関数が使用される。
EDNIGはGAN(Generative Adversarial Network)フレームワーク内で、対向損失、画素ワイド平均二乗誤差(MSE)、知覚損失を組み合わせた複合損失関数を用いて最適化されている。
実験結果から,EDNIGは定量的な測定値と視覚的品質の最先端手法と比較して,より低いモデル複雑性を維持しつつ,実世界のアプリケーションに適合することを示す。
この作業のソースコードはhttps://github.com/tranleanh/ednig.comで公開されている。
関連論文リスト
- SAIGFormer: A Spatially-Adaptive Illumination-Guided Network for Low-Light Image Enhancement [58.79901582809091]
近年, トランスフォーマーを用いた低照度化手法は, 世界照明の回復に有望な進展をもたらした。
近年, トランスフォーマーを用いた低照度化手法は, 世界照明の回復に有望な進展をもたらした。
正確な照明復元を可能にする空間適応照明誘導変圧器フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-21T11:38:56Z) - Towards Scale-Aware Low-Light Enhancement via Structure-Guided Transformer Design [13.587511215001115]
現在の低照度画像強調(LLIE)技術は、ローライト(LL)からノーマルライト(NL)へのマッピングや、セマンティックな特徴や照明マップからのガイダンスに依存している。
SG-LLIEはCNN-Transformerのマルチスケールなハイブリッドフレームワークである。
NTIRE 2025 Low-Light Enhancement Challengeで2位にランクインした。
論文 参考訳(メタデータ) (2025-04-18T20:57:16Z) - Latent Disentanglement for Low Light Image Enhancement [4.527270266697463]
低照度ビジョンタスクのための潜在ディスタングルベースエンハンスネットワーク(LDE-Net)を提案する。
潜伏不絡モジュールは、非絡合コンテンツおよび照度成分に汚損が残らないように、潜伏空間で入力画像を非絡合する。
ダウンストリームタスク(夜間UAV追跡や低照度物体検出など)に対しては、潜時非絡み合いフレームワークに基づく効果的な軽量エンハンサを開発する。
論文 参考訳(メタデータ) (2024-08-12T15:54:46Z) - GLARE: Low Light Image Enhancement via Generative Latent Feature based Codebook Retrieval [80.96706764868898]
我々は、GLARE(Generative LAtent Feature based codebook Retrieval)を介して、新しい低照度画像強調(LLIE)ネットワークを提案する。
Invertible Latent Normalizing Flow (I-LNF) モジュールを開発し、LL特徴分布をNL潜在表現に整合させ、コードブック内の正しいコード検索を保証する。
さまざまなベンチマークデータセットと実世界のデータに対するGLAREの優れたパフォーマンスを確認する実験。
論文 参考訳(メタデータ) (2024-07-17T09:40:15Z) - CodeEnhance: A Codebook-Driven Approach for Low-Light Image Enhancement [97.95330185793358]
低照度画像強調(LLIE)は、低照度画像を改善することを目的としている。
既存の手法では、様々な明るさ劣化からの回復の不確実性と、テクスチャと色情報の喪失という2つの課題に直面している。
我々は、量子化された先行値と画像の精細化を利用して、新しいエンハンスメント手法、CodeEnhanceを提案する。
論文 参考訳(メタデータ) (2024-04-08T07:34:39Z) - VQCNIR: Clearer Night Image Restoration with Vector-Quantized Codebook [16.20461368096512]
夜景撮影は、暗い環境や長時間の露光から生じる、暗い光やぼやけなどの課題に苦しむことが多い。
私たちは、データ駆動の高品質な事前処理の強みを信じ、手動による事前処理の制限を回避するために、信頼性と一貫性のある事前処理の提供に努めています。
VQCNIR(Vector-Quantized Codebook)を用いたClearer Night Image Restorationを提案する。
論文 参考訳(メタデータ) (2023-12-14T02:16:27Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - Toward Fast, Flexible, and Robust Low-Light Image Enhancement [87.27326390675155]
我々は、現実の低照度シナリオにおいて、高速でフレキシブルで頑健な鮮明化のための新しい自己校正イルミネーション(SCI)学習フレームワークを開発した。
カスケードパターンの計算負担を考慮すると、各ステージの結果の収束を実現する自己校正モジュールを構築する。
我々は,SCI固有の特性について,操作不感適応性やモデル非関係の一般性を含む包括的探索を行う。
論文 参考訳(メタデータ) (2022-04-21T14:40:32Z) - Learning Deep Context-Sensitive Decomposition for Low-Light Image
Enhancement [58.72667941107544]
典型的なフレームワークは、照明と反射を同時に推定することであるが、特徴空間にカプセル化されたシーンレベルの文脈情報を無視する。
本研究では,空間スケールにおけるシーンレベルのコンテキスト依存を生かした,コンテキスト依存型分解ネットワークアーキテクチャを提案する。
チャネル数を減らして軽量なCSDNet(LiteCSDNet)を開発する。
論文 参考訳(メタデータ) (2021-12-09T06:25:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。