論文の概要: LightQANet: Quantized and Adaptive Feature Learning for Low-Light Image Enhancement
- arxiv url: http://arxiv.org/abs/2510.14753v1
- Date: Thu, 16 Oct 2025 14:54:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.910432
- Title: LightQANet: Quantized and Adaptive Feature Learning for Low-Light Image Enhancement
- Title(参考訳): LightQANet: 低光画像強調のための量子化および適応的特徴学習
- Authors: Xu Wu, Zhihui Lai, Xianxu Hou, Jie Zhou, Ya-nan Zhang, Linlin Shen,
- Abstract要約: 低照度画像強調は、高品質な色とテクスチャを維持しながら照明を改善することを目的としている。
既存の手法では、低照度条件下での画素レベルの情報劣化により、信頼性の高い特徴表現の抽出に失敗することが多い。
低照度向上のための量子化・適応型特徴学習を実現する新しいフレームワークLightQANetを提案する。
- 参考スコア(独自算出の注目度): 65.06462316546806
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Low-light image enhancement (LLIE) aims to improve illumination while preserving high-quality color and texture. However, existing methods often fail to extract reliable feature representations due to severely degraded pixel-level information under low-light conditions, resulting in poor texture restoration, color inconsistency, and artifact. To address these challenges, we propose LightQANet, a novel framework that introduces quantized and adaptive feature learning for low-light enhancement, aiming to achieve consistent and robust image quality across diverse lighting conditions. From the static modeling perspective, we design a Light Quantization Module (LQM) to explicitly extract and quantify illumination-related factors from image features. By enforcing structured light factor learning, LQM enhances the extraction of light-invariant representations and mitigates feature inconsistency across varying illumination levels. From the dynamic adaptation perspective, we introduce a Light-Aware Prompt Module (LAPM), which encodes illumination priors into learnable prompts to dynamically guide the feature learning process. LAPM enables the model to flexibly adapt to complex and continuously changing lighting conditions, further improving image enhancement. Extensive experiments on multiple low-light datasets demonstrate that our method achieves state-of-the-art performance, delivering superior qualitative and quantitative results across various challenging lighting scenarios.
- Abstract(参考訳): 低照度画像強調(LLIE)は、高品質な色とテクスチャを維持しながら照明を改善することを目的としている。
しかし、既存の手法では、低照度条件下での画素レベルの情報劣化により、信頼性の高い特徴表現の抽出に失敗することが多く、テクスチャ復元の貧弱さ、色の不整合、アーティファクトが生じる。
これらの課題に対処するために、低照度化のための量子化・適応的特徴学習を導入した新しいフレームワークLightQANetを提案する。
静的モデリングの観点から、画像特徴から照明関連因子を明示的に抽出し定量化するための光量子化モジュール(LQM)を設計する。
構造的光因子学習を強制することにより、LQMは光不変表現の抽出を強化し、様々な照明レベルにまたがる特徴的矛盾を緩和する。
動的適応の観点から、照明前処理を学習可能なプロンプトにエンコードし、特徴学習プロセスを動的にガイドする光対応プロンプトモジュール(LAPM)を導入する。
LAPMにより、モデルは複雑で連続的に変化する照明条件に柔軟に適応し、さらに画像の強調を改善することができる。
複数の低照度データセットに対する大規模な実験により、本手法は最先端の性能を実現し、様々な難解な照明シナリオに対して質的かつ定量的な結果をもたらすことを示した。
関連論文リスト
- SAIGFormer: A Spatially-Adaptive Illumination-Guided Network for Low-Light Image Enhancement [58.79901582809091]
近年, トランスフォーマーを用いた低照度化手法は, 世界照明の回復に有望な進展をもたらした。
近年, トランスフォーマーを用いた低照度化手法は, 世界照明の回復に有望な進展をもたらした。
正確な照明復元を可能にする空間適応照明誘導変圧器フレームワークを提案する。
論文 参考訳(メタデータ) (2025-07-21T11:38:56Z) - CodeEnhance: A Codebook-Driven Approach for Low-Light Image Enhancement [97.95330185793358]
低照度画像強調(LLIE)は、低照度画像を改善することを目的としている。
既存の手法では、様々な明るさ劣化からの回復の不確実性と、テクスチャと色情報の喪失という2つの課題に直面している。
我々は、量子化された先行値と画像の精細化を利用して、新しいエンハンスメント手法、CodeEnhanceを提案する。
論文 参考訳(メタデータ) (2024-04-08T07:34:39Z) - A Non-Uniform Low-Light Image Enhancement Method with Multi-Scale
Attention Transformer and Luminance Consistency Loss [11.585269110131659]
低照度画像強調は、薄暗い環境で収集された画像の知覚を改善することを目的としている。
既存の方法では、識別された輝度情報を適応的に抽出することができず、露光過多や露光過多を容易に引き起こすことができる。
MSATrというマルチスケールアテンション変換器を提案し,光バランスの局所的・グローバル的特徴を十分に抽出し,視覚的品質を向上させる。
論文 参考訳(メタデータ) (2023-12-27T10:07:11Z) - Diving into Darkness: A Dual-Modulated Framework for High-Fidelity
Super-Resolution in Ultra-Dark Environments [51.58771256128329]
本稿では,低照度超解像課題の性質を深く理解しようとする,特殊二変調学習フレームワークを提案する。
Illuminance-Semantic Dual Modulation (ISDM) コンポーネントを開発した。
包括的実験は、我々のアプローチが多様で挑戦的な超低照度条件に適用可能であることを示す。
論文 参考訳(メタデータ) (2023-09-11T06:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。