論文の概要: CIVQLLIE: Causal Intervention with Vector Quantization for Low-Light Image Enhancement
- arxiv url: http://arxiv.org/abs/2508.03338v1
- Date: Tue, 05 Aug 2025 11:36:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:55.933969
- Title: CIVQLLIE: Causal Intervention with Vector Quantization for Low-Light Image Enhancement
- Title(参考訳): CIVQLLIE:低照度画像強調のためのベクトル量子化による因果干渉
- Authors: Tongshun Zhang, Pingping Liu, Zhe Zhang, Qiuzhan Zhou,
- Abstract要約: 現在の低照度画像強調法は重大な課題に直面している。
CIVQLLIEは、因果推論による離散表現学習のパワーを活用する新しいフレームワークである。
- 参考スコア(独自算出の注目度): 5.948286668586509
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Images captured in nighttime scenes suffer from severely reduced visibility, hindering effective content perception. Current low-light image enhancement (LLIE) methods face significant challenges: data-driven end-to-end mapping networks lack interpretability or rely on unreliable prior guidance, struggling under extremely dark conditions, while physics-based methods depend on simplified assumptions that often fail in complex real-world scenarios. To address these limitations, we propose CIVQLLIE, a novel framework that leverages the power of discrete representation learning through causal reasoning. We achieve this through Vector Quantization (VQ), which maps continuous image features to a discrete codebook of visual tokens learned from large-scale high-quality images. This codebook serves as a reliable prior, encoding standardized brightness and color patterns that are independent of degradation. However, direct application of VQ to low-light images fails due to distribution shifts between degraded inputs and the learned codebook. Therefore, we propose a multi-level causal intervention approach to systematically correct these shifts. First, during encoding, our Pixel-level Causal Intervention (PCI) module intervenes to align low-level features with the brightness and color distributions expected by the codebook. Second, a Feature-aware Causal Intervention (FCI) mechanism with Low-frequency Selective Attention Gating (LSAG) identifies and enhances channels most affected by illumination degradation, facilitating accurate codebook token matching while enhancing the encoder's generalization performance through flexible feature-level intervention. Finally, during decoding, the High-frequency Detail Reconstruction Module (HDRM) leverages structural information preserved in the matched codebook representations to reconstruct fine details using deformable convolution techniques.
- Abstract(参考訳): 夜間のシーンで撮影された画像は、視界を著しく低下させ、効果的なコンテンツ知覚を妨げる。
現在の低照度画像強調法(LLIE)は、重要な課題に直面している: データ駆動のエンドツーエンドマッピングネットワークは、解釈可能性や信頼性の低い事前ガイダンスに頼らず、非常に暗い条件下で苦しむ一方、物理ベースの手法は、複雑な現実世界のシナリオでしばしば失敗する単純化された仮定に依存する。
これらの制約に対処するために,因果推論による離散表現学習のパワーを活用する新しいフレームワークであるCIVQLLIEを提案する。
これを実現するために、Vector Quantization (VQ) を用いて、連続した画像の特徴を大規模で高品質な画像から学習した視覚トークンの離散コードブックにマッピングする。
このコードブックは、劣化とは無関係に標準化された明るさと色パターンを符号化する信頼性の高い事前情報として機能する。
しかし、劣化した入力と学習したコードブック間の分散シフトにより、VQの低照度画像への直接適用は失敗する。
そこで本研究では,これらの変化を体系的に補正する多段階因果介入手法を提案する。
まず、符号化中にPixelレベルのCausal Intervention(PCI)モジュールが介入し、低レベルの特徴と、コードブックが期待する明るさと色分布を調整します。
第二に、低周波選択注意ゲーティング(LSAG)を用いた特徴認識因果干渉(FCI)機構は、照明劣化によって最も影響を受けるチャネルを特定し、拡張し、エンコーダの一般化性能を高めつつ、正確なコードブックトークンマッチングを容易にする。
最後に、デコード中、HDRM(High- frequency Detail Restruction Module)は一致するコードブック表現に保存された構造情報を利用して、変形可能な畳み込み技術を用いて詳細を再構築する。
関連論文リスト
- From Enhancement to Understanding: Build a Generalized Bridge for Low-light Vision via Semantically Consistent Unsupervised Fine-tuning [65.94580484237737]
低照度向上は下流タスクの画質を向上させるが、既存の手法は物理的または幾何学的先行に頼っている。
我々は、低照度強化と低照度理解の間に一般化された橋を架け、この橋をGEFU(Generalized Enhancement For Understanding)と呼ぶ。
低照度劣化の多様な原因を解決するために,事前学習した生成拡散モデルを用いて画像の最適化を行い,ゼロショット一般化性能を実現する。
論文 参考訳(メタデータ) (2025-07-11T07:51:26Z) - GLARE: Low Light Image Enhancement via Generative Latent Feature based Codebook Retrieval [80.96706764868898]
我々は、GLARE(Generative LAtent Feature based codebook Retrieval)を介して、新しい低照度画像強調(LLIE)ネットワークを提案する。
Invertible Latent Normalizing Flow (I-LNF) モジュールを開発し、LL特徴分布をNL潜在表現に整合させ、コードブック内の正しいコード検索を保証する。
さまざまなベンチマークデータセットと実世界のデータに対するGLAREの優れたパフォーマンスを確認する実験。
論文 参考訳(メタデータ) (2024-07-17T09:40:15Z) - Once-for-All: Controllable Generative Image Compression with Dynamic Granularity Adaptation [52.82508784748278]
本稿では,制御生成画像圧縮フレームワークである制御-GICを提案する。
制御-GICは、高忠実度と一般性圧縮を確保しつつ、広帯域での微粒化適応を可能にする。
実験により,制御-GICは高い柔軟かつ制御可能な適応を可能にし,その結果が最近の最先端手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-06-02T14:22:09Z) - HybridFlow: Infusing Continuity into Masked Codebook for Extreme Low-Bitrate Image Compression [51.04820313355164]
HyrbidFlowは、連続的な機能ベースのストリームとコードブックベースのストリームを組み合わせることで、極めて低い条件下で高い知覚品質と高い忠実性を実現する。
実験の結果、超低速で複数のデータセットにまたがる優れた性能が示された。
論文 参考訳(メタデータ) (2024-04-20T13:19:08Z) - CodeEnhance: A Codebook-Driven Approach for Low-Light Image Enhancement [97.95330185793358]
低照度画像強調(LLIE)は、低照度画像を改善することを目的としている。
既存の手法では、様々な明るさ劣化からの回復の不確実性と、テクスチャと色情報の喪失という2つの課題に直面している。
我々は、量子化された先行値と画像の精細化を利用して、新しいエンハンスメント手法、CodeEnhanceを提案する。
論文 参考訳(メタデータ) (2024-04-08T07:34:39Z) - VQCNIR: Clearer Night Image Restoration with Vector-Quantized Codebook [16.20461368096512]
夜景撮影は、暗い環境や長時間の露光から生じる、暗い光やぼやけなどの課題に苦しむことが多い。
私たちは、データ駆動の高品質な事前処理の強みを信じ、手動による事前処理の制限を回避するために、信頼性と一貫性のある事前処理の提供に努めています。
VQCNIR(Vector-Quantized Codebook)を用いたClearer Night Image Restorationを提案する。
論文 参考訳(メタデータ) (2023-12-14T02:16:27Z) - Towards Robust Blind Face Restoration with Codebook Lookup Transformer [94.48731935629066]
ブラインドフェイスの修復は、しばしば補助的なガイダンスを必要とする非常に不適切な問題である。
学習した個別のコードブックを小さなプロキシ空間に配置し,ブラインドフェイスの復元をコード予測タスクとすることを示す。
我々は、低品質顔のグローバルな構成とコンテキストをモデル化するトランスフォーマーベースの予測ネットワーク、CodeFormerを提案する。
論文 参考訳(メタデータ) (2022-06-22T17:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。