論文の概要: CodeEnhance: A Codebook-Driven Approach for Low-Light Image Enhancement
- arxiv url: http://arxiv.org/abs/2404.05253v1
- Date: Mon, 8 Apr 2024 07:34:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-09 15:13:56.754062
- Title: CodeEnhance: A Codebook-Driven Approach for Low-Light Image Enhancement
- Title(参考訳): CodeEnhance: 低照度画像強調のためのコードブック駆動アプローチ
- Authors: Xu Wu, XianXu Hou, Zhihui Lai, Jie Zhou, Ya-nan Zhang, Witold Pedrycz, Linlin Shen,
- Abstract要約: 低照度画像強調(LLIE)は、低照度画像を改善することを目的としている。
既存の手法では、様々な明るさ劣化からの回復の不確実性と、テクスチャと色情報の喪失という2つの課題に直面している。
我々は、量子化された先行値と画像の精細化を利用して、新しいエンハンスメント手法、CodeEnhanceを提案する。
- 参考スコア(独自算出の注目度): 97.95330185793358
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Low-light image enhancement (LLIE) aims to improve low-illumination images. However, existing methods face two challenges: (1) uncertainty in restoration from diverse brightness degradations; (2) loss of texture and color information caused by noise suppression and light enhancement. In this paper, we propose a novel enhancement approach, CodeEnhance, by leveraging quantized priors and image refinement to address these challenges. In particular, we reframe LLIE as learning an image-to-code mapping from low-light images to discrete codebook, which has been learned from high-quality images. To enhance this process, a Semantic Embedding Module (SEM) is introduced to integrate semantic information with low-level features, and a Codebook Shift (CS) mechanism, designed to adapt the pre-learned codebook to better suit the distinct characteristics of our low-light dataset. Additionally, we present an Interactive Feature Transformation (IFT) module to refine texture and color information during image reconstruction, allowing for interactive enhancement based on user preferences. Extensive experiments on both real-world and synthetic benchmarks demonstrate that the incorporation of prior knowledge and controllable information transfer significantly enhances LLIE performance in terms of quality and fidelity. The proposed CodeEnhance exhibits superior robustness to various degradations, including uneven illumination, noise, and color distortion.
- Abstract(参考訳): 低照度画像強調(LLIE)は、低照度画像を改善することを目的としている。
しかし, 従来の手法では, 1) 多様な明るさ劣化からの回復の不確実性, (2) 騒音抑制や光の増強によるテクスチャや色情報の喪失, という2つの課題に直面している。
本稿では、これらの課題に対処するために、量子化された事前情報と画像の精細化を活用して、新しいエンハンスメント手法、CodeEnhanceを提案する。
特に、LLIEを低照度画像から高画質画像から学習した離散コードブックへのイメージ・ツー・コードマッピングとして再設計する。
このプロセスを強化するために、セマンティック・エンベディング・モジュール(SEM)を導入し、セマンティック・インベディング・モジュールを低レベルな特徴と統合し、コードブック・シフト(CS)メカニズムを導入しました。
さらに、画像再構成時にテクスチャや色情報を洗練するためのInteractive Feature Transformation (IFT) モジュールを提案する。
実世界および合成ベンチマークの広範な実験により、事前知識の取り込みと制御可能な情報伝達により、LLIEの性能は品質と忠実度において著しく向上することが示された。
提案したCodeEnhanceは、不均一照明、ノイズ、色歪みなど、様々な劣化に対して優れた堅牢性を示す。
関連論文リスト
- GLARE: Low Light Image Enhancement via Generative Latent Feature based Codebook Retrieval [80.96706764868898]
我々は、GLARE(Generative LAtent Feature based codebook Retrieval)を介して、新しい低照度画像強調(LLIE)ネットワークを提案する。
Invertible Latent Normalizing Flow (I-LNF) モジュールを開発し、LL特徴分布をNL潜在表現に整合させ、コードブック内の正しいコード検索を保証する。
さまざまなベンチマークデータセットと実世界のデータに対するGLAREの優れたパフォーマンスを確認する実験。
論文 参考訳(メタデータ) (2024-07-17T09:40:15Z) - DARK: Denoising, Amplification, Restoration Kit [0.7670170505111058]
本稿では,低照度条件下での画像強調のための軽量な計算フレームワークを提案する。
我々のモデルは軽量に設計されており、標準のコンシューマハードウェア上でのリアルタイムアプリケーションに対する低計算需要と適合性を保証する。
論文 参考訳(メタデータ) (2024-05-21T16:01:13Z) - A Non-Uniform Low-Light Image Enhancement Method with Multi-Scale
Attention Transformer and Luminance Consistency Loss [11.585269110131659]
低照度画像強調は、薄暗い環境で収集された画像の知覚を改善することを目的としている。
既存の方法では、識別された輝度情報を適応的に抽出することができず、露光過多や露光過多を容易に引き起こすことができる。
MSATrというマルチスケールアテンション変換器を提案し,光バランスの局所的・グローバル的特徴を十分に抽出し,視覚的品質を向上させる。
論文 参考訳(メタデータ) (2023-12-27T10:07:11Z) - Revealing Shadows: Low-Light Image Enhancement Using Self-Calibrated
Illumination [4.913568097686369]
自己校正イルミネーション(Self-Calibrated Illumination, SCI)は、当初RGB画像向けに開発された戦略である。
我々はSCI法を用いて、低照度条件下で通常失われる詳細を強調・明らかにする。
この選択的照明強調方法は、色情報をそのまま残し、画像の色整合性を保つ。
論文 参考訳(メタデータ) (2023-12-23T08:49:19Z) - CDAN: Convolutional dense attention-guided network for low-light image enhancement [2.2530496464901106]
低照度画像は、明度が低下し、色が変色し、細部が小さくなるという課題を生んでいる。
本稿では,低照度画像を改善するための新しいソリューションであるCDAN(Convolutional Dense Attention-guided Network)を紹介する。
CDANは自動エンコーダベースのアーキテクチャと、アテンション機構とスキップ接続によって補完される、畳み込みブロックと密集ブロックを統合している。
論文 参考訳(メタデータ) (2023-08-24T16:22:05Z) - Enhancing Low-light Light Field Images with A Deep Compensation Unfolding Network [52.77569396659629]
本稿では,低光環境下で撮像した光場(LF)画像の復元に,DCUNet(Deep compensation network openfolding)を提案する。
このフレームワークは、中間拡張結果を使用して照明マップを推定し、展開プロセスで新しい拡張結果を生成する。
本稿では,LF画像の特徴を適切に活用するために,擬似明示的特徴相互作用モジュールを提案する。
論文 参考訳(メタデータ) (2023-08-10T07:53:06Z) - Learning Semantic-Aware Knowledge Guidance for Low-Light Image
Enhancement [69.47143451986067]
低照度画像強調法 (LLIE) は、照明の改善方法と正常照度画像の生成方法を検討する。
既存の手法の大部分は、異なる領域のセマンティック情報を考慮せずに、グローバルかつ均一な方法で低照度画像を改善する。
セマンティックセグメンテーションモデルにカプセル化される多種多様な事前学習において、低照度強化モデルを支援する新しいセマンティック・アウェア・ナレッジ誘導フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-14T10:22:28Z) - Invertible Network for Unpaired Low-light Image Enhancement [78.33382003460903]
本稿では,非可逆的ネットワークを活用して,前処理における低照度画像の強化と,非対向学習により逆向きに通常の照度画像の劣化を図ることを提案する。
対向的損失に加えて、トレーニングの安定性を確保し、より詳細な画像を保存するために、様々な損失関数を設計する。
低照度画像に対するプログレッシブ自己誘導強調処理を提案し,SOTAに対して良好な性能を示す。
論文 参考訳(メタデータ) (2021-12-24T17:00:54Z) - Degrade is Upgrade: Learning Degradation for Low-light Image Enhancement [52.49231695707198]
2段階の工程で細部と色を精錬しながら、内在的な劣化と低照度画像を照らし出す。
カラー画像の定式化に触発されて,まず低照度入力からの劣化を推定し,環境照明色の歪みをシミュレーションし,そのコンテンツを精錬して拡散照明色の損失を回復した。
LOL1000データセットではPSNRで0.95dB、ExDarkデータセットでは3.18%のmAPでSOTAを上回った。
論文 参考訳(メタデータ) (2021-03-19T04:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。