論文の概要: Zero-Reference Low-Light Enhancement via Physical Quadruple Priors
- arxiv url: http://arxiv.org/abs/2403.12933v1
- Date: Tue, 19 Mar 2024 17:36:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-20 13:14:11.364367
- Title: Zero-Reference Low-Light Enhancement via Physical Quadruple Priors
- Title(参考訳): 物理四重項前駆体によるゼロ参照低光強調
- Authors: Wenjing Wang, Huan Yang, Jianlong Fu, Jiaying Liu,
- Abstract要約: 本稿では,標準光画像のみをトレーニング可能な,ゼロ参照低光強調フレームワークを提案する。
このフレームワークは、画像にさかのぼる照明不変性を復元し、自動的に低照度化を実現します。
- 参考スコア(独自算出の注目度): 58.77377454210244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding illumination and reducing the need for supervision pose a significant challenge in low-light enhancement. Current approaches are highly sensitive to data usage during training and illumination-specific hyper-parameters, limiting their ability to handle unseen scenarios. In this paper, we propose a new zero-reference low-light enhancement framework trainable solely with normal light images. To accomplish this, we devise an illumination-invariant prior inspired by the theory of physical light transfer. This prior serves as the bridge between normal and low-light images. Then, we develop a prior-to-image framework trained without low-light data. During testing, this framework is able to restore our illumination-invariant prior back to images, automatically achieving low-light enhancement. Within this framework, we leverage a pretrained generative diffusion model for model ability, introduce a bypass decoder to handle detail distortion, as well as offer a lightweight version for practicality. Extensive experiments demonstrate our framework's superiority in various scenarios as well as good interpretability, robustness, and efficiency. Code is available on our project homepage: http://daooshee.github.io/QuadPrior-Website/
- Abstract(参考訳): 照明の理解と監督の必要性の低減は、低照度化において大きな課題となる。
現在のアプローチは、トレーニング中のデータ使用量や照明特有のハイパーパラメータに非常に敏感で、目に見えないシナリオを扱う能力を制限する。
本稿では,通常の光画像のみをトレーニング可能な,ゼロ参照低照度化フレームワークを提案する。
これを達成するために、物理光伝達理論に着想を得た照明不変量を考案する。
この前は、通常の画像と低照度画像の間のブリッジとして機能していた。
そこで我々は,低照度データを使わずにトレーニングした事前イメージフレームワークを開発した。
テスト中、このフレームワークは画像に戻す前に照明の不変性を復元し、自動的に低照度化を実現します。
本フレームワークでは,事前学習した生成拡散モデルをモデル能力に適用し,ディテール歪みを処理するバイパスデコーダを導入し,実用性のための軽量バージョンを提供する。
大規模な実験では、さまざまなシナリオにおけるフレームワークの優位性に加えて、優れた解釈可能性、堅牢性、効率性が示されています。
コードはプロジェクトのホームページで公開されている。
関連論文リスト
- Zero-LED: Zero-Reference Lighting Estimation Diffusion Model for Low-Light Image Enhancement [2.9873893715462185]
ゼロLEDと呼ばれる低照度画像強調のための新しいゼロ参照光推定拡散モデルを提案する。
拡散モデルの安定収束能力を利用して、低照度領域と実常照度領域の間のギャップを埋める。
ゼロ参照学習を通じてペアのトレーニングデータへの依存を緩和する。
論文 参考訳(メタデータ) (2024-03-05T11:39:17Z) - Boosting Object Detection with Zero-Shot Day-Night Domain Adaptation [33.142262765252795]
精巧なデータで訓練された検出器は、可視性が低いため、低照度データに対して顕著な性能低下を示す。
我々は、ゼロショット昼夜領域適応による低照度物体検出の高速化を提案する。
本手法は,低照度データを必要とすることなく,高照度シナリオから低照度シナリオへの検出器の一般化を行う。
論文 参考訳(メタデータ) (2023-12-02T20:11:48Z) - Empowering Low-Light Image Enhancer through Customized Learnable Priors [40.83461757842304]
そこで本稿では,学習先をカスタマイズする可能性を探る,低照度画像強調のためのパラダイムを提案する。
Masked Autoencoder(MAE)の強力な特徴表現機能によって、我々はMAEベースの照明とノイズ先行をカスタマイズする。
論文 参考訳(メタデータ) (2023-09-05T05:20:11Z) - Retinexformer: One-stage Retinex-based Transformer for Low-light Image
Enhancement [96.09255345336639]
低照度画像の高精細化のために,原理化された1段Retinex-based Framework (ORF) を定式化する。
ORFはまず照明情報を推定し、低照度画像を照らす。
我々のアルゴリズムであるRetinexformerは13のベンチマークで最先端の手法を大幅に上回っている。
論文 参考訳(メタデータ) (2023-03-12T16:54:08Z) - NoiSER: Noise is All You Need for Enhancing Low-Light Images Without
Task-Related Data [103.04999391668753]
タスク関連のトレーニングデータなしで、低照度画像を拡張できることが示される。
技術的には、アンダーラインノイズと呼ばれる新しい、魔法的で、効果的で効率的な方法を提案する。
我々のNoiSERは、量的および視覚的な結果の観点から、現在のタスク関連データに基づくLLIEモデルと非常に競合しています。
論文 参考訳(メタデータ) (2022-11-09T06:18:18Z) - Self-Aligned Concave Curve: Illumination Enhancement for Unsupervised
Adaptation [36.050270650417325]
ハイレベルビジョンのための学習可能な照明強調モデルを提案する。
実際のカメラ応答関数にインスパイアされた照明強調関数は凹凸曲線であると仮定する。
我々のモデルアーキテクチャとトレーニングデザインは相互に恩恵を受け、強力な教師なし正規-低照度適応フレームワークを形成する。
論文 参考訳(メタデータ) (2022-10-07T19:32:55Z) - Learning to Relight Portrait Images via a Virtual Light Stage and
Synthetic-to-Real Adaptation [76.96499178502759]
Relightingは、イメージ内の人物を、ターゲットの照明のある環境に現れたかのように再照らすことを目的としている。
最近の手法は、高品質な結果を得るためにディープラーニングに依存している。
そこで本研究では,光ステージを必要とせずに,SOTA(State-of-the-art Relighting Method)と同等に動作可能な新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-21T17:15:58Z) - Enhancing Low-Light Images in Real World via Cross-Image Disentanglement [58.754943762945864]
そこで本研究では,現実の汚職とミスアライメントされたトレーニング画像からなる,新しい低照度画像強調データセットを提案する。
本モデルでは,新たに提案したデータセットと,他の一般的な低照度データセットの両方に対して,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-01-10T03:12:52Z) - Unsupervised Low-light Image Enhancement with Decoupled Networks [103.74355338972123]
我々は、実世界の低照度画像を教師なしで拡張する2段階のGANベースのフレームワークを学習する。
提案手法は,照度向上と雑音低減の両面から,最先端の教師なし画像強調法より優れる。
論文 参考訳(メタデータ) (2020-05-06T13:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。