論文の概要: Decoupled Low-light Image Enhancement
- arxiv url: http://arxiv.org/abs/2111.14458v1
- Date: Mon, 29 Nov 2021 11:15:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-30 18:07:27.410233
- Title: Decoupled Low-light Image Enhancement
- Title(参考訳): デカップリング低光度画像強調
- Authors: Shijie Hao, Xu Han, Yanrong Guo, Meng Wang
- Abstract要約: 本稿では,拡張モデルを2つの段階に分離することを提案する。
第1ステージでは、ピクセル単位の非線形マッピングに基づいて、シーンの可視性を改善することに焦点を当てている。
第2段階は、残りの変性因子を抑えることにより、外観の忠実度を改善することに焦点を当てる。
- 参考スコア(独自算出の注目度): 21.111831640136835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The visual quality of photographs taken under imperfect lightness conditions
can be degenerated by multiple factors, e.g., low lightness, imaging noise,
color distortion and so on. Current low-light image enhancement models focus on
the improvement of low lightness only, or simply deal with all the degeneration
factors as a whole, therefore leading to a sub-optimal performance. In this
paper, we propose to decouple the enhancement model into two sequential stages.
The first stage focuses on improving the scene visibility based on a pixel-wise
non-linear mapping. The second stage focuses on improving the appearance
fidelity by suppressing the rest degeneration factors. The decoupled model
facilitates the enhancement in two aspects. On the one hand, the whole
low-light enhancement can be divided into two easier subtasks. The first one
only aims to enhance the visibility. It also helps to bridge the large
intensity gap between the low-light and normal-light images. In this way, the
second subtask can be shaped as the local appearance adjustment. On the other
hand, since the parameter matrix learned from the first stage is aware of the
lightness distribution and the scene structure, it can be incorporated into the
second stage as the complementary information. In the experiments, our model
demonstrates the state-of-the-art performance in both qualitative and
quantitative comparisons, compared with other low-light image enhancement
models. In addition, the ablation studies also validate the effectiveness of
our model in multiple aspects, such as model structure and loss function. The
trained model is available at
https://github.com/hanxuhfut/Decoupled-Low-light-Image-Enhancement.
- Abstract(参考訳): 不完全な光度条件下で撮影された写真の視覚品質は、低光度、撮像ノイズ、色歪など、複数の要因によって劣化させることができる。
現在の低光度画像強調モデルでは、低光度のみの改善に重点が置かれている。
本稿では,拡張モデルを2つの段階に分離することを提案する。
第1段階は、ピクセル単位の非線形マッピングに基づいて、シーンの可視性を改善することに焦点を当てている。
第2段階は、残りの変性因子を抑えることによって外観の忠実度を改善することに焦点を当てる。
分離されたモデルは2つの側面の強化を促進する。
一方、低照度エンハンスメントは2つの簡単なサブタスクに分割することができる。
最初の1つは、可視性を高めることだけを目的としている。
また、低照度画像と通常照度画像の間の大きな強度ギャップを埋めるのにも役立ちます。
これにより、第2のサブタスクを局所的な外観調整として形成することができる。
一方、第1段階から学習したパラメータ行列は、明度分布とシーン構造を認識しているため、補完情報として第2段階に組み込むことができる。
実験では、他の低光度画像強調モデルと比較して、質的および定量的比較において最先端の性能を示す。
さらに, モデル構造や損失関数など, モデルの有効性についても検討した。
トレーニングされたモデルはhttps://github.com/hanxuhfut/decoupled-low-light-image-enhancementで利用可能である。
関連論文リスト
- Semi-LLIE: Semi-supervised Contrastive Learning with Mamba-based Low-light Image Enhancement [59.17372460692809]
本研究は、平均教師による半教師付き低照度強化(Semi-LLIE)フレームワークを提案する。
照度分布を忠実に伝達するために、意味認識によるコントラスト損失を導入し、自然色による画像の強調に寄与する。
また,大規模な視覚言語認識モデル(RAM)に基づく新たな知覚損失を提案し,よりリッチなテキストによる画像生成を支援する。
論文 参考訳(メタデータ) (2024-09-25T04:05:32Z) - Zero-Reference Low-Light Enhancement via Physical Quadruple Priors [58.77377454210244]
本稿では,標準光画像のみをトレーニング可能な,ゼロ参照低光強調フレームワークを提案する。
このフレームワークは、画像にさかのぼる照明不変性を復元し、自動的に低照度化を実現します。
論文 参考訳(メタデータ) (2024-03-19T17:36:28Z) - Joint Correcting and Refinement for Balanced Low-Light Image Enhancement [26.399356992450763]
より効果的に明るさ、色、照明のバランスをとることができる新しい構造が提案されている。
JCRNet(Joint Correcting and Refinement Network)は主に、明るさ、色、照明の輝度のバランスをとるための3つのステージで構成されている。
論文 参考訳(メタデータ) (2023-09-28T03:16:45Z) - Self-Aligned Concave Curve: Illumination Enhancement for Unsupervised
Adaptation [36.050270650417325]
ハイレベルビジョンのための学習可能な照明強調モデルを提案する。
実際のカメラ応答関数にインスパイアされた照明強調関数は凹凸曲線であると仮定する。
我々のモデルアーキテクチャとトレーニングデザインは相互に恩恵を受け、強力な教師なし正規-低照度適応フレームワークを形成する。
論文 参考訳(メタデータ) (2022-10-07T19:32:55Z) - Semi-supervised atmospheric component learning in low-light image
problem [0.0]
環境照明条件は、写真装置から画像の知覚的品質を決定する上で重要な役割を担っている。
本研究では,低照度画像復元のための非参照画像品質指標を用いた半教師付きトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-04-15T17:06:33Z) - Invertible Network for Unpaired Low-light Image Enhancement [78.33382003460903]
本稿では,非可逆的ネットワークを活用して,前処理における低照度画像の強化と,非対向学習により逆向きに通常の照度画像の劣化を図ることを提案する。
対向的損失に加えて、トレーニングの安定性を確保し、より詳細な画像を保存するために、様々な損失関数を設計する。
低照度画像に対するプログレッシブ自己誘導強調処理を提案し,SOTAに対して良好な性能を示す。
論文 参考訳(メタデータ) (2021-12-24T17:00:54Z) - Degrade is Upgrade: Learning Degradation for Low-light Image Enhancement [52.49231695707198]
2段階の工程で細部と色を精錬しながら、内在的な劣化と低照度画像を照らし出す。
カラー画像の定式化に触発されて,まず低照度入力からの劣化を推定し,環境照明色の歪みをシミュレーションし,そのコンテンツを精錬して拡散照明色の損失を回復した。
LOL1000データセットではPSNRで0.95dB、ExDarkデータセットでは3.18%のmAPでSOTAを上回った。
論文 参考訳(メタデータ) (2021-03-19T04:00:27Z) - A Two-stage Unsupervised Approach for Low light Image Enhancement [18.365345507072234]
本稿では,低光像強調を前処理と後処理の問題に分解する2段階の教師なし手法を提案する。
提案手法は,低照度条件下で特徴点マッチングと同時局所化とマッピングを大幅に改善することができる。
論文 参考訳(メタデータ) (2020-10-19T08:51:32Z) - L^2UWE: A Framework for the Efficient Enhancement of Low-Light
Underwater Images Using Local Contrast and Multi-Scale Fusion [84.11514688735183]
そこで本研究では,局所コントラスト情報から大気光の効率的なモデルが導出可能であるという観測結果に基づいて,単一画像の低照度水中画像エンハンサーL2UWEを提案する。
これらの画像を組み合わせて、高輝度、高輝度、局所コントラストの領域を強調しながら、マルチスケールの融合プロセスを用いる。
水中および低照度シーンに特有な7つの最先端拡張手法に対して,7つの指標を用いてL2UWEの性能を実証した。
論文 参考訳(メタデータ) (2020-05-28T01:57:32Z) - Unsupervised Low-light Image Enhancement with Decoupled Networks [103.74355338972123]
我々は、実世界の低照度画像を教師なしで拡張する2段階のGANベースのフレームワークを学習する。
提案手法は,照度向上と雑音低減の両面から,最先端の教師なし画像強調法より優れる。
論文 参考訳(メタデータ) (2020-05-06T13:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。