論文の概要: Unsupervised Night Image Enhancement: When Layer Decomposition Meets
Light-Effects Suppression
- arxiv url: http://arxiv.org/abs/2207.10564v1
- Date: Thu, 21 Jul 2022 16:10:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-22 13:20:36.496114
- Title: Unsupervised Night Image Enhancement: When Layer Decomposition Meets
Light-Effects Suppression
- Title(参考訳): 教師なし夜画像強調:層分解が光効果抑制を満たすとき
- Authors: Yeying Jin, Wenhan Yang and Robby T. Tan
- Abstract要約: 層分解ネットワークと光効果抑制ネットワークを統合した教師なし手法を提案する。
本手法は,夜間光効果の抑制と暗黒領域の強度向上において,最先端の手法よりも優れる。
- 参考スコア(独自算出の注目度): 67.7508230688415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Night images suffer not only from low light, but also from uneven
distributions of light. Most existing night visibility enhancement methods
focus mainly on enhancing low-light regions. This inevitably leads to over
enhancement and saturation in bright regions, such as those regions affected by
light effects (glare, floodlight, etc). To address this problem, we need to
suppress the light effects in bright regions while, at the same time, boosting
the intensity of dark regions. With this idea in mind, we introduce an
unsupervised method that integrates a layer decomposition network and a
light-effects suppression network. Given a single night image as input, our
decomposition network learns to decompose shading, reflectance and
light-effects layers, guided by unsupervised layer-specific prior losses. Our
light-effects suppression network further suppresses the light effects and, at
the same time, enhances the illumination in dark regions. This light-effects
suppression network exploits the estimated light-effects layer as the guidance
to focus on the light-effects regions. To recover the background details and
reduce hallucination/artefacts, we propose structure and high-frequency
consistency losses. Our quantitative and qualitative evaluations on real images
show that our method outperforms state-of-the-art methods in suppressing night
light effects and boosting the intensity of dark regions.
- Abstract(参考訳): 夜景は低光度だけでなく、不均一な光の分布によっても苦しむ。
既存の夜間視認性向上手法のほとんどは、主に低照度領域の強化に焦点を当てている。
これは必然的に、光の影響(グレア、フラッディングライトなど)の影響を受けるような明るい領域の過度な拡張と飽和をもたらす。
この問題に対処するためには、明るい領域における光の影響を抑制すると同時に、暗い領域の強度を高める必要がある。
この考え方を念頭に置いて,層分解ネットワークと光効果抑制ネットワークを統合した教師なし手法を提案する。
我々の分解ネットワークは,1つの夜像を入力として,教師なし層固有の先行損失によって導かれるシェーディング層,反射層,光影響層を分解することを学ぶ。
我々の光効果抑制ネットワークは、光効果をさらに抑制し、同時に暗黒領域の照明を強化する。
この光影響抑制ネットワークは、推定光影響層を光影響領域にフォーカスするためのガイダンスとして活用する。
背景情報を復元し,幻覚/幻覚成果物を減らすために,構造と高周波一貫性損失を提案する。
実画像上での定量的・定性的評価は,夜光効果の抑制や暗黒領域の強度向上において最先端の手法を上回っていることを示している。
関連論文リスト
- Beyond Night Visibility: Adaptive Multi-Scale Fusion of Infrared and
Visible Images [49.75771095302775]
赤外線および可視画像を用いた適応型マルチスケール核融合ネットワーク(AMFusion)を提案する。
まず、赤外画像と可視画像から空間的特徴と意味的特徴を分離し、前者が光分布の調整に使用される。
第2に,事前学習したバックボーンから抽出した検出機能を利用して,意味的特徴の融合を誘導する。
第3に、通常の光強度で融合画像を制約する新しい照明損失を提案する。
論文 参考訳(メタデータ) (2024-03-02T03:52:07Z) - NDELS: A Novel Approach for Nighttime Dehazing, Low-Light Enhancement,
and Light Suppression [4.976703689624386]
本稿では、NDELS(Nighttime Dehazing, Low-Light Enhancement and Light Suppression)という先駆的なソリューションを紹介する。
NDELSは3つの重要なプロセスを組み合わせて、可視性、低照度領域を強化し、明るい光源からのグレアを効果的に抑制する。
NDELSの有効性は、4つの多様なデータセットにわたる8つの最先端アルゴリズムとの広範な比較を通じて厳密に検証されている。
論文 参考訳(メタデータ) (2023-12-11T21:38:32Z) - Enhancing Visibility in Nighttime Haze Images Using Guided APSF and
Gradient Adaptive Convolution [28.685126418090338]
既存の夜間の脱暖法は、光や低照度の条件を扱うのにしばしば苦労する。
本稿では、光を抑え、低照度領域を高めることにより、夜間のハゼ画像からの視認性を高める。
GTA5夜間ヘイズデータセットでは,PSNRが30.38dBとなり,最先端の手法よりも13%向上した。
論文 参考訳(メタデータ) (2023-08-03T12:58:23Z) - From Generation to Suppression: Towards Effective Irregular Glow Removal
for Nighttime Visibility Enhancement [22.565044107631696]
既存の低照度画像強調法 (LLIE) は、主に暗黒領域の明るさを改善するために設計されている。
これらの手法は、他の大きな視界の損傷である、夜間の夜景における光の影響を限定的に探究することができる。
大気点拡散関数(APSF)に基づく多重散乱推定による物理光発生の学習法を提案する。
提案手法はゼロショット学習に基づいており、ペアやアンペアのトレーニングデータに頼らず、光抑制と低照度強化の両方において提案手法の有効性を実証的に評価する。
論文 参考訳(メタデータ) (2023-07-31T15:51:15Z) - Seeing Through The Noisy Dark: Toward Real-world Low-Light Image
Enhancement and Denoising [125.56062454927755]
現実の低照度環境は通常、光やハードウェアの限界が不足しているため、視界が低く、騒音が重い。
我々は、RLED-Net(Real-world Low-light Enhancement & Denoising Network)と呼ばれる新しいエンドツーエンド手法を提案する。
論文 参考訳(メタデータ) (2022-10-02T14:57:23Z) - When the Sun Goes Down: Repairing Photometric Losses for All-Day Depth
Estimation [47.617222712429026]
既存の測光損失を昼夜両方の画像に有効にするための3つの手法の組み合わせについて述べる。
まず、連続するフレーム間で起こる光の変化を補うために、ピクセルごとの神経強度変換を導入する。
第2に,推定エゴモーションと深度によって引き起こされる再投影対応を補正するために,画素ごとの残留フローマップを推定する。
論文 参考訳(メタデータ) (2022-06-28T09:29:55Z) - Low-light Image Enhancement via Breaking Down the Darkness [8.707025631892202]
本稿では,分割・ルール原理に触発された新しい枠組みを提案する。
本稿では,RGB空間から輝度クロミナンス画像に変換することを提案する。
調整可能なノイズ抑制ネットワークは、輝度が明るくなるときにノイズを取り除くように設計されている。
強化された輝度はさらに、色マッパーが現実的な色を生成するためのガイダンスとなる。
論文 参考訳(メタデータ) (2021-11-30T16:50:59Z) - Light Pollution Reduction in Nighttime Photography [32.87477623401456]
夜間の写真家は、望ましくない人工照明の光汚染に悩まされることが多い。
本稿では,知覚品質の劣化を著しく軽減できる物理ベース光汚染低減(LPR)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-18T10:38:13Z) - Deep Bilateral Retinex for Low-Light Image Enhancement [96.15991198417552]
低照度画像は、低コントラスト、色歪み、測定ノイズによる視界の低下に悩まされる。
本稿では,低照度画像強調のための深層学習手法を提案する。
提案手法は最先端の手法と非常に競合し, 極めて低照度で撮影した画像の処理において, 他に比べて大きな優位性を有する。
論文 参考訳(メタデータ) (2020-07-04T06:26:44Z) - Unsupervised Low-light Image Enhancement with Decoupled Networks [103.74355338972123]
我々は、実世界の低照度画像を教師なしで拡張する2段階のGANベースのフレームワークを学習する。
提案手法は,照度向上と雑音低減の両面から,最先端の教師なし画像強調法より優れる。
論文 参考訳(メタデータ) (2020-05-06T13:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。