論文の概要: HVI: A New Color Space for Low-light Image Enhancement
- arxiv url: http://arxiv.org/abs/2502.20272v2
- Date: Fri, 28 Feb 2025 11:13:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-03 13:44:15.414506
- Title: HVI: A New Color Space for Low-light Image Enhancement
- Title(参考訳): HVI: 低照度画像強調のための新しいカラースペース
- Authors: Qingsen Yan, Yixu Feng, Cheng Zhang, Guansong Pang, Kangbiao Shi, Peng Wu, Wei Dong, Jinqiu Sun, Yanning Zhang,
- Abstract要約: 水平/垂直インテンシティ(HVI)に基づく低照度画像強調(LLIE)のための新しい色空間を提案する。
HVIは分極されたHSマップと学習可能な強度で定義され、一方後者は黒のアーティファクトを除去するために低照度領域を圧縮する。
色と強度の情報をフル活用するために、新しい色と強度のデカップリングネットワーク(CIDNet)を導入する。
- 参考スコア(独自算出の注目度): 58.8280819306909
- License:
- Abstract: Low-Light Image Enhancement (LLIE) is a crucial computer vision task that aims to restore detailed visual information from corrupted low-light images. Many existing LLIE methods are based on standard RGB (sRGB) space, which often produce color bias and brightness artifacts due to inherent high color sensitivity in sRGB. While converting the images using Hue, Saturation and Value (HSV) color space helps resolve the brightness issue, it introduces significant red and black noise artifacts. To address this issue, we propose a new color space for LLIE, namely Horizontal/Vertical-Intensity (HVI), defined by polarized HS maps and learnable intensity. The former enforces small distances for red coordinates to remove the red artifacts, while the latter compresses the low-light regions to remove the black artifacts. To fully leverage the chromatic and intensity information, a novel Color and Intensity Decoupling Network (CIDNet) is further introduced to learn accurate photometric mapping function under different lighting conditions in the HVI space. Comprehensive results from benchmark and ablation experiments show that the proposed HVI color space with CIDNet outperforms the state-of-the-art methods on 10 datasets. The code is available at https://github.com/Fediory/HVI-CIDNet.
- Abstract(参考訳): 低光画像強調(LLIE)は、劣化した低光画像から詳細な視覚情報を復元することを目的とした重要なコンピュータビジョンタスクである。
多くの既存のLLIE法は標準のRGB(sRGB)空間をベースとしており、sRGBの発色感度が高いため、しばしば色バイアスや明るさのアーチファクトを生成する。
Hue, Saturation and Value (HSV)カラー空間を使って画像を変換することは、明るさの問題を解決するのに役立ち、赤と黒のノイズアーティファクトを顕著に導入する。
この問題に対処するために,偏極HSマップと学習可能な強度によって定義される,LLIEの新しい色空間,すなわち水平/垂直インテンシティ(HVI)を提案する。
前者は赤の座標に対して小さな距離を強制して赤のアーティファクトを除去し、後者は黒のアーティファクトを除去するために低照度領域を圧縮する。
色と強度の情報をフル活用するために、新しい色と強度のデカップリングネットワーク(CIDNet)を導入し、HVI空間の異なる照明条件下で正確な測光写像関数を学習する。
ベンチマークおよびアブレーション実験による総合的な結果から、提案したCIDNetによるHVI色空間は、10のデータセットで最先端の手法よりも優れていた。
コードはhttps://github.com/Fediory/HVI-CIDNetで公開されている。
関連論文リスト
- You Only Need One Color Space: An Efficient Network for Low-light Image Enhancement [50.37253008333166]
低照度画像強調(LLIE)タスクは、劣化した低照度画像から詳細と視覚情報を復元する傾向がある。
水平/垂直インテンシティ(HVI)と呼ばれる新しいトレーニング可能なカラー空間を提案する。
輝度と色をRGBチャネルから切り離して、拡張中の不安定性を緩和するだけでなく、トレーニング可能なパラメータによって異なる照明範囲の低照度画像にも適応する。
論文 参考訳(メタデータ) (2024-02-08T16:47:43Z) - AGG-Net: Attention Guided Gated-convolutional Network for Depth Image
Completion [1.8820731605557168]
注意誘導ゲート畳み込みネットワーク(AGG-Net)に基づく深度画像補完のための新しいモデルを提案する。
符号化段階では、異なるスケールでの深度と色の特徴の融合を実現するために、AG-GConvモジュールが提案されている。
復号段階では、アテンションガイドスキップ接続(AG-SC)モジュールが提示され、再構成にあまりにも多くの深度に関係のない特徴を導入することを避ける。
論文 参考訳(メタデータ) (2023-09-04T14:16:08Z) - Enhancing Low-Light Images Using Infrared-Encoded Images [81.8710581927427]
従来の芸術は、主にピクセルワイド・ロスを用いて可視光スペクトルで捉えた低照度画像に焦点を当てていた。
我々は,赤外線カットオフフィルタを除去することにより,低照度環境下で撮影された画像の可視性を高める新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-09T08:29:19Z) - Symmetric Uncertainty-Aware Feature Transmission for Depth
Super-Resolution [52.582632746409665]
カラー誘導DSRのためのSymmetric Uncertainty-aware Feature Transmission (SUFT)を提案する。
本手法は最先端の手法と比較して優れた性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T06:35:59Z) - DarkVisionNet: Low-Light Imaging via RGB-NIR Fusion with Deep
Inconsistency Prior [6.162654963520402]
低照度画像における高強度ノイズは、既存のアルゴリズムに反するRGB-NIR画像間の構造不整合の影響を増幅する。
我々は、深部構造と深部不整合優先(DIP)という2つの技術的特徴を持つ新しいRGB-NIR融合アルゴリズムDark Vision Net(DVN)を提案する。
RGBドメインとNIRドメインの両方の深い構造に基づいて、RGB-NIRの融合を導くために構造不整合を利用するためのDIPを導入する。
論文 参考訳(メタデータ) (2023-03-13T03:31:29Z) - Seeing Through The Noisy Dark: Toward Real-world Low-Light Image
Enhancement and Denoising [125.56062454927755]
現実の低照度環境は通常、光やハードウェアの限界が不足しているため、視界が低く、騒音が重い。
我々は、RLED-Net(Real-world Low-light Enhancement & Denoising Network)と呼ばれる新しいエンドツーエンド手法を提案する。
論文 参考訳(メタデータ) (2022-10-02T14:57:23Z) - Low-light Image Enhancement via Breaking Down the Darkness [8.707025631892202]
本稿では,分割・ルール原理に触発された新しい枠組みを提案する。
本稿では,RGB空間から輝度クロミナンス画像に変換することを提案する。
調整可能なノイズ抑制ネットワークは、輝度が明るくなるときにノイズを取り除くように設計されている。
強化された輝度はさらに、色マッパーが現実的な色を生成するためのガイダンスとなる。
論文 参考訳(メタデータ) (2021-11-30T16:50:59Z) - The Cube++ Illumination Estimation Dataset [50.58610459038332]
本稿では,新しい照明推定データセットを提案する。
照明色が既知の4890の画像と、追加のセマンティックデータで構成されている。
データセットは、単一または2つの照度推定を実行するメソッドのトレーニングとテストに使用することができる。
論文 参考訳(メタデータ) (2020-11-19T18:50:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。