論文の概要: Leveraging Content and Context Cues for Low-Light Image Enhancement
- arxiv url: http://arxiv.org/abs/2412.07693v1
- Date: Tue, 10 Dec 2024 17:32:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-11 14:35:57.827331
- Title: Leveraging Content and Context Cues for Low-Light Image Enhancement
- Title(参考訳): 低照度画像強調のためのコンテンツとコンテキストキューの活用
- Authors: Igor Morawski, Kai He, Shusil Dangi, Winston H. Hsu,
- Abstract要約: 低照度条件はマシン認知に悪影響を及ぼし、現実のコンピュータビジョンシステムの性能を制限する。
本稿では、CLIPモデルを利用して、画像の先行と意味的ガイダンスの取得により、既存のゼロ参照低照度化を改善することを提案する。
提案手法は,画像のコントラストと色調の改善,背景背景の識別の改善に有効であることを示す。
- 参考スコア(独自算出の注目度): 25.97198463881292
- License:
- Abstract: Low-light conditions have an adverse impact on machine cognition, limiting the performance of computer vision systems in real life. Since low-light data is limited and difficult to annotate, we focus on image processing to enhance low-light images and improve the performance of any downstream task model, instead of fine-tuning each of the models which can be prohibitively expensive. We propose to improve the existing zero-reference low-light enhancement by leveraging the CLIP model to capture image prior and for semantic guidance. Specifically, we propose a data augmentation strategy to learn an image prior via prompt learning, based on image sampling, to learn the image prior without any need for paired or unpaired normal-light data. Next, we propose a semantic guidance strategy that maximally takes advantage of existing low-light annotation by introducing both content and context cues about the image training patches. We experimentally show, in a qualitative study, that the proposed prior and semantic guidance help to improve the overall image contrast and hue, as well as improve background-foreground discrimination, resulting in reduced over-saturation and noise over-amplification, common in related zero-reference methods. As we target machine cognition, rather than rely on assuming the correlation between human perception and downstream task performance, we conduct and present an ablation study and comparison with related zero-reference methods in terms of task-based performance across many low-light datasets, including image classification, object and face detection, showing the effectiveness of our proposed method.
- Abstract(参考訳): 低照度条件はマシン認知に悪影響を及ぼし、現実のコンピュータビジョンシステムの性能を制限する。
低照度データは限定的かつ注釈付けが難しいため,低照度画像の高精細化やダウンストリームタスクモデルの性能向上に焦点をあてる。
本稿では、CLIPモデルを利用して、画像の先行と意味的ガイダンスの取得により、既存のゼロ参照低照度化を改善することを提案する。
具体的には、画像サンプリングに基づいて、画像の事前学習を行うためのデータ拡張戦略を提案し、ペアやアンペアのノーマルライトデータを必要とせずに、事前学習を行う。
次に、画像トレーニングパッチに関するコンテンツとコンテキストの両方を導入し、既存の低照度アノテーションを最大限活用する意味指導戦略を提案する。
定性的な研究において,提案手法は画像のコントラストと色調を改良し,背景背景の識別を向上し,ゆるやかな過飽和や雑音の過度な増幅を減らし,関連するゼロ参照手法に共通することを示す。
人間の知覚と下流のタスク性能の相関を仮定するよりも、機械認知を目標とするので、画像分類、物体検出、顔検出を含む多くの低照度データセットにおけるタスクベース性能の観点から、関連ゼロ参照手法との比較を行い、提案手法の有効性を示す。
関連論文リスト
- Semi-LLIE: Semi-supervised Contrastive Learning with Mamba-based Low-light Image Enhancement [59.17372460692809]
本研究は、平均教師による半教師付き低照度強化(Semi-LLIE)フレームワークを提案する。
照度分布を忠実に伝達するために、意味認識によるコントラスト損失を導入し、自然色による画像の強調に寄与する。
また,大規模な視覚言語認識モデル(RAM)に基づく新たな知覚損失を提案し,よりリッチなテキストによる画像生成を支援する。
論文 参考訳(メタデータ) (2024-09-25T04:05:32Z) - Unsupervised Image Prior via Prompt Learning and CLIP Semantic Guidance for Low-Light Image Enhancement [25.97198463881292]
本稿では,よりリッチな視覚言語CLIPを利用して,ゼロ参照低照度化手法を提案する。
提案手法はタスクベース性能に関する各種データセット間で一貫した改善をもたらすことを示す。
論文 参考訳(メタデータ) (2024-05-19T08:06:14Z) - Zero-Shot Enhancement of Low-Light Image Based on Retinex Decomposition [4.175396687130961]
本稿ではZERRINNetと呼ばれるゼロショット低照度化手法の学習に基づくRetinex分解を提案する。
本手法は,ペアとアンペアのデータセットのトレーニングデータの影響を受けないゼロ参照拡張手法である。
論文 参考訳(メタデータ) (2023-11-06T09:57:48Z) - Advancing Unsupervised Low-light Image Enhancement: Noise Estimation, Illumination Interpolation, and Self-Regulation [55.07472635587852]
低光画像強調(LLIE)技術は、画像の詳細の保存とコントラストの強化に顕著な進歩をもたらした。
これらのアプローチは、動的ノイズを効率的に緩和し、様々な低照度シナリオを収容する上で、永続的な課題に直面する。
まず,低照度画像の雑音レベルを迅速かつ高精度に推定する方法を提案する。
次に、照明と入力の一般的な制約を満たすために、Learningable Illumination Interpolator (LII) を考案する。
論文 参考訳(メタデータ) (2023-05-17T13:56:48Z) - Iterative Prompt Learning for Unsupervised Backlit Image Enhancement [86.90993077000789]
そこで本研究では,CLIP-LITと略称される,非教師なしのバックライト画像強調手法を提案する。
オープンワールドのCLIPはバックライト画像と well-lit 画像の区別に有効であることを示す。
提案手法は,学習フレームワークの更新と,学習結果を視覚的に満足するまでのネットワークの強化を交互に行う。
論文 参考訳(メタデータ) (2023-03-30T17:37:14Z) - Enhancing Low-Light Images in Real World via Cross-Image Disentanglement [58.754943762945864]
そこで本研究では,現実の汚職とミスアライメントされたトレーニング画像からなる,新しい低照度画像強調データセットを提案する。
本モデルでは,新たに提案したデータセットと,他の一般的な低照度データセットの両方に対して,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-01-10T03:12:52Z) - Semantic-Guided Zero-Shot Learning for Low-Light Image/Video Enhancement [3.4722706398428493]
低照度画像は人間の知覚とコンピュータビジョンのアルゴリズムの両方に挑戦する。
計算写真やコンピュータビジョンアプリケーションのための低照度画像の啓蒙にアルゴリズムを堅牢にすることが不可欠である。
本稿では,ペア画像の欠如により訓練されたセマンティック誘導ゼロショット低照度拡張ネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-03T10:07:36Z) - Improving Aerial Instance Segmentation in the Dark with Self-Supervised
Low Light Enhancement [6.500738558466833]
空中画像の低照度条件は、視覚ベースのアプリケーションの性能に悪影響を及ぼす。
自己監督型で低照度画像を高めることができる新しい手法を提案する。
GANを用いた新しい低照度航空データセットも提案する。
論文 参考訳(メタデータ) (2021-02-10T12:24:40Z) - Deep Bilateral Retinex for Low-Light Image Enhancement [96.15991198417552]
低照度画像は、低コントラスト、色歪み、測定ノイズによる視界の低下に悩まされる。
本稿では,低照度画像強調のための深層学習手法を提案する。
提案手法は最先端の手法と非常に競合し, 極めて低照度で撮影した画像の処理において, 他に比べて大きな優位性を有する。
論文 参考訳(メタデータ) (2020-07-04T06:26:44Z) - Unsupervised Low-light Image Enhancement with Decoupled Networks [103.74355338972123]
我々は、実世界の低照度画像を教師なしで拡張する2段階のGANベースのフレームワークを学習する。
提案手法は,照度向上と雑音低減の両面から,最先端の教師なし画像強調法より優れる。
論文 参考訳(メタデータ) (2020-05-06T13:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。