論文の概要: Semantically Contrastive Learning for Low-light Image Enhancement
- arxiv url: http://arxiv.org/abs/2112.06451v1
- Date: Mon, 13 Dec 2021 07:08:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 17:27:41.130835
- Title: Semantically Contrastive Learning for Low-light Image Enhancement
- Title(参考訳): 低照度画像強調のための意味的コントラスト学習
- Authors: Dong Liang, Ling Li, Mingqiang Wei, Shuo Yang, Liyan Zhang, Wenhan
Yang, Yun Du, Huiyu Zhou
- Abstract要約: 低照度画像強調(LLE)は、単一のRGB画像の低コントラストと低可視性の問題が好ましくないため、依然として困難である。
LLE(SCL-LLE)のための効果的な意味論的コントラスト学習パラダイムを提案する。
提案手法は6つの独立したクロスシーンデータセット上で,最先端のLLEモデルを上回る。
- 参考スコア(独自算出の注目度): 48.71522073014808
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Low-light image enhancement (LLE) remains challenging due to the unfavorable
prevailing low-contrast and weak-visibility problems of single RGB images. In
this paper, we respond to the intriguing learning-related question -- if
leveraging both accessible unpaired over/underexposed images and high-level
semantic guidance, can improve the performance of cutting-edge LLE models?
Here, we propose an effective semantically contrastive learning paradigm for
LLE (namely SCL-LLE). Beyond the existing LLE wisdom, it casts the image
enhancement task as multi-task joint learning, where LLE is converted into
three constraints of contrastive learning, semantic brightness consistency, and
feature preservation for simultaneously ensuring the exposure, texture, and
color consistency. SCL-LLE allows the LLE model to learn from unpaired
positives (normal-light)/negatives (over/underexposed), and enables it to
interact with the scene semantics to regularize the image enhancement network,
yet the interaction of high-level semantic knowledge and the low-level signal
prior is seldom investigated in previous methods. Training on readily available
open data, extensive experiments demonstrate that our method surpasses the
state-of-the-arts LLE models over six independent cross-scenes datasets.
Moreover, SCL-LLE's potential to benefit the downstream semantic segmentation
under extremely dark conditions is discussed. Source Code:
https://github.com/LingLIx/SCL-LLE.
- Abstract(参考訳): 低照度画像強調(LLE)は、単一のRGB画像の低コントラストと低可視性の問題により、依然として困難である。
本稿では, アクセシブルなオーバー/アンダー露画像と高レベルのセマンティックガイダンスの両方を活用することで, 最先端のLLEモデルの性能を向上させることができるのか?
本稿では,LLE(SCL-LLE)に対する効果的な意味論的コントラスト学習パラダイムを提案する。
既存のLLE知恵以外にも、画像強調タスクをマルチタスク共同学習として、LLEをコントラスト学習、セマンティック輝度整合性、特徴保存という3つの制約に変換し、露出、テクスチャ、色整合性を同時に確保する。
SCL-LLEは、LLEモデルにおいて、未経験の正(正規光)/負(オーバー/アンダー露)から学び、シーンセマンティクスと相互作用して画像拡張ネットワークを正規化することができるが、高レベルのセマンティクス知識と低レベルの信号事前の相互作用は、以前の方法ではほとんど研究されない。
容易に利用可能なオープンデータに関するトレーニング 広範な実験により、本手法が6つの独立したクロスシーンデータセットの最先端lleモデルを超えていることが証明された。
さらに, 極暗条件下での下流セマンティックセマンティックセグメンテーションに寄与するSCL-LLEの可能性について論じる。
ソースコード:https://github.com/LingLIx/SCL-LLE。
関連論文リスト
- Semi-LLIE: Semi-supervised Contrastive Learning with Mamba-based Low-light Image Enhancement [59.17372460692809]
本研究は、平均教師による半教師付き低照度強化(Semi-LLIE)フレームワークを提案する。
照度分布を忠実に伝達するために、意味認識によるコントラスト損失を導入し、自然色による画像の強調に寄与する。
また,大規模な視覚言語認識モデル(RAM)に基づく新たな知覚損失を提案し,よりリッチなテキストによる画像生成を支援する。
論文 参考訳(メタデータ) (2024-09-25T04:05:32Z) - DAP-LED: Learning Degradation-Aware Priors with CLIP for Joint Low-light Enhancement and Deblurring [14.003870853594972]
DAP-LEDと呼ばれる新しい変圧器を用いた共同学習フレームワークを提案する。
低照度向上と劣化を共同で達成することができ、深度推定、セグメンテーション、暗黒での検知といった下流タスクの恩恵を受けることができる。
重要な洞察は、CLIPを活用して、夜間に画像から劣化レベルを適応的に学習することだ。
論文 参考訳(メタデータ) (2024-09-20T13:37:53Z) - Learning Semantic-Aware Knowledge Guidance for Low-Light Image
Enhancement [69.47143451986067]
低照度画像強調法 (LLIE) は、照明の改善方法と正常照度画像の生成方法を検討する。
既存の手法の大部分は、異なる領域のセマンティック情報を考慮せずに、グローバルかつ均一な方法で低照度画像を改善する。
セマンティックセグメンテーションモデルにカプセル化される多種多様な事前学習において、低照度強化モデルを支援する新しいセマンティック・アウェア・ナレッジ誘導フレームワークを提案する。
論文 参考訳(メタデータ) (2023-04-14T10:22:28Z) - Iterative Prompt Learning for Unsupervised Backlit Image Enhancement [86.90993077000789]
そこで本研究では,CLIP-LITと略称される,非教師なしのバックライト画像強調手法を提案する。
オープンワールドのCLIPはバックライト画像と well-lit 画像の区別に有効であることを示す。
提案手法は,学習フレームワークの更新と,学習結果を視覚的に満足するまでのネットワークの強化を交互に行う。
論文 参考訳(メタデータ) (2023-03-30T17:37:14Z) - Non-Contrastive Learning Meets Language-Image Pre-Training [145.6671909437841]
非コントラスト型言語画像事前学習(nCLIP)の有効性について検討する。
我々は、CLIPとnCLIPを組み合わせたマルチタスクフレームワークであるxCLIPを紹介し、nCLIPが機能セマンティクスの強化にCLIPを支援することを示す。
論文 参考訳(メタデータ) (2022-10-17T17:57:46Z) - Toward Fast, Flexible, and Robust Low-Light Image Enhancement [87.27326390675155]
我々は、現実の低照度シナリオにおいて、高速でフレキシブルで頑健な鮮明化のための新しい自己校正イルミネーション(SCI)学習フレームワークを開発した。
カスケードパターンの計算負担を考慮すると、各ステージの結果の収束を実現する自己校正モジュールを構築する。
我々は,SCI固有の特性について,操作不感適応性やモデル非関係の一般性を含む包括的探索を行う。
論文 参考訳(メタデータ) (2022-04-21T14:40:32Z) - ExCon: Explanation-driven Supervised Contrastive Learning for Image
Classification [12.109442912963969]
本稿では,サリエンシに基づく説明手法を活用して,コンテント保存型マスク強化によるコントラスト学習を提案する。
提案手法は, 近距離画像の埋め込みに類似した内容と説明を与えるという2つの目的を, 批判的に果たすものである。
ExConは、分類、説明品質、対向ロバスト性、および分布シフトの文脈におけるモデルの確率的予測のキャリブレーションの観点から、バニラ指導によるコントラスト学習より優れていることを示す。
論文 参考訳(メタデータ) (2021-11-28T23:15:26Z) - Enhance Images as You Like with Unpaired Learning [8.104571453311442]
本稿では,低照度から高照度の画像空間における一対多の関係を学習するために,軽量な一経路条件生成対向ネットワーク(cGAN)を提案する。
我々のネットワークは、様々な参照画像上に設定された所定の入力条件から、拡張された画像の集合を生成することを学習する。
我々のモデルは、ノイズとクリーンなデータセットの完全な教師付き手法と同等に競合する視覚的および定量的な結果を得る。
論文 参考訳(メタデータ) (2021-10-04T03:00:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。