論文の概要: Self-supervision via Controlled Transformation and Unpaired Self-conditioning for Low-light Image Enhancement
- arxiv url: http://arxiv.org/abs/2503.00642v1
- Date: Sat, 01 Mar 2025 22:25:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:15:31.168268
- Title: Self-supervision via Controlled Transformation and Unpaired Self-conditioning for Low-light Image Enhancement
- Title(参考訳): 低照度画像強調のための制御された変換と不調な自己条件による自己監督
- Authors: Aupendu Kar, Sobhan K. Dhara, Debashis Sen, Prabir K. Biswas,
- Abstract要約: 撮像装置が捉えた現実世界の低照度画像は視認性が悪く、成果物のない出力を生成するためには、ドメイン固有の拡張が必要である。
本稿では,新しい制御されたトランスフォーメーションベースの自己スーパービジョンと未ペアの自己コンディショニング戦略を活用した,未ペアの低照度画像強調ネットワークを提案する。
- 参考スコア(独自算出の注目度): 6.312266245317324
- License:
- Abstract: Real-world low-light images captured by imaging devices suffer from poor visibility and require a domain-specific enhancement to produce artifact-free outputs that reveal details. In this paper, we propose an unpaired low-light image enhancement network leveraging novel controlled transformation-based self-supervision and unpaired self-conditioning strategies. The model determines the required degrees of enhancement at the input image pixels, which are learned from the unpaired low-lit and well-lit images without any direct supervision. The self-supervision is based on a controlled transformation of the input image and subsequent maintenance of its enhancement in spite of the transformation. The self-conditioning performs training of the model on unpaired images such that it does not enhance an already-enhanced image or a well-lit input image. The inherent noise in the input low-light images is handled by employing low gradient magnitude suppression in a detail-preserving manner. In addition, our noise handling is self-conditioned by preventing the denoising of noise-free well-lit images. The training based on low-light image enhancement-specific attributes allows our model to avoid paired supervision without compromising significantly in performance. While our proposed self-supervision aids consistent enhancement, our novel self-conditioning facilitates adequate enhancement. Extensive experiments on multiple standard datasets demonstrate that our model, in general, outperforms the state-of-the-art both quantitatively and subjectively. Ablation studies show the effectiveness of our self-supervision and self-conditioning strategies, and the related loss functions.
- Abstract(参考訳): 撮像装置が捉えた現実世界の低照度画像は視認性が悪く、詳細を明らかにするために、ドメイン固有の拡張が必要である。
本稿では,新しい制御型トランスフォーメーションベースの自己スーパービジョンと非ペア型自己コンディショニング戦略を活用した,非ペア型低照度画像強調ネットワークを提案する。
モデルは入力画像画素の必要な強調度を決定づけるが、これは直接の監督なしに未使用の低照度・高照度画像から学習される。
自己超越は、入力画像の制御された変換とその後の変換にもかかわらず、その拡張の維持に基づいている。
自己条件付けは、既に強調されている画像や、よく照らされた入力画像が強調されないように、未確認画像上でモデルのトレーニングを行う。
入力された低照度画像の固有ノイズは、ディテール保存方式で低勾配のマグニチュード抑圧を用いて処理される。
さらに、ノイズフリーのウェルリット画像のノイズ発生を防止し、ノイズハンドリングを自己調整する。
低照度画像強調特性に基づくトレーニングにより,性能を著しく向上させることなく,ペア管理を回避することができる。
提案するセルフ・スーパービジョンは、一貫した拡張を支援するが、新しいセルフ・コンディショニングは適切な強化を促進する。
複数の標準データセットに対する大規模な実験により、我々のモデルは一般に、定量的かつ主観的に、最先端のモデルよりも優れていることが示された。
アブレーション研究は、我々の自己超越的・自己条件的戦略と関連する損失関数の有効性を示す。
関連論文リスト
- Learning Flow Fields in Attention for Controllable Person Image Generation [59.10843756343987]
制御可能な人物画像生成は、参照画像に条件付けされた人物画像を生成することを目的としている。
そこで本研究では,対象クエリに対して,適切な参照キーへの参照を明示的にガイドする学習フロー場(Leffa)を提案する。
Leffaは外観(仮想試行)とポーズ(目的移動)の制御における最先端のパフォーマンスを実現し、細かなディテール歪みを著しく低減する。
論文 参考訳(メタデータ) (2024-12-11T15:51:14Z) - Leveraging Content and Context Cues for Low-Light Image Enhancement [25.97198463881292]
低照度条件はマシン認知に悪影響を及ぼし、現実のコンピュータビジョンシステムの性能を制限する。
本稿では、CLIPモデルを利用して、画像の先行と意味的ガイダンスの取得により、既存のゼロ参照低照度化を改善することを提案する。
提案手法は,画像のコントラストと色調の改善,背景背景の識別の改善に有効であることを示す。
論文 参考訳(メタデータ) (2024-12-10T17:32:09Z) - Unsupervised Low Light Image Enhancement Using SNR-Aware Swin
Transformer [0.0]
低照度画像強調は、明るさとコントラストを改善し、視覚的品質を損なうノイズを減らすことを目的としている。
本稿では,Swin Transformerをベースとしたデュアルブランチネットワークを提案する。
論文 参考訳(メタデータ) (2023-06-03T11:07:56Z) - Enhancement by Your Aesthetic: An Intelligible Unsupervised Personalized
Enhancer for Low-Light Images [67.14410374622699]
低照度画像のための知能的教師なしパーソナライズ・エンハンサー(iUPEnhancer)を提案する。
提案したiUP-Enhancerは、これらの相関関係とそれに対応する教師なし損失関数のガイダンスを用いて訓練される。
実験により,提案アルゴリズムは競合的な質的,定量的な結果が得られることを示した。
論文 参考訳(メタデータ) (2022-07-15T07:16:10Z) - Cycle-Interactive Generative Adversarial Network for Robust Unsupervised
Low-Light Enhancement [109.335317310485]
CIGAN(Cycle-Interactive Generative Adversarial Network)は、低照度画像間の照明分布の転送を改善できるだけでなく、詳細な信号も操作できる。
特に、提案した低照度誘導変換は、低照度GAN生成器から劣化GAN生成器へ、低照度画像の特徴をフォワードする。
論文 参考訳(メタデータ) (2022-07-03T06:37:46Z) - Semi-supervised atmospheric component learning in low-light image
problem [0.0]
環境照明条件は、写真装置から画像の知覚的品質を決定する上で重要な役割を担っている。
本研究では,低照度画像復元のための非参照画像品質指標を用いた半教師付きトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-04-15T17:06:33Z) - Invertible Network for Unpaired Low-light Image Enhancement [78.33382003460903]
本稿では,非可逆的ネットワークを活用して,前処理における低照度画像の強化と,非対向学習により逆向きに通常の照度画像の劣化を図ることを提案する。
対向的損失に加えて、トレーニングの安定性を確保し、より詳細な画像を保存するために、様々な損失関数を設計する。
低照度画像に対するプログレッシブ自己誘導強調処理を提案し,SOTAに対して良好な性能を示す。
論文 参考訳(メタデータ) (2021-12-24T17:00:54Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Unsupervised Low-light Image Enhancement with Decoupled Networks [103.74355338972123]
我々は、実世界の低照度画像を教師なしで拡張する2段階のGANベースのフレームワークを学習する。
提案手法は,照度向上と雑音低減の両面から,最先端の教師なし画像強調法より優れる。
論文 参考訳(メタデータ) (2020-05-06T13:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。