論文の概要: Unpaired Deep Image Dehazing Using Contrastive Disentanglement Learning
- arxiv url: http://arxiv.org/abs/2203.07677v1
- Date: Tue, 15 Mar 2022 06:45:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-16 15:41:55.198566
- Title: Unpaired Deep Image Dehazing Using Contrastive Disentanglement Learning
- Title(参考訳): コントラストディエンタングルメント学習を用いた非ペア深部画像デハジング
- Authors: Xiang Chen, Zhentao Fan, Zhuoran Zheng, Yufeng Li, Yufeng Huang,
Longgang Dai, Caihua Kong, Pengpeng Li
- Abstract要約: そこで本稿では,未ペアのクリアでヘイズな画像の集合から,効果的な未ペア学習に基づく画像デハージングネットワークを提案する。
提案手法は,既存の最先端デヘイズ手法に対して良好に機能することを示す。
- 参考スコア(独自算出の注目度): 36.24651058888557
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an effective unpaired learning based image dehazing network from
an unpaired set of clear and hazy images. This paper provides a new perspective
to treat image dehazing as a two-class separated factor disentanglement task,
i.e, the task-relevant factor of clear image reconstruction and the
task-irrelevant factor of haze-relevant distribution. To achieve the
disentanglement of these two-class factors in deep feature space, contrastive
learning is introduced into a CycleGAN framework to learn disentangled
representations by guiding the generated images to be associated with latent
factors. With such formulation, the proposed contrastive disentangled dehazing
method (CDD-GAN) first develops negative generators to cooperate with the
encoder network to update alternately, so as to produce a queue of challenging
negative adversaries. Then these negative adversaries are trained end-to-end
together with the backbone representation network to enhance the discriminative
information and promote factor disentanglement performance by maximizing the
adversarial contrastive loss. During the training, we further show that hard
negative examples can suppress the task-irrelevant factors and unpaired clear
exemples can enhance the task-relevant factors, in order to better facilitate
haze removal and help image restoration. Extensive experiments on both
synthetic and real-world datasets demonstrate that our method performs
favorably against existing state-of-the-art unpaired dehazing approaches.
- Abstract(参考訳): 本研究では, 効果的に未ペアの学習に基づく画像デハージングネットワークを提案する。
本稿では,イメージデハジングを2段階分離因子分散タスク,すなわちクリアイメージ再構成のタスク関連要因とヘイズ関連分布のタスク関連要因として扱う新しい視点を提供する。
深部特徴空間におけるこれら2種類の因子の絡み合いを実現するため、CycleGANフレームワークにコントラスト学習を導入し、生成した画像を潜伏因子に関連付けることによって、非絡み合い表現を学習する。
このような定式化により,提案手法であるcdd-ganは,まず,エンコーダネットワークと協調して交互に更新する負のジェネレータを開発し,難解な負の敵のキューを生成する。
そして、これらの負の敵は、バックボーン表現ネットワークと共にエンドツーエンドに訓練され、識別情報を高め、対向的コントラスト損失を最大化して要因の絡み合い性能を促進する。
トレーニング中,ハード・ネガティブな例がタスクの無関係な因子を抑圧し,アンペアな明快な例がタスク関連因子を増強し,ヘイズ除去の促進と画像復元の助けとなることを示した。
人工的および実世界の両方のデータセットに対する広範囲な実験により、我々の手法は既存の最先端のデハージングアプローチに対して好適に機能することを示した。
関連論文リスト
- DRACO-DehazeNet: An Efficient Image Dehazing Network Combining Detail Recovery and a Novel Contrastive Learning Paradigm [3.649619954898362]
Detail RecoveryとContrastive DehazeNetは、特定のデハズされたシーンコンテキストへの拡張を調整した、詳細なイメージリカバリネットワークである。
大きな革新は、新しい四重項損失に基づくコントラストデハージングパラダイムによって達成された、限られたデータで効果的にトレーニングできることである。
論文 参考訳(メタデータ) (2024-10-18T16:48:31Z) - Semi-LLIE: Semi-supervised Contrastive Learning with Mamba-based Low-light Image Enhancement [59.17372460692809]
本研究は、平均教師による半教師付き低照度強化(Semi-LLIE)フレームワークを提案する。
照度分布を忠実に伝達するために、意味認識によるコントラスト損失を導入し、自然色による画像の強調に寄与する。
また,大規模な視覚言語認識モデル(RAM)に基づく新たな知覚損失を提案し,よりリッチなテキストによる画像生成を支援する。
論文 参考訳(メタデータ) (2024-09-25T04:05:32Z) - Robust image representations with counterfactual contrastive learning [17.273155534515393]
因果画像合成の最近の進歩を生かした新しいフレームワークである反ファクト・コントラスト学習を導入する。
提案手法は,5つのデータセットで評価され,獲得シフトに対するロバスト性の観点から,標準的なコントラスト学習よりも優れていた。
さらなる実験により、提案フレームワークは買収シフトを超えて拡張され、反実的コントラスト学習で訓練されたモデルは、生物学的セックスにおけるサブグループパフォーマンスを大幅に改善することが示された。
論文 参考訳(メタデータ) (2024-09-16T15:11:00Z) - Dual Adversarial Resilience for Collaborating Robust Underwater Image
Enhancement and Perception [54.672052775549]
本研究では,水中画像の強調と検出を行うために,CARNetと呼ばれる協調的対向レジリエンスネットワークを導入する。
本稿では,ネットワークが様々な種類の攻撃を識別・除去できるように,視覚駆動型と知覚駆動型の両方による同時攻撃訓練戦略を提案する。
実験により,提案手法は画像の高画質化を図り,最先端の手法よりも平均6.71%高い検出精度が得られた。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - PAIF: Perception-Aware Infrared-Visible Image Fusion for Attack-Tolerant
Semantic Segmentation [50.556961575275345]
対向シーンにおけるセグメンテーションの堅牢性を促進するための認識認識型融合フレームワークを提案する。
我々は,先進の競争相手に比べて15.3% mIOUの利得で,ロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-08-08T01:55:44Z) - Robust Single Image Dehazing Based on Consistent and Contrast-Assisted
Reconstruction [95.5735805072852]
画像復調モデルのロバスト性を改善するための新しい密度変分学習フレームワークを提案する。
具体的には、デハジングネットワークは、一貫性の規則化されたフレームワークの下で最適化されている。
我々の手法は最先端のアプローチを大きく上回っている。
論文 参考訳(メタデータ) (2022-03-29T08:11:04Z) - Invertible Network for Unpaired Low-light Image Enhancement [78.33382003460903]
本稿では,非可逆的ネットワークを活用して,前処理における低照度画像の強化と,非対向学習により逆向きに通常の照度画像の劣化を図ることを提案する。
対向的損失に加えて、トレーニングの安定性を確保し、より詳細な画像を保存するために、様々な損失関数を設計する。
低照度画像に対するプログレッシブ自己誘導強調処理を提案し,SOTAに対して良好な性能を示す。
論文 参考訳(メタデータ) (2021-12-24T17:00:54Z) - ExCon: Explanation-driven Supervised Contrastive Learning for Image
Classification [12.109442912963969]
本稿では,サリエンシに基づく説明手法を活用して,コンテント保存型マスク強化によるコントラスト学習を提案する。
提案手法は, 近距離画像の埋め込みに類似した内容と説明を与えるという2つの目的を, 批判的に果たすものである。
ExConは、分類、説明品質、対向ロバスト性、および分布シフトの文脈におけるモデルの確率的予測のキャリブレーションの観点から、バニラ指導によるコントラスト学習より優れていることを示す。
論文 参考訳(メタデータ) (2021-11-28T23:15:26Z) - Contrastive Learning based Hybrid Networks for Long-Tailed Image
Classification [31.647639786095993]
画像表現の教師付きコントラスト損失と、分類器を学習するためのクロスエントロピー損失からなる新しいハイブリッドネットワーク構造を提案する。
3つの長尾分類データセットに関する実験は、長尾分類における比較学習に基づくハイブリッドネットワークの提案の利点を示している。
論文 参考訳(メタデータ) (2021-03-26T05:22:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。