論文の概要: Unpaired Deep Image Dehazing Using Contrastive Disentanglement Learning
- arxiv url: http://arxiv.org/abs/2203.07677v1
- Date: Tue, 15 Mar 2022 06:45:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-16 15:41:55.198566
- Title: Unpaired Deep Image Dehazing Using Contrastive Disentanglement Learning
- Title(参考訳): コントラストディエンタングルメント学習を用いた非ペア深部画像デハジング
- Authors: Xiang Chen, Zhentao Fan, Zhuoran Zheng, Yufeng Li, Yufeng Huang,
Longgang Dai, Caihua Kong, Pengpeng Li
- Abstract要約: そこで本稿では,未ペアのクリアでヘイズな画像の集合から,効果的な未ペア学習に基づく画像デハージングネットワークを提案する。
提案手法は,既存の最先端デヘイズ手法に対して良好に機能することを示す。
- 参考スコア(独自算出の注目度): 36.24651058888557
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an effective unpaired learning based image dehazing network from
an unpaired set of clear and hazy images. This paper provides a new perspective
to treat image dehazing as a two-class separated factor disentanglement task,
i.e, the task-relevant factor of clear image reconstruction and the
task-irrelevant factor of haze-relevant distribution. To achieve the
disentanglement of these two-class factors in deep feature space, contrastive
learning is introduced into a CycleGAN framework to learn disentangled
representations by guiding the generated images to be associated with latent
factors. With such formulation, the proposed contrastive disentangled dehazing
method (CDD-GAN) first develops negative generators to cooperate with the
encoder network to update alternately, so as to produce a queue of challenging
negative adversaries. Then these negative adversaries are trained end-to-end
together with the backbone representation network to enhance the discriminative
information and promote factor disentanglement performance by maximizing the
adversarial contrastive loss. During the training, we further show that hard
negative examples can suppress the task-irrelevant factors and unpaired clear
exemples can enhance the task-relevant factors, in order to better facilitate
haze removal and help image restoration. Extensive experiments on both
synthetic and real-world datasets demonstrate that our method performs
favorably against existing state-of-the-art unpaired dehazing approaches.
- Abstract(参考訳): 本研究では, 効果的に未ペアの学習に基づく画像デハージングネットワークを提案する。
本稿では,イメージデハジングを2段階分離因子分散タスク,すなわちクリアイメージ再構成のタスク関連要因とヘイズ関連分布のタスク関連要因として扱う新しい視点を提供する。
深部特徴空間におけるこれら2種類の因子の絡み合いを実現するため、CycleGANフレームワークにコントラスト学習を導入し、生成した画像を潜伏因子に関連付けることによって、非絡み合い表現を学習する。
このような定式化により,提案手法であるcdd-ganは,まず,エンコーダネットワークと協調して交互に更新する負のジェネレータを開発し,難解な負の敵のキューを生成する。
そして、これらの負の敵は、バックボーン表現ネットワークと共にエンドツーエンドに訓練され、識別情報を高め、対向的コントラスト損失を最大化して要因の絡み合い性能を促進する。
トレーニング中,ハード・ネガティブな例がタスクの無関係な因子を抑圧し,アンペアな明快な例がタスク関連因子を増強し,ヘイズ除去の促進と画像復元の助けとなることを示した。
人工的および実世界の両方のデータセットに対する広範囲な実験により、我々の手法は既存の最先端のデハージングアプローチに対して好適に機能することを示した。
関連論文リスト
- Dual Adversarial Resilience for Collaborating Robust Underwater Image
Enhancement and Perception [54.672052775549]
本研究では,水中画像の強調と検出を行うために,CARNetと呼ばれる協調的対向レジリエンスネットワークを導入する。
本稿では,ネットワークが様々な種類の攻撃を識別・除去できるように,視覚駆動型と知覚駆動型の両方による同時攻撃訓練戦略を提案する。
実験により,提案手法は画像の高画質化を図り,最先端の手法よりも平均6.71%高い検出精度が得られた。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - PAIF: Perception-Aware Infrared-Visible Image Fusion for Attack-Tolerant
Semantic Segmentation [50.556961575275345]
対向シーンにおけるセグメンテーションの堅牢性を促進するための認識認識型融合フレームワークを提案する。
我々は,先進の競争相手に比べて15.3% mIOUの利得で,ロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-08-08T01:55:44Z) - Curricular Contrastive Regularization for Physics-aware Single Image
Dehazing [56.392696439577165]
本研究では, コンセンサス空間を対象とし, 非コンセンサス空間ではなく, 新規なコントラスト正規化を提案する。
我々の負は,1)ハズーな画像から,2)既存の手法による対応する復元から,より低い制約を提供することができる。
このユニットは、直交的なコントラスト正規化とともに、C2PNetというデハジングネットワークを確立します。
論文 参考訳(メタデータ) (2023-03-24T18:18:25Z) - Combining Reconstruction and Contrastive Methods for Multimodal Representations in RL [16.792949555151978]
再構成や対照的な損失を用いた自己教師型表現の学習は、画像ベース・マルチモーダル強化学習(RL)の性能とサンプルの複雑さを向上させる
ここでは、異なる自己教師付き損失関数は、基礎となるセンサのモジュラリティの情報密度によって異なる利点と制限を有する。
コントラスト的再構成集約表現学習(CoRAL)を提案する。このフレームワークは,各センサのモダリティに対して,最も適切な自己管理的損失を選択することができる。
論文 参考訳(メタデータ) (2023-02-10T15:57:20Z) - Unsupervised Feature Clustering Improves Contrastive Representation
Learning for Medical Image Segmentation [18.75543045234889]
自己監督型インスタンス識別は、特徴表現を学習し、限られた医用画像アノテーションに対処する効果的なコントラスト的前提課題である。
本稿では,教師なし特徴クラスタリングを用いた自己教師付きコントラスト学習手法を提案する。
本手法は,これらの課題に対して,最先端の自己監督型コントラスト技術より優れる。
論文 参考訳(メタデータ) (2022-11-15T22:54:29Z) - Robust Single Image Dehazing Based on Consistent and Contrast-Assisted
Reconstruction [95.5735805072852]
画像復調モデルのロバスト性を改善するための新しい密度変分学習フレームワークを提案する。
具体的には、デハジングネットワークは、一貫性の規則化されたフレームワークの下で最適化されている。
我々の手法は最先端のアプローチを大きく上回っている。
論文 参考訳(メタデータ) (2022-03-29T08:11:04Z) - Invertible Network for Unpaired Low-light Image Enhancement [78.33382003460903]
本稿では,非可逆的ネットワークを活用して,前処理における低照度画像の強化と,非対向学習により逆向きに通常の照度画像の劣化を図ることを提案する。
対向的損失に加えて、トレーニングの安定性を確保し、より詳細な画像を保存するために、様々な損失関数を設計する。
低照度画像に対するプログレッシブ自己誘導強調処理を提案し,SOTAに対して良好な性能を示す。
論文 参考訳(メタデータ) (2021-12-24T17:00:54Z) - ExCon: Explanation-driven Supervised Contrastive Learning for Image
Classification [12.109442912963969]
本稿では,サリエンシに基づく説明手法を活用して,コンテント保存型マスク強化によるコントラスト学習を提案する。
提案手法は, 近距離画像の埋め込みに類似した内容と説明を与えるという2つの目的を, 批判的に果たすものである。
ExConは、分類、説明品質、対向ロバスト性、および分布シフトの文脈におけるモデルの確率的予測のキャリブレーションの観点から、バニラ指導によるコントラスト学習より優れていることを示す。
論文 参考訳(メタデータ) (2021-11-28T23:15:26Z) - Contrastive Learning based Hybrid Networks for Long-Tailed Image
Classification [31.647639786095993]
画像表現の教師付きコントラスト損失と、分類器を学習するためのクロスエントロピー損失からなる新しいハイブリッドネットワーク構造を提案する。
3つの長尾分類データセットに関する実験は、長尾分類における比較学習に基づくハイブリッドネットワークの提案の利点を示している。
論文 参考訳(メタデータ) (2021-03-26T05:22:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。