論文の概要: Domain Adaptation for Image Dehazing
- arxiv url: http://arxiv.org/abs/2005.04668v1
- Date: Sun, 10 May 2020 13:54:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 01:55:33.026456
- Title: Domain Adaptation for Image Dehazing
- Title(参考訳): 画像デハージングのためのドメイン適応
- Authors: Yuanjie Shao, Lerenhan Li, Wenqi Ren, Changxin Gao and Nong Sang
- Abstract要約: 既存のほとんどの方法は、合成ヘイズ画像のデハージングモデルを訓練するが、ドメインシフトによる実際のヘイズ画像の一般化は困難である。
画像変換モジュールと2つの画像デハージングモジュールからなるドメイン適応パラダイムを提案する。
実世界の合成画像と実世界の画像の両方で実験結果から,我々のモデルは最先端の脱ハージングアルゴリズムに対して好適に機能することが示された。
- 参考スコア(独自算出の注目度): 72.15994735131835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image dehazing using learning-based methods has achieved state-of-the-art
performance in recent years. However, most existing methods train a dehazing
model on synthetic hazy images, which are less able to generalize well to real
hazy images due to domain shift. To address this issue, we propose a domain
adaptation paradigm, which consists of an image translation module and two
image dehazing modules. Specifically, we first apply a bidirectional
translation network to bridge the gap between the synthetic and real domains by
translating images from one domain to another. And then, we use images before
and after translation to train the proposed two image dehazing networks with a
consistency constraint. In this phase, we incorporate the real hazy image into
the dehazing training via exploiting the properties of the clear image (e.g.,
dark channel prior and image gradient smoothing) to further improve the domain
adaptivity. By training image translation and dehazing network in an end-to-end
manner, we can obtain better effects of both image translation and dehazing.
Experimental results on both synthetic and real-world images demonstrate that
our model performs favorably against the state-of-the-art dehazing algorithms.
- Abstract(参考訳): 学習に基づく手法による画像デハジングは,近年,最先端のパフォーマンスを実現している。
しかし、既存の手法の多くは、ドメインシフトによって実際のヘイズ画像にうまく一般化できない合成ヘイズ画像のデヘイズモデルを訓練している。
この問題に対処するために,画像翻訳モジュールと2つの画像復調モジュールからなる領域適応パラダイムを提案する。
具体的には,まず,合成領域と実領域のギャップを埋めるための双方向翻訳ネットワークを,ある領域から別の領域に画像を翻訳することで適用する。
そして,提案する2つの画像デヘイジングネットワークの一貫性制約をトレーニングするために,翻訳前後で画像を使用する。
この段階では、鮮明な画像(例えばダークチャネル前処理や画像勾配平滑化)の特性を利用して、実際のヘイジー画像をデヘイジングトレーニングに組み込んで、ドメイン適応性をさらに向上させる。
画像翻訳とデハジングネットワークをエンドツーエンドにトレーニングすることにより、画像翻訳とデハジングの両方の効果をより良く得ることができる。
合成画像と実物画像の両方の実験結果から,本モデルが最先端のデハージングアルゴリズムに対して良好に動作することを示す。
関連論文リスト
- Enhanced Unsupervised Image-to-Image Translation Using Contrastive Learning and Histogram of Oriented Gradients [0.0]
本稿では,Contrastive Unpaired Translation (CUT)モデルに基づく,教師なし画像から画像への変換手法を提案する。
この新しいアプローチは、セマンティックラベルなしでも画像のセマンティック構造を確実に保存する。
本手法は,GTA5データセットから都市景観データセットのリアルな都市シーンへの合成ゲーム環境の変換について検討した。
論文 参考訳(メタデータ) (2024-09-24T12:44:27Z) - Mutual Learning for Domain Adaptation: Self-distillation Image Dehazing
Network with Sample-cycle [7.452382358080454]
ドメイン適応のための相互学習脱ハージングフレームワークを提案する。
具体的には、まず、合成ドメインの教師ネットワークと、実ドメインの学生ネットワークの2つのシアムネットワークを考案する。
この枠組みは, 主観的, 客観的評価の観点から, 最先端の脱ハージング技術より優れていることを示す。
論文 参考訳(メタデータ) (2022-03-17T16:32:14Z) - Multi-domain Unsupervised Image-to-Image Translation with Appearance
Adaptive Convolution [62.4972011636884]
本稿では,MDUIT(Multi-domain unsupervised image-to-image translation)フレームワークを提案する。
我々は、分解されたコンテンツ特徴と外観適応的畳み込みを利用して、画像をターゲットの外観に変換する。
提案手法は,最先端の手法と比較して,複数の領域で視覚的に多様かつ妥当な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-02-06T14:12:34Z) - Semantic Consistency in Image-to-Image Translation for Unsupervised
Domain Adaptation [22.269565708490465]
Unsupervised Domain Adaptation (UDA)は、ソースドメインでトレーニングされたモデルを、ラベル付きデータが使用できない新しいターゲットドメインに適応させることを目的としている。
UDAの整合性正規化手法と組み合わせて意味論的に一貫した画像から画像への変換法を提案する。
論文 参考訳(メタデータ) (2021-11-05T14:22:20Z) - Self-Supervised Learning of Domain Invariant Features for Depth
Estimation [35.74969527929284]
単一画像深度推定のための教師なし合成-現実的領域適応の課題に対処する。
単一画像深度推定の重要なビルディングブロックはエンコーダ・デコーダ・タスク・ネットワークであり、RGB画像を入力とし、出力として深度マップを生成する。
本稿では,タスクネットワークにドメイン不変表現を自己教師型で学習させる新たなトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2021-06-04T16:45:48Z) - Unsupervised Image-to-Image Translation via Pre-trained StyleGAN2
Network [73.5062435623908]
本稿では,一連のモデル変換によって対象領域に新たなモデルを生成する新しいI2I翻訳手法を提案する。
潜在ベクトルを生成されたモデルに入力することで、ソースドメインとターゲットドメインの間でI2I翻訳を行うことができる。
論文 参考訳(メタデータ) (2020-10-12T13:51:40Z) - Image-to-image Mapping with Many Domains by Sparse Attribute Transfer [71.28847881318013]
教師なし画像と画像の変換は、2つの領域間の一対のマッピングを、ポイント間の既知のペアワイズ対応なしで学習することで構成される。
現在の慣例は、サイクル一貫性のあるGANでこのタスクにアプローチすることです。
そこで本研究では,ジェネレータを直接,潜在層における単純なスパース変換に制限する代替手法を提案する。
論文 参考訳(メタデータ) (2020-06-23T19:52:23Z) - Deep CG2Real: Synthetic-to-Real Translation via Image Disentanglement [78.58603635621591]
画像空間における未ペアの合成-現実翻訳ネットワークの訓練は、厳しい制約下にある。
画像の非交叉シェーディング層とアルベド層に作用する半教師付きアプローチを提案する。
私たちの2段階のパイプラインはまず、物理ベースのレンダリングをターゲットとして、教師付き方法で正確なシェーディングを予測することを学習します。
論文 参考訳(メタデータ) (2020-03-27T21:45:41Z) - CrDoCo: Pixel-level Domain Transfer with Cross-Domain Consistency [119.45667331836583]
教師なしのドメイン適応アルゴリズムは、あるドメインから学んだ知識を別のドメインに転送することを目的としている。
本稿では,新しい画素単位の対向領域適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-01-09T19:00:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。