論文の概要: Marginal Contrastive Correspondence for Guided Image Generation
- arxiv url: http://arxiv.org/abs/2204.00442v1
- Date: Fri, 1 Apr 2022 13:55:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-04 18:00:43.472639
- Title: Marginal Contrastive Correspondence for Guided Image Generation
- Title(参考訳): ガイド画像生成のためのマージナルコントラスト対応
- Authors: Fangneng Zhan, Yingchen Yu, Rongliang Wu, Jiahui Zhang, Shijian Lu,
Changgong Zhang
- Abstract要約: 例題に基づく画像翻訳は、条件入力と2つの異なる領域からの例題間の密接な対応を確立する。
既存の作業は、2つのドメインにまたがる機能的距離を最小化することで、ドメイン間の通信を暗黙的に構築する。
本稿では,MCL-Net(Marginal Contrastive Learning Network)の設計を行った。
- 参考スコア(独自算出の注目度): 58.0605433671196
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Exemplar-based image translation establishes dense correspondences between a
conditional input and an exemplar (from two different domains) for leveraging
detailed exemplar styles to achieve realistic image translation. Existing work
builds the cross-domain correspondences implicitly by minimizing feature-wise
distances across the two domains. Without explicit exploitation of
domain-invariant features, this approach may not reduce the domain gap
effectively which often leads to sub-optimal correspondences and image
translation. We design a Marginal Contrastive Learning Network (MCL-Net) that
explores contrastive learning to learn domain-invariant features for realistic
exemplar-based image translation. Specifically, we design an innovative
marginal contrastive loss that guides to establish dense correspondences
explicitly. Nevertheless, building correspondence with domain-invariant
semantics alone may impair the texture patterns and lead to degraded texture
generation. We thus design a Self-Correlation Map (SCM) that incorporates scene
structures as auxiliary information which improves the built correspondences
substantially. Quantitative and qualitative experiments on multifarious image
translation tasks show that the proposed method outperforms the
state-of-the-art consistently.
- Abstract(参考訳): 例題ベース画像翻訳は、条件入力と例題(2つの異なる領域から)の密接な対応を確立し、詳細な例題スタイルを活用して現実的な画像翻訳を実現する。
既存の作業は、2つのドメインにまたがる機能的距離を最小化することで、ドメイン間の通信を暗黙的に構築する。
ドメイン不変性の明示的な利用がなければ、このアプローチはドメインギャップを効果的に減らさず、しばしば準最適対応や画像翻訳につながる可能性がある。
我々は,実例に基づく画像翻訳のための領域不変特徴を学習するために,コントラスト学習を探索する辺縁的コントラスト学習ネットワーク(mcl-net)を設計する。
具体的には, 密接な対応を明示的に確立するための, 画期的な辺縁的コントラスト損失をデザインする。
それでも、ドメイン不変のセマンティクスだけではテクスチャパターンが損なわれ、劣化したテクスチャ生成につながる可能性がある。
そこで我々は,シーン構造を補助情報として組み込んだ自己相関マップ(scm)を設計し,構築された対応を実質的に改善する。
マルチファーラス画像翻訳タスクの定量的および定性的な実験により,提案手法が常に最先端技術を上回ることを示す。
関連論文リスト
- Diffusion-based Image Translation with Label Guidance for Domain
Adaptive Semantic Segmentation [35.44771460784343]
ターゲットモデル学習のためのソースドメインからターゲットドメインへの変換は、ドメイン適応セマンティックセグメンテーション(DASS)において最も一般的な戦略の1つである。
既存の方法は、元の画像と翻訳された画像の間の意味的に一貫性のある局所的な詳細を保存するのに依然として苦労している。
本稿では、画像翻訳中にソースドメインラベルを明示的なガイダンスとして用いることにより、この問題に対処する革新的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-08-23T18:01:01Z) - Unsupervised Domain Adaptation for Semantic Segmentation using One-shot
Image-to-Image Translation via Latent Representation Mixing [9.118706387430883]
超高解像度画像のセマンティックセグメンテーションのための新しい教師なし領域適応法を提案する。
潜在コンテンツ表現をドメイン間で混合するエンコーダ・デコーダの原理に基づいて,画像から画像への変換パラダイムを提案する。
都市間比較実験により,提案手法は最先端領域適応法より優れていることが示された。
論文 参考訳(メタデータ) (2022-12-07T18:16:17Z) - Smooth image-to-image translations with latent space interpolations [64.8170758294427]
マルチドメインイメージ・トゥ・イメージ(I2I)変換は、ターゲットドメインのスタイルに応じてソースイメージを変換することができる。
我々の正規化技術は、最先端のI2I翻訳を大きなマージンで改善できることを示す。
論文 参考訳(メタデータ) (2022-10-03T11:57:30Z) - Unbalanced Feature Transport for Exemplar-based Image Translation [51.54421432912801]
本稿では,画像翻訳における条件入力とスタイルの類似点間の特徴的アライメントに最適なトランスポートを組み込んだ一般画像翻訳フレームワークを提案する。
本手法は,最先端技術と比較して質的,定量的に優れた画像翻訳を実現する。
論文 参考訳(メタデータ) (2021-06-19T12:07:48Z) - Smoothing the Disentangled Latent Style Space for Unsupervised
Image-to-Image Translation [56.55178339375146]
イメージ・ツー・イメージ(I2I)マルチドメイン翻訳モデルは通常、セマンティックな結果の品質を用いて評価される。
本稿では,翻訳ネットワークがスムーズでゆがみのあるラテントスタイル空間を学習するのに役立つ,3つの特定の損失に基づく新たなトレーニングプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-16T17:58:21Z) - Semantically Adaptive Image-to-image Translation for Domain Adaptation
of Semantic Segmentation [1.8275108630751844]
街路シーンのセマンティックセグメンテーションにおけるドメイン適応の問題に対処する。
最先端のアプローチの多くは、結果が入力とセマンティックに一致していることを示しながら、ソースイメージの翻訳に重点を置いている。
画像のセマンティクスを利用して翻訳アルゴリズムを導くことも提案する。
論文 参考訳(メタデータ) (2020-09-02T16:16:50Z) - Cross-domain Correspondence Learning for Exemplar-based Image
Translation [59.35767271091425]
本稿では,異なる領域の入力からフォトリアリスティックな画像を合成する,例題に基づく画像翻訳のためのフレームワークを提案する。
出力は、例において意味的に対応するオブジェクトと整合したスタイル(例えば、色、テクスチャ)を持つ。
本手法は画像品質の面で最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-04-12T09:10:57Z) - CrDoCo: Pixel-level Domain Transfer with Cross-Domain Consistency [119.45667331836583]
教師なしのドメイン適応アルゴリズムは、あるドメインから学んだ知識を別のドメインに転送することを目的としている。
本稿では,新しい画素単位の対向領域適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-01-09T19:00:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。