論文の概要: Smoothing the Disentangled Latent Style Space for Unsupervised
Image-to-Image Translation
- arxiv url: http://arxiv.org/abs/2106.09016v1
- Date: Wed, 16 Jun 2021 17:58:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-17 17:35:26.678295
- Title: Smoothing the Disentangled Latent Style Space for Unsupervised
Image-to-Image Translation
- Title(参考訳): 教師なし画像-画像翻訳のためのアンタングル型ラテント型空間の平滑化
- Authors: Yahui Liu, Enver Sangineto, Yajing Chen, Linchao Bao, Haoxian Zhang,
Nicu Sebe, Bruno Lepri, Wei Wang and Marco De Nadai
- Abstract要約: イメージ・ツー・イメージ(I2I)マルチドメイン翻訳モデルは通常、セマンティックな結果の品質を用いて評価される。
本稿では,翻訳ネットワークがスムーズでゆがみのあるラテントスタイル空間を学習するのに役立つ,3つの特定の損失に基づく新たなトレーニングプロトコルを提案する。
- 参考スコア(独自算出の注目度): 56.55178339375146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image-to-Image (I2I) multi-domain translation models are usually evaluated
also using the quality of their semantic interpolation results. However,
state-of-the-art models frequently show abrupt changes in the image appearance
during interpolation, and usually perform poorly in interpolations across
domains. In this paper, we propose a new training protocol based on three
specific losses which help a translation network to learn a smooth and
disentangled latent style space in which: 1) Both intra- and inter-domain
interpolations correspond to gradual changes in the generated images and 2) The
content of the source image is better preserved during the translation.
Moreover, we propose a novel evaluation metric to properly measure the
smoothness of latent style space of I2I translation models. The proposed method
can be plugged into existing translation approaches, and our extensive
experiments on different datasets show that it can significantly boost the
quality of the generated images and the graduality of the interpolations.
- Abstract(参考訳): イメージ・トゥ・イメージ(I2I)マルチドメイン翻訳モデルは通常、意味補間結果の品質を用いて評価される。
しかし、最先端のモデルは、補間中の画像出現の急激な変化をしばしば示しており、通常、ドメイン間の補間が不十分である。
本稿では,翻訳ネットワークが,1)生成した画像の段階的変化に対応する領域内および領域間補間と,2)翻訳中にソース画像の内容がよりよく保存されるような,滑らかで不連続な潜在性空間を学習するための,3つの特定の損失に基づく新しい学習プロトコルを提案する。
さらに,I2I翻訳モデルの潜在スタイル空間の滑らかさを適切に測定する新しい評価指標を提案する。
提案手法は既存の翻訳手法に組み込むことができ、異なるデータセットに対する広範な実験により、生成された画像の品質と補間の漸進性を著しく向上できることが示された。
関連論文リスト
- Smooth image-to-image translations with latent space interpolations [64.8170758294427]
マルチドメインイメージ・トゥ・イメージ(I2I)変換は、ターゲットドメインのスタイルに応じてソースイメージを変換することができる。
我々の正規化技術は、最先端のI2I翻訳を大きなマージンで改善できることを示す。
論文 参考訳(メタデータ) (2022-10-03T11:57:30Z) - Marginal Contrastive Correspondence for Guided Image Generation [58.0605433671196]
例題に基づく画像翻訳は、条件入力と2つの異なる領域からの例題間の密接な対応を確立する。
既存の作業は、2つのドメインにまたがる機能的距離を最小化することで、ドメイン間の通信を暗黙的に構築する。
本稿では,MCL-Net(Marginal Contrastive Learning Network)の設計を行った。
論文 参考訳(メタデータ) (2022-04-01T13:55:44Z) - Multi-domain Unsupervised Image-to-Image Translation with Appearance
Adaptive Convolution [62.4972011636884]
本稿では,MDUIT(Multi-domain unsupervised image-to-image translation)フレームワークを提案する。
我々は、分解されたコンテンツ特徴と外観適応的畳み込みを利用して、画像をターゲットの外観に変換する。
提案手法は,最先端の手法と比較して,複数の領域で視覚的に多様かつ妥当な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-02-06T14:12:34Z) - Flow-based Deformation Guidance for Unpaired Multi-Contrast MRI
Image-to-Image Translation [7.8333615755210175]
本稿では,非可逆的アーキテクチャに基づく画像と画像の非対角変換に対する新しいアプローチを提案する。
我々は、連続スライス間の時間的情報を利用して、不適切な医療画像において、あるドメインを別のドメインに変換する最適化により多くの制約を与える。
論文 参考訳(メタデータ) (2020-12-03T09:10:22Z) - Continuous and Diverse Image-to-Image Translation via Signed Attribute
Vectors [120.13149176992896]
本稿では,様々な領域にまたがる多様な写像経路の連続的な変換を可能にする,効果的に署名された属性ベクトルを提案する。
連続翻訳結果の視覚的品質を高めるため、2つの符号対称属性ベクトル間の軌跡を生成する。
論文 参考訳(メタデータ) (2020-11-02T18:59:03Z) - Unsupervised Image-to-Image Translation via Pre-trained StyleGAN2
Network [73.5062435623908]
本稿では,一連のモデル変換によって対象領域に新たなモデルを生成する新しいI2I翻訳手法を提案する。
潜在ベクトルを生成されたモデルに入力することで、ソースドメインとターゲットドメインの間でI2I翻訳を行うことができる。
論文 参考訳(メタデータ) (2020-10-12T13:51:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。