論文の概要: Separating Content and Style for Unsupervised Image-to-Image Translation
- arxiv url: http://arxiv.org/abs/2110.14404v1
- Date: Wed, 27 Oct 2021 12:56:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-28 14:22:44.804056
- Title: Separating Content and Style for Unsupervised Image-to-Image Translation
- Title(参考訳): 教師なし画像翻訳における内容とスタイルの分離
- Authors: Yunfei Liu, Haofei Wang, Yang Yue, Feng Lu
- Abstract要約: 教師なしのイメージ・ツー・イメージ翻訳は、2つの視覚領域間のマッピングを未ペアのサンプルで学習することを目的としている。
統合されたフレームワークでコンテンツコードとスタイルコードを同時に分離することを提案する。
潜在機能と高レベルのドメイン不変タスクの相関から,提案手法は優れた性能を示す。
- 参考スコア(独自算出の注目度): 20.44733685446886
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised image-to-image translation aims to learn the mapping between two
visual domains with unpaired samples. Existing works focus on disentangling
domain-invariant content code and domain-specific style code individually for
multimodal purposes. However, less attention has been paid to interpreting and
manipulating the translated image. In this paper, we propose to separate the
content code and style code simultaneously in a unified framework. Based on the
correlation between the latent features and the high-level domain-invariant
tasks, the proposed framework demonstrates superior performance in multimodal
translation, interpretability and manipulation of the translated image.
Experimental results show that the proposed approach outperforms the existing
unsupervised image translation methods in terms of visual quality and
diversity.
- Abstract(参考訳): unsupervised image-to-image translationは、2つのビジュアルドメイン間のマッピングをペアなしサンプルで学習することを目的としている。
既存の作業は、ドメイン不変のコンテンツコードとドメイン固有のスタイルコードを個別にマルチモーダル目的に分離することに焦点を当てている。
しかし、翻訳画像の解釈や操作には注意が払われていない。
本稿では,コンテンツコードとスタイルコードを統一したフレームワークで同時に分離する手法を提案する。
潜在特徴量と高レベル領域不変タスクの相関関係に基づいて, 提案手法は, 翻訳画像のマルチモーダル翻訳, 解釈性, 操作性において優れた性能を示す。
実験の結果,提案手法は視覚的品質と多様性の観点から,既存の教師なし画像翻訳法よりも優れていた。
関連論文リスト
- Vector Quantized Image-to-Image Translation [31.65282783830092]
本稿では,ベクトル量子化手法を画像から画像への変換フレームワークに導入することを提案する。
我々のフレームワークは、最新の画像から画像への変換や画像拡張手法に匹敵する性能を実現している。
論文 参考訳(メタデータ) (2022-07-27T04:22:29Z) - Unsupervised Image-to-Image Translation with Generative Prior [103.54337984566877]
教師なし画像画像変換は、ペアデータなしで2つの視覚領域間の翻訳を学習することを目的としている。
本稿では,GP-UNIT(Generative Prior-guided UN Image-to-image Translation)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-07T17:59:23Z) - Marginal Contrastive Correspondence for Guided Image Generation [58.0605433671196]
例題に基づく画像翻訳は、条件入力と2つの異なる領域からの例題間の密接な対応を確立する。
既存の作業は、2つのドメインにまたがる機能的距離を最小化することで、ドメイン間の通信を暗黙的に構築する。
本稿では,MCL-Net(Marginal Contrastive Learning Network)の設計を行った。
論文 参考訳(メタデータ) (2022-04-01T13:55:44Z) - A Style-aware Discriminator for Controllable Image Translation [10.338078700632423]
現在の画像から画像への変換は、トレーニング中に使用されるクラス以外の出力領域を制御しない。
本稿では,批判的かつ条件を提供するスタイルとして機能するスタイル認識型識別器を提案する。
複数のデータセットの実験では、提案モデルが現在の最先端画像から画像への変換方法より優れていることが確認されている。
論文 参考訳(メタデータ) (2022-03-29T09:13:33Z) - Multi-domain Unsupervised Image-to-Image Translation with Appearance
Adaptive Convolution [62.4972011636884]
本稿では,MDUIT(Multi-domain unsupervised image-to-image translation)フレームワークを提案する。
我々は、分解されたコンテンツ特徴と外観適応的畳み込みを利用して、画像をターゲットの外観に変換する。
提案手法は,最先端の手法と比較して,複数の領域で視覚的に多様かつ妥当な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-02-06T14:12:34Z) - BalaGAN: Image Translation Between Imbalanced Domains via Cross-Modal
Transfer [53.79505340315916]
ドメイン不均衡問題に対処するために特別に設計されたBalaGANを紹介する。
我々は、画像から画像への変換問題を、バランスよく、複数クラス、条件付き翻訳問題に変換するために、よりリッチなドメインの潜在モダリティを利用する。
本研究では,BalaGANが,無条件およびスタイル変換に基づく画像から画像への変換方式の強いベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-10-05T14:16:41Z) - Retrieval Guided Unsupervised Multi-domain Image-to-Image Translation [59.73535607392732]
画像から画像への変換は、ある視覚領域から別の領域へ画像を変換するマッピングを学ぶことを目的としている。
本稿では,画像から画像への変換作業を支援するための画像検索システムを提案する。
論文 参考訳(メタデータ) (2020-08-11T20:11:53Z) - Cross-domain Correspondence Learning for Exemplar-based Image
Translation [59.35767271091425]
本稿では,異なる領域の入力からフォトリアリスティックな画像を合成する,例題に基づく画像翻訳のためのフレームワークを提案する。
出力は、例において意味的に対応するオブジェクトと整合したスタイル(例えば、色、テクスチャ)を持つ。
本手法は画像品質の面で最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-04-12T09:10:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。