論文の概要: Image-to-image Translation via Hierarchical Style Disentanglement
- arxiv url: http://arxiv.org/abs/2103.01456v1
- Date: Tue, 2 Mar 2021 03:43:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 16:28:41.997234
- Title: Image-to-image Translation via Hierarchical Style Disentanglement
- Title(参考訳): 階層的スタイル・ディエンタングルメントによる画像と画像の翻訳
- Authors: Xinyang Li, Shengchuan Zhang, Jie Hu, Liujuan Cao, Xiaopeng Hong,
Xudong Mao, Feiyue Huang, Yongjian Wu, Rongrong Ji
- Abstract要約: この問題に対処するために,HiSD(Hierarchical Style Disentanglement)を提案する。
具体的には,ラベルを階層的な木構造に整理し,独立タグ,排他属性,不規則なスタイルを上下に割り当てる。
CelebA-HQデータセットの定性的および定量的結果の両方が提案されたHiSDの能力を検証する。
- 参考スコア(独自算出の注目度): 115.81148219591387
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recently, image-to-image translation has made significant progress in
achieving both multi-label (\ie, translation conditioned on different labels)
and multi-style (\ie, generation with diverse styles) tasks. However, due to
the unexplored independence and exclusiveness in the labels, existing endeavors
are defeated by involving uncontrolled manipulations to the translation
results. In this paper, we propose Hierarchical Style Disentanglement (HiSD) to
address this issue. Specifically, we organize the labels into a hierarchical
tree structure, in which independent tags, exclusive attributes, and
disentangled styles are allocated from top to bottom. Correspondingly, a new
translation process is designed to adapt the above structure, in which the
styles are identified for controllable translations. Both qualitative and
quantitative results on the CelebA-HQ dataset verify the ability of the
proposed HiSD. We hope our method will serve as a solid baseline and provide
fresh insights with the hierarchically organized annotations for future
research in image-to-image translation. The code has been released at
https://github.com/imlixinyang/HiSD.
- Abstract(参考訳): 近年,画像から画像への変換は,複数ラベル(異なるラベルで条件付翻訳)と複数スタイル(多様なスタイル付き生成)の両タスクの実現に大きく進歩している。
しかし、ラベルの独立性と排他性が未熟であるため、既存の努力は翻訳結果に制御不能な操作を伴って打ち破られる。
本論文では,この問題に対処するためにHiSD(Hierarchical Style Disentanglement)を提案する。
具体的には,ラベルを階層的な木構造に整理し,独立タグ,排他属性,不規則なスタイルを上下に割り当てる。
対応する新しい翻訳プロセスは、制御可能な翻訳のためにスタイルを識別する上記の構造に適応するように設計されている。
CelebA-HQデータセットの定性的および定量的結果の両方が提案されたHiSDの能力を検証する。
この手法が確固たるベースラインとなり、画像から画像への翻訳における将来の研究のための階層的に整理されたアノテーションで新しい洞察を提供することを期待しています。
コードはhttps://github.com/imlixinyang/hisdでリリースされた。
関連論文リスト
- DSI2I: Dense Style for Unpaired Image-to-Image Translation [70.93865212275412]
Inpaired exemplar-based image-to-image (UEI2I) 翻訳は、ソース画像をターゲット画像領域に変換する。
我々は,スタイルを高密度な特徴写像として表現し,外部意味情報を必要とせず,よりきめ細かなソース画像の転送を可能にすることを提案する。
以上の結果から,本手法による翻訳は,より多様であり,資料内容の保存性が向上し,最先端の手法と比較すると,先例に近づいたことが示唆された。
論文 参考訳(メタデータ) (2022-12-26T18:45:25Z) - Towards Robust and Semantically Organised Latent Representations for
Unsupervised Text Style Transfer [6.467090475885798]
この摂動モデルを完成させるEPAAE(Perturbed Adrial AutoEncoders)を導入する。
これは、(a)スタイル的に類似した文をまとめるより優れた組織化された潜在空間を生み出すことを実証的に示す。
また、テキストスタイルの転送タスクをNLIデータセットに拡張し、これらのより複雑なスタイル定義がEPAAEによって最もよく学習されていることを示す。
論文 参考訳(メタデータ) (2022-05-04T20:04:24Z) - Unsupervised Image-to-Image Translation with Generative Prior [103.54337984566877]
教師なし画像画像変換は、ペアデータなしで2つの視覚領域間の翻訳を学習することを目的としている。
本稿では,GP-UNIT(Generative Prior-guided UN Image-to-image Translation)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-07T17:59:23Z) - Semi-Supervised Image-to-Image Translation using Latent Space Mapping [37.232496213047845]
半教師付き画像翻訳のための一般的なフレームワークを提案する。
私たちの一番の考え方は、画像空間ではなく、潜在機能空間の翻訳を学ぶことです。
低次元の特徴空間のおかげで、所望の写像関数を見つけるのが容易である。
論文 参考訳(メタデータ) (2022-03-29T05:14:26Z) - Separating Content and Style for Unsupervised Image-to-Image Translation [20.44733685446886]
教師なしのイメージ・ツー・イメージ翻訳は、2つの視覚領域間のマッピングを未ペアのサンプルで学習することを目的としている。
統合されたフレームワークでコンテンツコードとスタイルコードを同時に分離することを提案する。
潜在機能と高レベルのドメイン不変タスクの相関から,提案手法は優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-27T12:56:50Z) - Unpaired Image-to-Image Translation via Latent Energy Transport [61.62293304236371]
画像から画像への変換は、2つの視覚領域間の識別的ターゲットスタイルに変換しながら、ソースの内容を保存することを目的としている。
本稿では,この課題に対して,事前訓練されたオートエンコーダの潜在空間にエネルギーベースモデル(EBM)を配置することを提案する。
我々のモデルは1024$times$1024- resolution unpaired image translationに適用できる最初のモデルである。
論文 参考訳(メタデータ) (2020-12-01T17:18:58Z) - Structural-analogy from a Single Image Pair [118.61885732829117]
本稿では,1対の画像A,Bのみを用いて,ニューラルネットワークによる画像構造理解能力について検討する。
我々は、B の外観とスタイルを保持するが、A に対応する構造的配置を持つ画像を生成する。
提案手法は,画像AとBのみを利用した条件生成タスクにおいて,高品質な画像を生成するために利用できる。
論文 参考訳(メタデータ) (2020-04-05T14:51:10Z) - Semi-supervised Learning for Few-shot Image-to-Image Translation [89.48165936436183]
本稿では,SEMITと呼ばれる画像翻訳のための半教師付き手法を提案する。
提案手法は,ソースラベルの10%以下を用いて,4つの異なるデータセットに対して優れた結果を得る。
論文 参考訳(メタデータ) (2020-03-30T22:46:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。