論文の概要: Controllable Person Image Synthesis with Attribute-Decomposed GAN
- arxiv url: http://arxiv.org/abs/2003.12267v4
- Date: Sun, 19 Jul 2020 05:32:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 05:14:19.526105
- Title: Controllable Person Image Synthesis with Attribute-Decomposed GAN
- Title(参考訳): 属性分解型GANによる人物画像合成
- Authors: Yifang Men, Yiming Mao, Yuning Jiang, Wei-Ying Ma, Zhouhui Lian
- Abstract要約: 本稿では,制御可能な人物画像合成のための新しい生成モデルであるAttribute-Decomposed GANを紹介する。
提案されたモデルの中核となる考え方は、人間の属性を独立したコードとして潜在空間に埋め込むことである。
実験により,提案手法がポーズ伝達における技量よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 27.313729413684012
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces the Attribute-Decomposed GAN, a novel generative model
for controllable person image synthesis, which can produce realistic person
images with desired human attributes (e.g., pose, head, upper clothes and
pants) provided in various source inputs. The core idea of the proposed model
is to embed human attributes into the latent space as independent codes and
thus achieve flexible and continuous control of attributes via mixing and
interpolation operations in explicit style representations. Specifically, a new
architecture consisting of two encoding pathways with style block connections
is proposed to decompose the original hard mapping into multiple more
accessible subtasks. In source pathway, we further extract component layouts
with an off-the-shelf human parser and feed them into a shared global texture
encoder for decomposed latent codes. This strategy allows for the synthesis of
more realistic output images and automatic separation of un-annotated
attributes. Experimental results demonstrate the proposed method's superiority
over the state of the art in pose transfer and its effectiveness in the
brand-new task of component attribute transfer.
- Abstract(参考訳): 本稿では,人物画像合成のための新しい生成モデルであるAttribute-Decomposed GANについて紹介する。
提案モデルの中核となる考え方は、人間の属性を独立コードとして潜在空間に埋め込み、明示的なスタイル表現の混合と補間操作を通じて属性の柔軟かつ連続的な制御を実現することである。
具体的には、従来のハードマッピングを複数のアクセス可能なサブタスクに分解するために、スタイルブロック接続を持つ2つのエンコーディングパスからなる新しいアーキテクチャを提案する。
ソースパスでは、市販のヒューマンパーサでコンポーネントレイアウトを抽出し、分解された潜在コードのための共有グローバルテクスチャエンコーダに供給する。
この戦略により、よりリアルな出力画像の合成と注釈のない属性の自動分離が可能になる。
提案手法は, ポーズ伝達における技量よりも優れていることを示す実験結果と, コンポーネント特性伝達の新たな課題における有効性を示す。
関連論文リスト
- Style-Extracting Diffusion Models for Semi-Supervised Histopathology Segmentation [6.479933058008389]
スタイル抽出拡散モデルでは、下流タスクに有用な特徴のない画像を生成する。
本研究では,概念実証として自然画像データセット上での手法の有効性を示す。
患者間でのセグメンテーション結果の改善と性能変動の低減を図り, 得られた画像の付加価値を検証する。
論文 参考訳(メタデータ) (2024-03-21T14:36:59Z) - Disentangled Representation Learning for Controllable Person Image
Generation [29.719070087384512]
本稿ではDRL-CPGという新しいフレームワークを提案する。
我々の知る限り、私たちは人物画像生成のためのトランスフォーマーによる非絡み合いの潜在表現を初めて学習する。
論文 参考訳(メタデータ) (2023-12-10T07:15:58Z) - Controllable Multi-domain Semantic Artwork Synthesis [17.536225601718687]
4つのドメインから4万のアートワークの画像と対応するセマンティックラベルマップを含むデータセットを提案する。
まずランドスケープ写真からセマンティックマップを抽出してデータセットを生成する。
そこで我々は,高品質なアートワークを生成するための条件付きジェネレーティブ・アドリアル・ネットワーク(GAN)アプローチを提案する。
論文 参考訳(メタデータ) (2023-08-19T21:16:28Z) - Composer: Creative and Controllable Image Synthesis with Composable
Conditions [57.78533372393828]
ビッグデータで学んだ最近の大規模な生成モデルは、驚くべき画像を合成できるが、制御性は限られている。
この研究は、合成品質とモデルの創造性を維持しつつ、空間配置やパレットのような出力画像の柔軟な制御を可能にする新しい世代パラダイムを提供する。
論文 参考訳(メタデータ) (2023-02-20T05:48:41Z) - High-Fidelity Guided Image Synthesis with Latent Diffusion Models [50.39294302741698]
提案手法は, ユーザ満足度スコアを85.32%以上上回り, 従来の最先端技術よりも優れていた。
人的ユーザ調査の結果、提案手法は、全体のユーザ満足度スコアにおいて、従来の最先端技術よりも85.32%以上優れていたことが示されている。
論文 参考訳(メタデータ) (2022-11-30T15:43:20Z) - Person Image Synthesis via Denoising Diffusion Model [116.34633988927429]
本研究では,高忠実度人物画像合成に拡散モデルをいかに応用できるかを示す。
2つの大規模ベンチマークとユーザスタディの結果は、挑戦的なシナリオ下で提案したアプローチのフォトリアリズムを実証している。
論文 参考訳(メタデータ) (2022-11-22T18:59:50Z) - Dynamic Prototype Mask for Occluded Person Re-Identification [88.7782299372656]
既存の手法では、目に見える部分を識別するために、余分なネットワークによって提供される身体の手がかりを利用することで、この問題に対処している。
2つの自己明快な事前知識に基づく新しい動的プロトタイプマスク(DPM)を提案する。
この条件下では、隠蔽された表現は、選択された部分空間において自然にうまく整列することができる。
論文 参考訳(メタデータ) (2022-07-19T03:31:13Z) - Semantic Image Synthesis via Diffusion Models [159.4285444680301]
Denoising Diffusion Probabilistic Models (DDPM) は様々な画像生成タスクにおいて顕著な成功を収めた。
セマンティック画像合成に関する最近の研究は、主に「GAN(Generative Adversarial Nets)」に追従している。
論文 参考訳(メタデータ) (2022-06-30T18:31:51Z) - AttrLostGAN: Attribute Controlled Image Synthesis from Reconfigurable
Layout and Style [5.912209564607099]
レイアウトから属性制御画像合成を行う方法を提案する。
我々は、属性の個々のオブジェクトを条件づけるために、レイアウトから画像への生成に関する最先端のアプローチを拡張する。
提案手法は,複雑なシーンを複数のオブジェクトでモデリングする際に,個々のオブジェクトの細かな詳細をうまく制御できることを示す。
論文 参考訳(メタデータ) (2021-03-25T10:09:45Z) - Example-Guided Image Synthesis across Arbitrary Scenes using Masked
Spatial-Channel Attention and Self-Supervision [83.33283892171562]
実例誘導画像合成は,最近セマンティックラベルマップと模範画像から画像を合成するために試みられている。
本稿では,ラベルマップと意味的に異なる任意のシーンイメージを例に,より困難で汎用的な課題に取り組む。
本稿では,グローバル・ローカルな特徴アライメントと合成のためのエンドツーエンドネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-18T18:17:40Z) - Continuous learning of face attribute synthesis [4.786157629600151]
GAN(Generative Adversarial Network)は、顔属性合成タスクにおいて、非常に優れた性能を示す。
既存の手法は、新しい属性の拡張に非常に限定的な効果を持つ。
本研究では,顔属性合成のための連続学習法を提案する。
論文 参考訳(メタデータ) (2020-04-15T06:44:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。