論文の概要: PISE: Person Image Synthesis and Editing with Decoupled GAN
- arxiv url: http://arxiv.org/abs/2103.04023v1
- Date: Sat, 6 Mar 2021 04:32:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 15:42:51.000794
- Title: PISE: Person Image Synthesis and Editing with Decoupled GAN
- Title(参考訳): PISE:非結合GANによる人物画像の合成と編集
- Authors: Jinsong Zhang, Kun Li, Yu-Kun Lai, Jingyu Yang
- Abstract要約: 人像合成と編集のための新しい二段階生成モデルであるPISEを提案する。
ヒトのポーズ伝達では,まず対象のポーズに合わせた人間のパーシングマップを合成し,衣服の形状を表現する。
衣服の形状とスタイルを分離するため,地域ごとの符号化と正規化を共同で提案する。
- 参考スコア(独自算出の注目度): 64.70360318367943
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Person image synthesis, e.g., pose transfer, is a challenging problem due to
large variation and occlusion. Existing methods have difficulties predicting
reasonable invisible regions and fail to decouple the shape and style of
clothing, which limits their applications on person image editing. In this
paper, we propose PISE, a novel two-stage generative model for Person Image
Synthesis and Editing, which is able to generate realistic person images with
desired poses, textures, or semantic layouts. For human pose transfer, we first
synthesize a human parsing map aligned with the target pose to represent the
shape of clothing by a parsing generator, and then generate the final image by
an image generator. To decouple the shape and style of clothing, we propose
joint global and local per-region encoding and normalization to predict the
reasonable style of clothing for invisible regions. We also propose
spatial-aware normalization to retain the spatial context relationship in the
source image. The results of qualitative and quantitative experiments
demonstrate the superiority of our model on human pose transfer. Besides, the
results of texture transfer and region editing show that our model can be
applied to person image editing.
- Abstract(参考訳): ポーズ転送などの人物画像合成は、大きな変化と閉塞による困難な問題である。
既存の方法は、合理的な可視領域の予測が困難であり、衣服の形状とスタイルを分離することができず、人の画像編集への適用が制限されます。
本論文では,目的のポーズ,テクスチャ,あるいはセマンティックレイアウトでリアルな人物画像を生成することができる,人物画像合成と編集のための新しい二段階生成モデルであるPISEを提案する。
ヒトのポーズ伝達のために,まず対象のポーズに合わせた人間のパーシングマップを合成し,パーシングジェネレータで衣服の形状を表現し,画像生成装置で最終画像を生成する。
衣服の形状と様式を分離するために,地域別および地域別エンコーディングと正規化を共同で提案し,不可視領域における服の合理的なスタイルを予測する。
また,画像中の空間的文脈関係を維持するために空間認識正規化を提案する。
定性的,定量的な実験の結果,人間のポーズ伝達におけるモデルの有用性が示された。
また, テクスチャ転送と領域編集の結果から, 本モデルは人物画像編集に適用可能であることが示された。
関連論文リスト
- A Two-stage Personalized Virtual Try-on Framework with Shape Control and
Texture Guidance [7.302929117437442]
本稿では,2段階(形状制御とテクスチャガイダンス)を用いて衣服属性を分離する,新しい仮想試行モデル(PE-VITON)を提案する。
提案モデルでは, 衣服の折り畳みの弱さ, 複雑な姿勢下での創出効果の低下, 衣服のぼやけた縁, 従来の試行法では不明瞭なテクスチャスタイルを効果的に解決することができる。
論文 参考訳(メタデータ) (2023-12-24T13:32:55Z) - Pose with Style: Detail-Preserving Pose-Guided Image Synthesis with
Conditional StyleGAN [88.62422914645066]
任意のポーズで1つの画像から人物を再レンダリングするアルゴリズムを提案する。
既存の方法では、画像の同一性や細部を保ちながら、隠蔽されたコンテンツを写実的に幻覚することはしばしば困難である。
本手法は, 定量的評価と視覚的比較の両方において, 最先端のアルゴリズムと良好に比較できることを示す。
論文 参考訳(メタデータ) (2021-09-13T17:59:33Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - HumanGAN: A Generative Model of Humans Images [78.6284090004218]
本研究では,ポーズ,局所的な身体部分の外観,衣料品スタイルを制御できる服装者の画像生成モデルを提案する。
本モデルでは,正規化されたポーズ非依存空間に部分的潜在性出現ベクトルをエンコードし,異なるポーズに誘導し,様々な姿勢で身体や衣服の外観を保っている。
論文 参考訳(メタデータ) (2021-03-11T19:00:38Z) - Style and Pose Control for Image Synthesis of Humans from a Single
Monocular View [78.6284090004218]
StylePoseGANは、ポーズと外観のコンディショニングを別々に受け入れる非制御発電機です。
我々のネットワークは、人間のイメージで完全に教師された方法で訓練され、ポーズ、外観、体の部分を切り離すことができる。
StylePoseGANは、一般的な知覚メトリクスで最新の画像生成忠実度を実現します。
論文 参考訳(メタデータ) (2021-02-22T18:50:47Z) - Correspondence Learning for Controllable Person Image Generation [0.0]
ポーズガイドによる人物画像合成に応用できる制御可能な人物画像合成のための生成モデルである$i.e.$を提案する。
対象ポーズとソース画像との密接な対応を明示的に確立することにより、ポーズ変換によって引き起こされる誤用を効果的に解決することができる。
論文 参考訳(メタデータ) (2020-12-23T01:35:00Z) - Pose-Guided Human Animation from a Single Image in the Wild [83.86903892201656]
身体ポーズのシーケンスによって制御される人の単一の画像から人間のアニメーションを合成するための新しいポーズ転送方法を提案する。
既存のポーズ転送手法は、新しいシーンに適用する際に重要な視覚的アーティファクトを示す。
我々は,シルエット,衣料ラベル,テクスチャを予測する合成ニューラルネットワークを設計した。
我々は、テスト現場でネットワークを微調整することなく、時間的に一貫した方法で人物のアイデンティティと外観を保存できる人間のアニメーションを合成することができる。
論文 参考訳(メタデータ) (2020-12-07T15:38:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。