論文の概要: Correspondence Learning for Controllable Person Image Generation
- arxiv url: http://arxiv.org/abs/2012.12440v1
- Date: Wed, 23 Dec 2020 01:35:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-26 05:59:20.969693
- Title: Correspondence Learning for Controllable Person Image Generation
- Title(参考訳): 制御可能な人物画像生成のための対応学習
- Authors: Shilong Shen
- Abstract要約: ポーズガイドによる人物画像合成に応用できる制御可能な人物画像合成のための生成モデルである$i.e.$を提案する。
対象ポーズとソース画像との密接な対応を明示的に確立することにより、ポーズ変換によって引き起こされる誤用を効果的に解決することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a generative model for controllable person image synthesis,as
shown in Figure , which can be applied to pose-guided person image synthesis,
$i.e.$, converting the pose of a source person image to the target pose while
preserving the texture of that source person image, and clothing-guided person
image synthesis, $i.e.$, changing the clothing texture of a source person image
to the desired clothing texture. By explicitly establishing the dense
correspondence between the target pose and the source image, we can effectively
address the misalignment introduced by pose tranfer and generate high-quality
images. Specifically, we first generate the target semantic map under the
guidence of the target pose, which can provide more accurate pose
representation and structural constraints during the generation process. Then,
decomposed attribute encoder is used to extract the component features, which
not only helps to establish a more accurate dense correspondence, but also
realizes the clothing-guided person generation. After that, we will establish a
dense correspondence between the target pose and the source image within the
sharded domain. The source image feature is warped according to the dense
correspondence to flexibly account for deformations. Finally, the network
renders image based on the warped source image feature and the target pose.
Experimental results show that our method is superior to state-of-the-art
methods in pose-guided person generation and its effectiveness in
clothing-guided person generation.
- Abstract(参考訳): 本稿では、対象人物像のテクスチャを維持しつつ、対象人物像のポーズを対象ポーズに変換し、対象人物像のテクスチャを所望の衣服テクスチャに変化させる、対象人物像合成の制御可能な生成モデルである、図1に示すように、対象人物像合成の制御可能な生成モデルを提案する。
対象のポーズとソース画像との密接な対応を明確にすることで、ポーズ・トランファーがもたらすミスアライメントに効果的に対処し、高品質な画像を生成することができる。
具体的には、まずターゲットポーズの案内の下でターゲットセマンティックマップを生成し、生成プロセス中により正確なポーズ表現と構造的制約を提供する。
次に、分解された属性エンコーダを用いてコンポーネントの特徴を抽出し、より正確な密接な対応を確立するだけでなく、衣服誘導者生成を実現する。
その後、ターゲットポーズとshardedドメイン内のソースイメージとの密接な対応を確立する。
ソース画像特徴を濃密な対応に従って反動させ、変形を柔軟に考慮する。
最後に、ネットワークは、歪んだソース画像機能とターゲットポーズに基づいて画像をレンダリングする。
提案手法は,ポーズ誘導者生成における最先端手法よりも優れ,衣服誘導者生成における有効性を示す。
関連論文リスト
- HumanDiffusion: a Coarse-to-Fine Alignment Diffusion Framework for
Controllable Text-Driven Person Image Generation [73.3790833537313]
制御可能な人物画像生成は、デジタルヒューマンインタラクションや仮想トライオンといった幅広い応用を促進する。
テキスト駆動型人物画像生成のための粗大なアライメント拡散フレームワークHumanDiffusionを提案する。
論文 参考訳(メタデータ) (2022-11-11T14:30:34Z) - Pose Guided Human Image Synthesis with Partially Decoupled GAN [25.800174118151638]
Pose Guided Human Image Synthesis (PGHIS) は、人間のイメージを基準ポーズから目標ポーズへ変換する難しいタスクである。
本研究では,人体を複数の部分に分解し,現実的な人物像の合成を誘導する手法を提案する。
さらに,PGHISのためのマルチヘッドアテンションベースモジュールを設計する。
論文 参考訳(メタデータ) (2022-10-07T15:31:37Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - HumanGAN: A Generative Model of Humans Images [78.6284090004218]
本研究では,ポーズ,局所的な身体部分の外観,衣料品スタイルを制御できる服装者の画像生成モデルを提案する。
本モデルでは,正規化されたポーズ非依存空間に部分的潜在性出現ベクトルをエンコードし,異なるポーズに誘導し,様々な姿勢で身体や衣服の外観を保っている。
論文 参考訳(メタデータ) (2021-03-11T19:00:38Z) - PISE: Person Image Synthesis and Editing with Decoupled GAN [64.70360318367943]
人像合成と編集のための新しい二段階生成モデルであるPISEを提案する。
ヒトのポーズ伝達では,まず対象のポーズに合わせた人間のパーシングマップを合成し,衣服の形状を表現する。
衣服の形状とスタイルを分離するため,地域ごとの符号化と正規化を共同で提案する。
論文 参考訳(メタデータ) (2021-03-06T04:32:06Z) - Style and Pose Control for Image Synthesis of Humans from a Single
Monocular View [78.6284090004218]
StylePoseGANは、ポーズと外観のコンディショニングを別々に受け入れる非制御発電機です。
我々のネットワークは、人間のイメージで完全に教師された方法で訓練され、ポーズ、外観、体の部分を切り離すことができる。
StylePoseGANは、一般的な知覚メトリクスで最新の画像生成忠実度を実現します。
論文 参考訳(メタデータ) (2021-02-22T18:50:47Z) - Structure-aware Person Image Generation with Pose Decomposition and
Semantic Correlation [29.727033198797518]
高品質な人物画像生成のための構造認識フローベース手法を提案する。
人体を異なる意味部分に分解し、異なるネットワークを適用してこれらの部分のフロー場を別々に予測する。
提案手法は,ポーズの相違が大きい場合に高品質な結果を生成することができ,定性比較と定量的比較の両方において最先端の手法より優れる。
論文 参考訳(メタデータ) (2021-02-05T03:07:57Z) - Person image generation with semantic attention network for person
re-identification [9.30413920076019]
本稿では,意味的注意ネットワークと呼ばれる新しい人物のポーズ誘導画像生成手法を提案する。
ネットワークはいくつかのセマンティックアテンションブロックで構成されており、各ブロックはポーズコードと衣服のテクスチャを保存および更新する。
他の方法と比較して、我々のネットワークはより優れた身体形状を特徴付けることができ、同時に衣服の属性を保持することができる。
論文 参考訳(メタデータ) (2020-08-18T12:18:51Z) - Generating Person Images with Appearance-aware Pose Stylizer [66.44220388377596]
本稿では,人物のポーズや外見に基づいてリアルな人物画像を生成する,新しいエンドツーエンドフレームワークを提案する。
本フレームワークのコアとなるのは、ターゲットポーズと条件付き人物の外観を段階的に結合して人体画像を生成する、APS(Appearance-aware Pose Stylizer)と呼ばれる新しいジェネレータである。
論文 参考訳(メタデータ) (2020-07-17T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。