論文の概要: Generating Person Images with Appearance-aware Pose Stylizer
- arxiv url: http://arxiv.org/abs/2007.09077v1
- Date: Fri, 17 Jul 2020 15:58:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 13:39:08.575628
- Title: Generating Person Images with Appearance-aware Pose Stylizer
- Title(参考訳): 外観認識型ポススタイライザによる人物画像の生成
- Authors: Siyu Huang, Haoyi Xiong, Zhi-Qi Cheng, Qingzhong Wang, Xingran Zhou,
Bihan Wen, Jun Huan, Dejing Dou
- Abstract要約: 本稿では,人物のポーズや外見に基づいてリアルな人物画像を生成する,新しいエンドツーエンドフレームワークを提案する。
本フレームワークのコアとなるのは、ターゲットポーズと条件付き人物の外観を段階的に結合して人体画像を生成する、APS(Appearance-aware Pose Stylizer)と呼ばれる新しいジェネレータである。
- 参考スコア(独自算出の注目度): 66.44220388377596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generation of high-quality person images is challenging, due to the
sophisticated entanglements among image factors, e.g., appearance, pose,
foreground, background, local details, global structures, etc. In this paper,
we present a novel end-to-end framework to generate realistic person images
based on given person poses and appearances. The core of our framework is a
novel generator called Appearance-aware Pose Stylizer (APS) which generates
human images by coupling the target pose with the conditioned person appearance
progressively. The framework is highly flexible and controllable by effectively
decoupling various complex person image factors in the encoding phase, followed
by re-coupling them in the decoding phase. In addition, we present a new
normalization method named adaptive patch normalization, which enables
region-specific normalization and shows a good performance when adopted in
person image generation model. Experiments on two benchmark datasets show that
our method is capable of generating visually appealing and realistic-looking
results using arbitrary image and pose inputs.
- Abstract(参考訳): 例えば、外観、ポーズ、前景、背景、ローカル詳細、グローバル構造など、画像要素間の高度な絡み合いがあるため、高品質な人物画像の生成は困難である。
本稿では,人物のポーズや外見に基づいてリアルな人物画像を生成する,新しいエンドツーエンドフレームワークを提案する。
対象のポーズと条件付き人物の出現を漸進的に結合して人間の画像を生成する,exe-aware pose stylizer (aps) と呼ばれる新しい生成器である。
このフレームワークは、符号化フェーズで様々な複雑な人物画像要素を効果的に分離し、復号フェーズでそれらを再結合することにより、柔軟で制御可能である。
さらに,適応パッチ正規化(Adaptive patch normalization)と呼ばれる新しい正規化手法を提案する。
2つのベンチマークデータセットにおける実験により、任意の画像とポーズ入力を用いて視覚的に魅力的なリアルな結果を生成することができることを示した。
関連論文リスト
- A Method for Training-free Person Image Picture Generation [4.043367784553845]
本稿では,キャラクタ画像の特徴モデルを提案する。
これにより、ユーザーは文字の画像を簡単に提供して、生成された画像中の文字の画像と期待値とを一致させることで、プロセスを利用することができる。
提案モデルは, モデルを変更したり, 継手モデルとして使用したりすることなく, 安定拡散生成プロセスに簡便に組み込むことができる。
論文 参考訳(メタデータ) (2023-05-16T21:46:28Z) - Relational Inductive Biases for Object-Centric Image Generation [10.219833196479142]
本稿では,オブジェクト中心のリレーショナル表現に基づく条件付き画像生成手法を提案する。
本稿では,その構造と関連するスタイルを表す属性グラフ上の画像中の特定のオブジェクトの生成を条件付ける手法を提案する。
提案フレームワークは、基礎となるグラフと出力画像となる2Dグリッドの両方で動作する畳み込み演算子を組み合わせたニューラルネットワークアーキテクチャを用いて実装されている。
論文 参考訳(メタデータ) (2023-03-26T11:17:17Z) - HumanDiffusion: a Coarse-to-Fine Alignment Diffusion Framework for
Controllable Text-Driven Person Image Generation [73.3790833537313]
制御可能な人物画像生成は、デジタルヒューマンインタラクションや仮想トライオンといった幅広い応用を促進する。
テキスト駆動型人物画像生成のための粗大なアライメント拡散フレームワークHumanDiffusionを提案する。
論文 参考訳(メタデータ) (2022-11-11T14:30:34Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - HumanGAN: A Generative Model of Humans Images [78.6284090004218]
本研究では,ポーズ,局所的な身体部分の外観,衣料品スタイルを制御できる服装者の画像生成モデルを提案する。
本モデルでは,正規化されたポーズ非依存空間に部分的潜在性出現ベクトルをエンコードし,異なるポーズに誘導し,様々な姿勢で身体や衣服の外観を保っている。
論文 参考訳(メタデータ) (2021-03-11T19:00:38Z) - PISE: Person Image Synthesis and Editing with Decoupled GAN [64.70360318367943]
人像合成と編集のための新しい二段階生成モデルであるPISEを提案する。
ヒトのポーズ伝達では,まず対象のポーズに合わせた人間のパーシングマップを合成し,衣服の形状を表現する。
衣服の形状とスタイルを分離するため,地域ごとの符号化と正規化を共同で提案する。
論文 参考訳(メタデータ) (2021-03-06T04:32:06Z) - Style and Pose Control for Image Synthesis of Humans from a Single
Monocular View [78.6284090004218]
StylePoseGANは、ポーズと外観のコンディショニングを別々に受け入れる非制御発電機です。
我々のネットワークは、人間のイメージで完全に教師された方法で訓練され、ポーズ、外観、体の部分を切り離すことができる。
StylePoseGANは、一般的な知覚メトリクスで最新の画像生成忠実度を実現します。
論文 参考訳(メタデータ) (2021-02-22T18:50:47Z) - Correspondence Learning for Controllable Person Image Generation [0.0]
ポーズガイドによる人物画像合成に応用できる制御可能な人物画像合成のための生成モデルである$i.e.$を提案する。
対象ポーズとソース画像との密接な対応を明示的に確立することにより、ポーズ変換によって引き起こされる誤用を効果的に解決することができる。
論文 参考訳(メタデータ) (2020-12-23T01:35:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。