論文の概要: Generating Person Images with Appearance-aware Pose Stylizer
- arxiv url: http://arxiv.org/abs/2007.09077v1
- Date: Fri, 17 Jul 2020 15:58:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 13:39:08.575628
- Title: Generating Person Images with Appearance-aware Pose Stylizer
- Title(参考訳): 外観認識型ポススタイライザによる人物画像の生成
- Authors: Siyu Huang, Haoyi Xiong, Zhi-Qi Cheng, Qingzhong Wang, Xingran Zhou,
Bihan Wen, Jun Huan, Dejing Dou
- Abstract要約: 本稿では,人物のポーズや外見に基づいてリアルな人物画像を生成する,新しいエンドツーエンドフレームワークを提案する。
本フレームワークのコアとなるのは、ターゲットポーズと条件付き人物の外観を段階的に結合して人体画像を生成する、APS(Appearance-aware Pose Stylizer)と呼ばれる新しいジェネレータである。
- 参考スコア(独自算出の注目度): 66.44220388377596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generation of high-quality person images is challenging, due to the
sophisticated entanglements among image factors, e.g., appearance, pose,
foreground, background, local details, global structures, etc. In this paper,
we present a novel end-to-end framework to generate realistic person images
based on given person poses and appearances. The core of our framework is a
novel generator called Appearance-aware Pose Stylizer (APS) which generates
human images by coupling the target pose with the conditioned person appearance
progressively. The framework is highly flexible and controllable by effectively
decoupling various complex person image factors in the encoding phase, followed
by re-coupling them in the decoding phase. In addition, we present a new
normalization method named adaptive patch normalization, which enables
region-specific normalization and shows a good performance when adopted in
person image generation model. Experiments on two benchmark datasets show that
our method is capable of generating visually appealing and realistic-looking
results using arbitrary image and pose inputs.
- Abstract(参考訳): 例えば、外観、ポーズ、前景、背景、ローカル詳細、グローバル構造など、画像要素間の高度な絡み合いがあるため、高品質な人物画像の生成は困難である。
本稿では,人物のポーズや外見に基づいてリアルな人物画像を生成する,新しいエンドツーエンドフレームワークを提案する。
対象のポーズと条件付き人物の出現を漸進的に結合して人間の画像を生成する,exe-aware pose stylizer (aps) と呼ばれる新しい生成器である。
このフレームワークは、符号化フェーズで様々な複雑な人物画像要素を効果的に分離し、復号フェーズでそれらを再結合することにより、柔軟で制御可能である。
さらに,適応パッチ正規化(Adaptive patch normalization)と呼ばれる新しい正規化手法を提案する。
2つのベンチマークデータセットにおける実験により、任意の画像とポーズ入力を用いて視覚的に魅力的なリアルな結果を生成することができることを示した。
関連論文リスト
- Imagine yourself: Tuning-Free Personalized Image Generation [39.63411174712078]
私たちは、パーソナライズされた画像生成用に設計された最先端のモデルであるImagine yourselfを紹介します。
チューニング不要のモデルとして機能し、個別に調整することなく、すべてのユーザが共有フレームワークを活用できる。
我々の研究は、Imagine自身が最先端のパーソナライズモデルを超え、アイデンティティ保存、視覚的品質、テキストアライメントにおいて優れた能力を示すことを示した。
論文 参考訳(メタデータ) (2024-09-20T09:21:49Z) - Powerful and Flexible: Personalized Text-to-Image Generation via Reinforcement Learning [40.06403155373455]
個人化されたテキスト・画像生成のための新しい強化学習フレームワークを提案する。
提案手法は、テキストアライメントを維持しながら、視覚的忠実度に大きな差で既存の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-07-09T08:11:53Z) - From Parts to Whole: A Unified Reference Framework for Controllable Human Image Generation [19.096741614175524]
Parts2Wholeは、複数の参照画像からカスタマイズされたポートレートを生成するために設計された新しいフレームワークである。
そこで我々はまず,人間の各部分の詳細を保持する意味認識型外見エンコーダを開発した。
第2に,本フレームワークは共有自己認識機構によるマルチイメージコンディション生成をサポートする。
論文 参考訳(メタデータ) (2024-04-23T17:56:08Z) - HumanDiffusion: a Coarse-to-Fine Alignment Diffusion Framework for
Controllable Text-Driven Person Image Generation [73.3790833537313]
制御可能な人物画像生成は、デジタルヒューマンインタラクションや仮想トライオンといった幅広い応用を促進する。
テキスト駆動型人物画像生成のための粗大なアライメント拡散フレームワークHumanDiffusionを提案する。
論文 参考訳(メタデータ) (2022-11-11T14:30:34Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - HumanGAN: A Generative Model of Humans Images [78.6284090004218]
本研究では,ポーズ,局所的な身体部分の外観,衣料品スタイルを制御できる服装者の画像生成モデルを提案する。
本モデルでは,正規化されたポーズ非依存空間に部分的潜在性出現ベクトルをエンコードし,異なるポーズに誘導し,様々な姿勢で身体や衣服の外観を保っている。
論文 参考訳(メタデータ) (2021-03-11T19:00:38Z) - PISE: Person Image Synthesis and Editing with Decoupled GAN [64.70360318367943]
人像合成と編集のための新しい二段階生成モデルであるPISEを提案する。
ヒトのポーズ伝達では,まず対象のポーズに合わせた人間のパーシングマップを合成し,衣服の形状を表現する。
衣服の形状とスタイルを分離するため,地域ごとの符号化と正規化を共同で提案する。
論文 参考訳(メタデータ) (2021-03-06T04:32:06Z) - Style and Pose Control for Image Synthesis of Humans from a Single
Monocular View [78.6284090004218]
StylePoseGANは、ポーズと外観のコンディショニングを別々に受け入れる非制御発電機です。
我々のネットワークは、人間のイメージで完全に教師された方法で訓練され、ポーズ、外観、体の部分を切り離すことができる。
StylePoseGANは、一般的な知覚メトリクスで最新の画像生成忠実度を実現します。
論文 参考訳(メタデータ) (2021-02-22T18:50:47Z) - Correspondence Learning for Controllable Person Image Generation [0.0]
ポーズガイドによる人物画像合成に応用できる制御可能な人物画像合成のための生成モデルである$i.e.$を提案する。
対象ポーズとソース画像との密接な対応を明示的に確立することにより、ポーズ変換によって引き起こされる誤用を効果的に解決することができる。
論文 参考訳(メタデータ) (2020-12-23T01:35:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。