論文の概要: Pose with Style: Detail-Preserving Pose-Guided Image Synthesis with
Conditional StyleGAN
- arxiv url: http://arxiv.org/abs/2109.06166v1
- Date: Mon, 13 Sep 2021 17:59:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 17:40:01.705104
- Title: Pose with Style: Detail-Preserving Pose-Guided Image Synthesis with
Conditional StyleGAN
- Title(参考訳): 文様付きポーズ:条件付きスタイルガンを用いた細部保存ポーズ誘導画像合成
- Authors: Badour AlBahar, Jingwan Lu, Jimei Yang, Zhixin Shu, Eli Shechtman,
Jia-Bin Huang
- Abstract要約: 任意のポーズで1つの画像から人物を再レンダリングするアルゴリズムを提案する。
既存の方法では、画像の同一性や細部を保ちながら、隠蔽されたコンテンツを写実的に幻覚することはしばしば困難である。
本手法は, 定量的評価と視覚的比較の両方において, 最先端のアルゴリズムと良好に比較できることを示す。
- 参考スコア(独自算出の注目度): 88.62422914645066
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present an algorithm for re-rendering a person from a single image under
arbitrary poses. Existing methods often have difficulties in hallucinating
occluded contents photo-realistically while preserving the identity and fine
details in the source image. We first learn to inpaint the correspondence field
between the body surface texture and the source image with a human body
symmetry prior. The inpainted correspondence field allows us to transfer/warp
local features extracted from the source to the target view even under large
pose changes. Directly mapping the warped local features to an RGB image using
a simple CNN decoder often leads to visible artifacts. Thus, we extend the
StyleGAN generator so that it takes pose as input (for controlling poses) and
introduces a spatially varying modulation for the latent space using the warped
local features (for controlling appearances). We show that our method compares
favorably against the state-of-the-art algorithms in both quantitative
evaluation and visual comparison.
- Abstract(参考訳): 任意のポーズで1つの画像から人物を再レンダリングするアルゴリズムを提案する。
既存の方法では、画像の同一性や細部を保ちながら、隠蔽されたコンテンツを写実的に幻覚することはしばしば困難である。
まず,体表面のテクスチャと原画像との対応関係を,人体対称性に先行して塗布することを学ぶ。
塗装された対応フィールドは、大きなポーズ変化の下でも、ソースから抽出された局所的特徴をターゲットビューに転送/ウォープすることができる。
歪んだローカル機能を単純なcnnデコーダを使用してrgbイメージに直接マッピングすることは、しばしば目に見えるアーティファクトにつながる。
このように、スタイルガン生成器を拡張して、ポーズを入力(ポーズ制御)として取り、反りのある局所的特徴(外観制御)を用いて、潜在空間の空間的に変化する変調を導入する。
本手法は,定量的評価と視覚比較の両方において,最先端のアルゴリズムと良好に比較できることを示す。
関連論文リスト
- DRDM: A Disentangled Representations Diffusion Model for Synthesizing Realistic Person Images [9.768951663960257]
本稿では,画像からリアルな画像を生成するために,DRDM(Disentangled Representations Diffusion Model)を提案する。
まず、ポーズエンコーダは、人物画像の生成を導くために、ポーズ特徴を高次元空間に符号化する。
第2に、本体部分部分部分空間疎結合ブロック(BSDB)は、ソースフィギュアの異なる本体部分から特徴を分離し、ノイズ予測ブロックの様々な層に供給する。
論文 参考訳(メタデータ) (2024-12-25T06:36:24Z) - Sketch-guided Image Inpainting with Partial Discrete Diffusion Process [5.005162730122933]
スケッチ誘導インペイントのための新しい部分離散拡散法(PDDP)を提案する。
PDDPは画像のマスキング領域を破損させ、手描きスケッチで条件付けられたこれらのマスキング領域を再構築する。
提案するトランスモジュールは,2つの入力を受信する。マスク領域を含む画像はインペイントされ,クエリスケッチは逆拡散過程をモデル化する。
論文 参考訳(メタデータ) (2024-04-18T07:07:38Z) - VINECS: Video-based Neural Character Skinning [82.39776643541383]
ポーズ依存のスキン重みを持つ完全リップ文字を作成するための完全自動アプローチを提案する。
提案手法は高密度4Dスキャンに頼らず,最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-03T08:35:53Z) - StyleMask: Disentangling the Style Space of StyleGAN2 for Neural Face
Reenactment [47.27033282706179]
本研究では,顔の特徴をそのポーズから切り離すフレームワークを提案する。
提案手法は, 極端なポーズ変動であっても, 高品質な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-09-27T13:22:35Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - PISE: Person Image Synthesis and Editing with Decoupled GAN [64.70360318367943]
人像合成と編集のための新しい二段階生成モデルであるPISEを提案する。
ヒトのポーズ伝達では,まず対象のポーズに合わせた人間のパーシングマップを合成し,衣服の形状を表現する。
衣服の形状とスタイルを分離するため,地域ごとの符号化と正規化を共同で提案する。
論文 参考訳(メタデータ) (2021-03-06T04:32:06Z) - Neural Re-Rendering of Humans from a Single Image [80.53438609047896]
本稿では,新しいユーザ定義のポーズと視点の下での人間のニューラルリレンダリング手法を提案する。
私たちのアルゴリズムは、単一の画像から再構築できるパラメトリックメッシュとして体ポーズと形状を表します。
論文 参考訳(メタデータ) (2021-01-11T18:53:47Z) - Liquid Warping GAN with Attention: A Unified Framework for Human Image
Synthesis [58.05389586712485]
我々は、人間の動きの模倣、外見の移入、新しい視点の合成など、人間の画像合成に取り組む。
本稿では,ポーズと形状を乱す3次元ボディーメッシュ回収モジュールを提案する。
我々はまた、人間の動きの模倣、外観伝達、新しいビュー合成を評価するために、新しいデータセット、すなわちiPERデータセットを構築した。
論文 参考訳(メタデータ) (2020-11-18T02:57:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。