論文の概要: MUST-GAN: Multi-level Statistics Transfer for Self-driven Person Image
Generation
- arxiv url: http://arxiv.org/abs/2011.09084v3
- Date: Fri, 9 Apr 2021 02:22:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 04:22:40.209540
- Title: MUST-GAN: Multi-level Statistics Transfer for Self-driven Person Image
Generation
- Title(参考訳): MUST-GAN:自己駆動型人物画像生成のための多段階統計伝達
- Authors: Tianxiang Ma, Bo Peng, Wei Wang, Jing Dong
- Abstract要約: 姿勢誘導型人物画像生成は通常、トレーニングを監督するためにペアのソースターゲット画像を使用する。
本稿では,人物画像から多段階の外観特徴を分離・伝達する,新しい多段階統計伝達モデルを提案する。
提案手法は,人物の外観を柔軟に操作し,ポーズ・トランスファーや衣服スタイル・トランスファー・タスクを行う。
- 参考スコア(独自算出の注目度): 13.06676286691587
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pose-guided person image generation usually involves using paired
source-target images to supervise the training, which significantly increases
the data preparation effort and limits the application of the models. To deal
with this problem, we propose a novel multi-level statistics transfer model,
which disentangles and transfers multi-level appearance features from person
images and merges them with pose features to reconstruct the source person
images themselves. So that the source images can be used as supervision for
self-driven person image generation. Specifically, our model extracts
multi-level features from the appearance encoder and learns the optimal
appearance representation through attention mechanism and attributes
statistics. Then we transfer them to a pose-guided generator for re-fusion of
appearance and pose. Our approach allows for flexible manipulation of person
appearance and pose properties to perform pose transfer and clothes style
transfer tasks. Experimental results on the DeepFashion dataset demonstrate our
method's superiority compared with state-of-the-art supervised and unsupervised
methods. In addition, our approach also performs well in the wild.
- Abstract(参考訳): pose-guided person Image generationは、通常、トレーニングを監督するためにペアのソースターゲットイメージを使用する。
そこで,本稿では,人物画像から複数レベルの出現特徴を抽出・転送し,それらをポーズ特徴と融合して原点画像自体を再構成する多レベル統計伝達モデルを提案する。
ソースイメージを自己駆動型イメージ生成の監督として使用できるようにします。
具体的には,出現エンコーダから多レベル特徴を抽出し,注意機構と属性統計を用いて最適な出現表現を学習する。
次に、外観とポーズを再注入するためのポーズ誘導ジェネレータにそれらを転送する。
本手法により,人物の外観やポーズ特性を柔軟に操作し,ポーズの移動や着衣の移動を行うことができる。
DeepFashionデータセットの実験結果は、最先端の教師付きおよび教師なしの手法と比較して、我々の手法の優位性を示している。
さらに、私たちのアプローチは野生でもうまく機能します。
関連論文リスト
- From Parts to Whole: A Unified Reference Framework for Controllable Human Image Generation [19.096741614175524]
Parts2Wholeは、複数の参照画像からカスタマイズされたポートレートを生成するために設計された新しいフレームワークである。
そこで我々はまず,人間の各部分の詳細を保持する意味認識型外見エンコーダを開発した。
第2に,本フレームワークは共有自己認識機構によるマルチイメージコンディション生成をサポートする。
論文 参考訳(メタデータ) (2024-04-23T17:56:08Z) - Person Image Synthesis via Denoising Diffusion Model [116.34633988927429]
本研究では,高忠実度人物画像合成に拡散モデルをいかに応用できるかを示す。
2つの大規模ベンチマークとユーザスタディの結果は、挑戦的なシナリオ下で提案したアプローチのフォトリアリズムを実証している。
論文 参考訳(メタデータ) (2022-11-22T18:59:50Z) - Progressive and Aligned Pose Attention Transfer for Person Image
Generation [59.87492938953545]
本稿では,ある人物のポーズを対象のポーズに移す,新たなポーズ移動のための生成的広告ネットワークを提案する。
Pose-Attentional Transfer Block (PATB) と Aligned Pose-Attentional Transfer Bloc (APATB) の2種類のブロックを使用します。
Market-1501およびDeepFashionデータセットにおけるモデルの有効性を定量的および定性測定を用いて検証する。
論文 参考訳(メタデータ) (2021-03-22T07:24:57Z) - Style and Pose Control for Image Synthesis of Humans from a Single
Monocular View [78.6284090004218]
StylePoseGANは、ポーズと外観のコンディショニングを別々に受け入れる非制御発電機です。
我々のネットワークは、人間のイメージで完全に教師された方法で訓練され、ポーズ、外観、体の部分を切り離すことができる。
StylePoseGANは、一般的な知覚メトリクスで最新の画像生成忠実度を実現します。
論文 参考訳(メタデータ) (2021-02-22T18:50:47Z) - PoNA: Pose-guided Non-local Attention for Human Pose Transfer [105.14398322129024]
本稿では, 簡易ブロックを用いたGAN(Generative Adversarial Network)を用いた新しいポーズ転送手法を提案する。
我々のモデルはより鮮明でよりリアルな画像を生成するが、パラメータは少なく、速度も速い。
論文 参考訳(メタデータ) (2020-12-13T12:38:29Z) - Pose-Guided High-Resolution Appearance Transfer via Progressive Training [65.92031716146865]
前例のない画像解像度で、所定の参照外観をターゲットポーズに転送するためのポーズ誘導型外観伝達ネットワークを提案する。
我々のネットワークは、局所的な知覚喪失や局所的な識別など、密集した局所記述子を用いて詳細を精査する。
我々のモデルは高品質な画像を生成し、人間の衣服の移動などの有用な応用にさらに活用することができる。
論文 参考訳(メタデータ) (2020-08-27T03:18:44Z) - Generating Person Images with Appearance-aware Pose Stylizer [66.44220388377596]
本稿では,人物のポーズや外見に基づいてリアルな人物画像を生成する,新しいエンドツーエンドフレームワークを提案する。
本フレームワークのコアとなるのは、ターゲットポーズと条件付き人物の外観を段階的に結合して人体画像を生成する、APS(Appearance-aware Pose Stylizer)と呼ばれる新しいジェネレータである。
論文 参考訳(メタデータ) (2020-07-17T15:58:05Z) - A Robust Pose Transformational GAN for Pose Guided Person Image
Synthesis [9.570395744724461]
任意のポーズで与えられた人物画像を生成するために,付加的な特徴学習を伴わない残差学習手法を用いて,シンプルで効果的なポーズ変換GANを提案する。
効率的なデータ拡張技術と巧妙にモデルをチューニングすることで、照明、閉塞、歪み、スケールの点で堅牢性を実現する。
本稿では,2つの大規模データセット上での既存手法よりもモデルの方が優れていることを示すために,定性的かつ定量的に詳細な研究を行う。
論文 参考訳(メタデータ) (2020-01-05T15:32:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。