論文の概要: HumanGAN: A Generative Model of Humans Images
- arxiv url: http://arxiv.org/abs/2103.06902v1
- Date: Thu, 11 Mar 2021 19:00:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-15 13:25:29.400268
- Title: HumanGAN: A Generative Model of Humans Images
- Title(参考訳): HumanGAN:人間の画像の生成モデル
- Authors: Kripasindhu Sarkar and Lingjie Liu and Vladislav Golyanik and
Christian Theobalt
- Abstract要約: 本研究では,ポーズ,局所的な身体部分の外観,衣料品スタイルを制御できる服装者の画像生成モデルを提案する。
本モデルでは,正規化されたポーズ非依存空間に部分的潜在性出現ベクトルをエンコードし,異なるポーズに誘導し,様々な姿勢で身体や衣服の外観を保っている。
- 参考スコア(独自算出の注目度): 78.6284090004218
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative adversarial networks achieve great performance in photorealistic
image synthesis in various domains, including human images. However, they
usually employ latent vectors that encode the sampled outputs globally. This
does not allow convenient control of semantically-relevant individual parts of
the image, and is not able to draw samples that only differ in partial aspects,
such as clothing style. We address these limitations and present a generative
model for images of dressed humans offering control over pose, local body part
appearance and garment style. This is the first method to solve various aspects
of human image generation such as global appearance sampling, pose transfer,
parts and garment transfer, and parts sampling jointly in a unified framework.
As our model encodes part-based latent appearance vectors in a normalized
pose-independent space and warps them to different poses, it preserves body and
clothing appearance under varying posture. Experiments show that our flexible
and general generative method outperforms task-specific baselines for
pose-conditioned image generation, pose transfer and part sampling in terms of
realism and output resolution.
- Abstract(参考訳): ジェネレーティブな逆転ネットワークは、人間の画像を含むさまざまな領域のフォトリアリズム画像合成において優れたパフォーマンスを実現します。
しかし、通常は世界中のサンプル出力を符号化する潜在ベクトルを用いる。
これにより、画像のセマンティックな個々の部分を適切に制御することができず、衣服スタイルのような部分的な側面だけが異なるサンプルを描画することができない。
そこで本稿では,これらの制限に対処し,ポーズや身体の一部の外観,服装スタイルを制御できる服装者の画像生成モデルを提案する。
これは、グローバルな外観サンプリング、ポーズ転送、部品と衣服の転送、および統一された枠組みで一緒にサンプリングする部品など、人間の画像生成のさまざまな側面を解決するための最初の方法です。
我々のモデルは、正規化されたポーズ非依存空間における部分ベースの潜伏外見ベクトルを符号化し、異なるポーズにワープするので、様々な姿勢で身体と衣服の外観を保存できる。
提案手法は,ポーズ条件付き画像生成,ポーズ転送,部分サンプリングにおいて,現実性や出力分解能の観点から,タスク固有のベースラインよりも優れていることを示す。
関連論文リスト
- Controllable Human Image Generation with Personalized Multi-Garments [46.042383679103125]
BootCompは、テキストから画像への拡散モデルに基づく新しいフレームワークである。
本研究では,ヒトとマルチガーメントのペアからなる大規模な合成データセットを構築するためのデータ生成パイプラインを提案する。
ファッションドメインにおいて、異なるタイプの参照ベース生成に適応することで、フレームワークの幅広い適用性を示す。
論文 参考訳(メタデータ) (2024-11-25T12:37:13Z) - From Parts to Whole: A Unified Reference Framework for Controllable Human Image Generation [19.096741614175524]
Parts2Wholeは、複数の参照画像からカスタマイズされたポートレートを生成するために設計された新しいフレームワークである。
そこで我々はまず,人間の各部分の詳細を保持する意味認識型外見エンコーダを開発した。
第2に,本フレームワークは共有自己認識機構によるマルチイメージコンディション生成をサポートする。
論文 参考訳(メタデータ) (2024-04-23T17:56:08Z) - InsetGAN for Full-Body Image Generation [90.71033704904629]
本稿では,複数の事前学習型GANを結合する新しい手法を提案する。
1つのGANは、グローバルキャンバス(例えば、人体)と、異なる部分に焦点を当てた特別なGAN、またはインセットのセットを生成する。
フルボディのGANと専用の高品質な顔のGANを組み合わせることで、可視的外観の人間を作り出すことで、セットアップを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:01:46Z) - PISE: Person Image Synthesis and Editing with Decoupled GAN [64.70360318367943]
人像合成と編集のための新しい二段階生成モデルであるPISEを提案する。
ヒトのポーズ伝達では,まず対象のポーズに合わせた人間のパーシングマップを合成し,衣服の形状を表現する。
衣服の形状とスタイルを分離するため,地域ごとの符号化と正規化を共同で提案する。
論文 参考訳(メタデータ) (2021-03-06T04:32:06Z) - Style and Pose Control for Image Synthesis of Humans from a Single
Monocular View [78.6284090004218]
StylePoseGANは、ポーズと外観のコンディショニングを別々に受け入れる非制御発電機です。
我々のネットワークは、人間のイメージで完全に教師された方法で訓練され、ポーズ、外観、体の部分を切り離すことができる。
StylePoseGANは、一般的な知覚メトリクスで最新の画像生成忠実度を実現します。
論文 参考訳(メタデータ) (2021-02-22T18:50:47Z) - Pose-Guided Human Animation from a Single Image in the Wild [83.86903892201656]
身体ポーズのシーケンスによって制御される人の単一の画像から人間のアニメーションを合成するための新しいポーズ転送方法を提案する。
既存のポーズ転送手法は、新しいシーンに適用する際に重要な視覚的アーティファクトを示す。
我々は,シルエット,衣料ラベル,テクスチャを予測する合成ニューラルネットワークを設計した。
我々は、テスト現場でネットワークを微調整することなく、時間的に一貫した方法で人物のアイデンティティと外観を保存できる人間のアニメーションを合成することができる。
論文 参考訳(メタデータ) (2020-12-07T15:38:29Z) - Generating Person Images with Appearance-aware Pose Stylizer [66.44220388377596]
本稿では,人物のポーズや外見に基づいてリアルな人物画像を生成する,新しいエンドツーエンドフレームワークを提案する。
本フレームワークのコアとなるのは、ターゲットポーズと条件付き人物の外観を段階的に結合して人体画像を生成する、APS(Appearance-aware Pose Stylizer)と呼ばれる新しいジェネレータである。
論文 参考訳(メタデータ) (2020-07-17T15:58:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。