論文の概要: InsetGAN for Full-Body Image Generation
- arxiv url: http://arxiv.org/abs/2203.07293v1
- Date: Mon, 14 Mar 2022 17:01:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-15 14:46:02.920069
- Title: InsetGAN for Full-Body Image Generation
- Title(参考訳): フルボディ画像生成のためのInsetGAN
- Authors: Anna Fr\"uhst\"uck and Krishna Kumar Singh and Eli Shechtman and Niloy
J. Mitra and Peter Wonka and Jingwan Lu
- Abstract要約: 本稿では,複数の事前学習型GANを結合する新しい手法を提案する。
1つのGANは、グローバルキャンバス(例えば、人体)と、異なる部分に焦点を当てた特別なGAN、またはインセットのセットを生成する。
フルボディのGANと専用の高品質な顔のGANを組み合わせることで、可視的外観の人間を作り出すことで、セットアップを実証する。
- 参考スコア(独自算出の注目度): 90.71033704904629
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While GANs can produce photo-realistic images in ideal conditions for certain
domains, the generation of full-body human images remains difficult due to the
diversity of identities, hairstyles, clothing, and the variance in pose.
Instead of modeling this complex domain with a single GAN, we propose a novel
method to combine multiple pretrained GANs, where one GAN generates a global
canvas (e.g., human body) and a set of specialized GANs, or insets, focus on
different parts (e.g., faces, shoes) that can be seamlessly inserted onto the
global canvas. We model the problem as jointly exploring the respective latent
spaces such that the generated images can be combined, by inserting the parts
from the specialized generators onto the global canvas, without introducing
seams. We demonstrate the setup by combining a full body GAN with a dedicated
high-quality face GAN to produce plausible-looking humans. We evaluate our
results with quantitative metrics and user studies.
- Abstract(参考訳): GANは特定の領域に理想的な条件で写真リアル画像を生成することができるが、身長、髪型、服装、ポーズの違いなどにより、フルボディの人間の画像の生成は困難である。
この複雑なドメインを単一のGANでモデル化する代わりに、1つのGANがグローバルキャンバス(例えば、人体)と特殊なGAN(例えば、顔や靴)のセットを生成し、グローバルキャンバスにシームレスに挿入できる異なる部分(例えば、顔や靴)にフォーカスする、複数の事前訓練されたGANを組み合わせる新しい手法を提案する。
我々は, 特殊生成器の部品を大域的なキャンバスに挿入することにより, 生成画像が組み合わさるように各潜在空間を共同で探索し, シームを導入することなく問題をモデル化する。
フルボディのGANと専用の高品質な顔のGANを組み合わせることで、可視的外観の人間を作り出す。
定量的指標とユーザスタディを用いて結果を評価する。
関連論文リスト
- Controllable Human Image Generation with Personalized Multi-Garments [46.042383679103125]
BootCompは、テキストから画像への拡散モデルに基づく新しいフレームワークである。
本研究では,ヒトとマルチガーメントのペアからなる大規模な合成データセットを構築するためのデータ生成パイプラインを提案する。
ファッションドメインにおいて、異なるタイプの参照ベース生成に適応することで、フレームワークの幅広い適用性を示す。
論文 参考訳(メタデータ) (2024-11-25T12:37:13Z) - Do You Guys Want to Dance: Zero-Shot Compositional Human Dance
Generation with Multiple Persons [73.21855272778616]
コンポジション・ヒューマン・ダンス・ジェネレーション(cHDG)の新しいタスク、データセット、評価プロトコルを導入する。
そこで我々は,任意の人物や背景に整合した動画を正確に追従しながら合成する,MultiDance-Zeroという新しいゼロショットフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-24T10:44:16Z) - HyperHuman: Hyper-Realistic Human Generation with Latent Structural Diffusion [114.15397904945185]
本稿では,高リアリズムと多彩なレイアウトの人体画像を生成する統一的なフレームワークHyperHumanを提案する。
本モデルは,統合ネットワークにおける画像の外観,空間的関係,幾何学の連成学習を強制する。
我々のフレームワークは最先端の性能を生み出し、多様なシナリオ下で超現実的な人間の画像を生成する。
論文 参考訳(メタデータ) (2023-10-12T17:59:34Z) - ARAH: Animatable Volume Rendering of Articulated Human SDFs [37.48271522183636]
本研究では, 分布外ポーズによく適応する詳細な形状の, アニマタブルな衣服付きアバターを作成するモデルを提案する。
提案アルゴリズムは,未知のポーズをよく一般化しながら,効率的な点サンプリングと正確な点正準化を実現する。
本手法は, アニマタブルアバターを作成しながら, 幾何と外観再構成の最先端性能を実現する。
論文 参考訳(メタデータ) (2022-10-18T17:56:59Z) - MontageGAN: Generation and Assembly of Multiple Components by GANs [11.117357750374035]
我々は,多層画像を生成するための生成Adversarial NetworksフレームワークであるMontageGANを提案する。
提案手法は,局所的なGANとグローバルなGANからなる2段階のアプローチを用いた。
論文 参考訳(メタデータ) (2022-05-31T07:34:19Z) - Realistic Full-Body Anonymization with Surface-Guided GANs [7.37907896341367]
In-the-wild画像のためのリアルな人間を生成する新しい匿名化手法を提案する。
我々の設計の鍵となる部分は、画像と正準3次元表面との間の高密度画素対面対応により、対向ネットを誘導することである。
表面誘導は画像品質とサンプルの多様性を著しく改善し、非常に実用的なジェネレータが得られることを示した。
論文 参考訳(メタデータ) (2022-01-06T18:57:59Z) - HumanGAN: A Generative Model of Humans Images [78.6284090004218]
本研究では,ポーズ,局所的な身体部分の外観,衣料品スタイルを制御できる服装者の画像生成モデルを提案する。
本モデルでは,正規化されたポーズ非依存空間に部分的潜在性出現ベクトルをエンコードし,異なるポーズに誘導し,様々な姿勢で身体や衣服の外観を保っている。
論文 参考訳(メタデータ) (2021-03-11T19:00:38Z) - PISE: Person Image Synthesis and Editing with Decoupled GAN [64.70360318367943]
人像合成と編集のための新しい二段階生成モデルであるPISEを提案する。
ヒトのポーズ伝達では,まず対象のポーズに合わせた人間のパーシングマップを合成し,衣服の形状を表現する。
衣服の形状とスタイルを分離するため,地域ごとの符号化と正規化を共同で提案する。
論文 参考訳(メタデータ) (2021-03-06T04:32:06Z) - InterFaceGAN: Interpreting the Disentangled Face Representation Learned
by GANs [73.27299786083424]
我々は、最先端のGANモデルによって学習された不整合顔表現を解釈するInterFaceGANというフレームワークを提案する。
まず、GANは潜在空間の線型部分空間で様々な意味学を学ぶ。
次に、異なる意味論間の相関関係について詳細な研究を行い、部分空間射影を通してそれらをよりよく解離させる。
論文 参考訳(メタデータ) (2020-05-18T18:01:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。