論文の概要: Synthesizing Anyone, Anywhere, in Any Pose
- arxiv url: http://arxiv.org/abs/2304.03164v1
- Date: Thu, 6 Apr 2023 15:48:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 13:43:10.646368
- Title: Synthesizing Anyone, Anywhere, in Any Pose
- Title(参考訳): 誰でも、どこでも、どんなポーズでも、合成する
- Authors: H{\aa}kon Hukkel{\aa}s, Frank Lindseth
- Abstract要約: TriA-GANは、任意のポーズでAnyone、Anywhereを合成できるキーポイント誘導型GANである。
また,TriA-GANは,従来の全体合成法よりも大幅に向上することを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We address the task of in-the-wild human figure synthesis, where the primary
goal is to synthesize a full body given any region in any image. In-the-wild
human figure synthesis has long been a challenging and under-explored task,
where current methods struggle to handle extreme poses, occluding objects, and
complex backgrounds.
Our main contribution is TriA-GAN, a keypoint-guided GAN that can synthesize
Anyone, Anywhere, in Any given pose. Key to our method is projected GANs
combined with a well-crafted training strategy, where our simple generator
architecture can successfully handle the challenges of in-the-wild full-body
synthesis. We show that TriA-GAN significantly improves over previous
in-the-wild full-body synthesis methods, all while requiring less conditional
information for synthesis (keypoints vs. DensePose). Finally, we show that the
latent space of \methodName is compatible with standard unconditional editing
techniques, enabling text-guided editing of generated human figures.
- Abstract(参考訳): 画像中の任意の領域が与えられたときの全身の合成を主目的とする人物合成の課題に対処する。
in-the-wild ヒトのフィギュア合成は長い間、難解で未熟な作業であり、現在の手法では極端なポーズや物体のゆるみ、複雑な背景を扱うのに苦労している。
私たちの主な貢献は、任意のポーズでAnyone、Anywhereを合成できるキーポイント誘導型GANであるTriA-GANです。
提案手法の鍵となるのは,GANを十分に構築されたトレーニング戦略と組み合わせることである。
また,TriA-GANは,従来の全体合成法に比べて,条件情報の少ない合成法 (keypoints vs. DensePose) で大幅に向上することを示した。
最後に、\methodname の潜在空間は、標準的な無条件編集技術と互換性があり、生成された人間の図形のテキストガイドによる編集を可能にする。
関連論文リスト
- GAS: Generative Avatar Synthesis from a Single Image [54.95198111659466]
一つの画像からビュー一貫性と時間的コヒーレントなアバターを合成するための、一般化可能で統一されたフレームワークを導入する。
提案手法は, 回帰に基づく3次元再構成と拡散モデルの生成能力を組み合わせることで, このギャップを埋めるものである。
論文 参考訳(メタデータ) (2025-02-10T19:00:39Z) - Towards Affordance-Aware Articulation Synthesis for Rigged Objects [82.08199697616917]
A3Synは、インターネットから取得した任意の領域とオープン領域を持つオブジェクトの調音パラメータを合成する。
A3Synは安定な収束性を持ち、数分で完成し、電球内のオブジェクトリグとシーンの異なる組み合わせで可算な余裕を合成する。
論文 参考訳(メタデータ) (2025-01-21T18:59:59Z) - CFSynthesis: Controllable and Free-view 3D Human Video Synthesis [57.561237409603066]
CFSynthesisは、カスタマイズ可能な属性で高品質なヒューマンビデオを生成するための新しいフレームワークである。
本手法はテクスチャ-SMPLに基づく表現を利用して,自由視点における一貫した,安定したキャラクタの出現を保証する。
複数のデータセットの結果から,複雑な人間のアニメーションにおいて,CFS合成が最先端のパフォーマンスを達成することが示された。
論文 参考訳(メタデータ) (2024-12-15T05:57:36Z) - Survey on Controlable Image Synthesis with Deep Learning [15.29961293132048]
本稿では,ディープラーニングを用いた3次元制御可能な画像合成に関する最近の研究について述べる。
まず,3次元制御可能な画像合成のためのデータセットと評価指標を紹介する。
光制御可能な画像合成手法も3次元再照明研究のために検討されている。
論文 参考訳(メタデータ) (2023-07-18T07:02:51Z) - Novel View Synthesis of Humans using Differentiable Rendering [50.57718384229912]
我々は新しいポーズで人々の新しい視点を合成するための新しいアプローチを提案する。
我々の合成はヒトの骨格構造を表す拡散ガウス原始体を用いる。
これらのプリミティブをレンダリングすると、高次元の潜像が得られ、デコーダネットワークによってRGBイメージに変換される。
論文 参考訳(メタデータ) (2023-03-28T10:48:33Z) - InsetGAN for Full-Body Image Generation [90.71033704904629]
本稿では,複数の事前学習型GANを結合する新しい手法を提案する。
1つのGANは、グローバルキャンバス(例えば、人体)と、異なる部分に焦点を当てた特別なGAN、またはインセットのセットを生成する。
フルボディのGANと専用の高品質な顔のGANを組み合わせることで、可視的外観の人間を作り出すことで、セットアップを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:01:46Z) - Human View Synthesis using a Single Sparse RGB-D Input [16.764379184593256]
本稿では,RGB-Dが疎い単一ビューセンサから取得した映像からリアルなレンダリングを生成するための,新しいビュー合成フレームワークを提案する。
エンハンサーネットワークは、元のビューから隠された領域でも全体の忠実さを活用し、細部まで細部までクリップレンダリングを生成する。
論文 参考訳(メタデータ) (2021-12-27T20:13:53Z) - Hierarchy Composition GAN for High-fidelity Image Synthesis [57.32311953820988]
本稿では,革新的階層構成GAN(HIC-GAN)を提案する。
HIC-GANは、幾何学と外観領域における画像合成をエンドツーエンドのトレーニング可能なネットワークに組み込んでいる。
シーンテキスト画像合成, 肖像画編集, 室内レンダリングタスクの実験により, 提案したHIC-GANは, 質的, 定量的に優れた合成性能が得られることを示した。
論文 参考訳(メタデータ) (2019-05-12T11:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。