論文の概要: Human Geometry Distribution for 3D Animation Generation
- arxiv url: http://arxiv.org/abs/2512.07459v1
- Date: Mon, 08 Dec 2025 11:35:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.862924
- Title: Human Geometry Distribution for 3D Animation Generation
- Title(参考訳): 3次元アニメーション生成のための人体形状分布
- Authors: Xiangjun Tang, Biao Zhang, Peter Wonka,
- Abstract要約: 現実的な人間の幾何学的アニメーションを生成するための2つの新しい設計を提案する。
まず,高速かつ高品質な幾何生成が可能な分布型潜在表現を提案する。
第二に、限られた動きデータの多様性を完全に活用する生成的アニメーションモデルを導入する。
- 参考スコア(独自算出の注目度): 49.58025398670139
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating realistic human geometry animations remains a challenging task, as it requires modeling natural clothing dynamics with fine-grained geometric details under limited data. To address these challenges, we propose two novel designs. First, we propose a compact distribution-based latent representation that enables efficient and high-quality geometry generation. We improve upon previous work by establishing a more uniform mapping between SMPL and avatar geometries. Second, we introduce a generative animation model that fully exploits the diversity of limited motion data. We focus on short-term transitions while maintaining long-term consistency through an identity-conditioned design. These two designs formulate our method as a two-stage framework: the first stage learns a latent space, while the second learns to generate animations within this latent space. We conducted experiments on both our latent space and animation model. We demonstrate that our latent space produces high-fidelity human geometry surpassing previous methods ($90\%$ lower Chamfer Dist.). The animation model synthesizes diverse animations with detailed and natural dynamics ($2.2 \times$ higher user study score), achieving the best results across all evaluation metrics.
- Abstract(参考訳): リアルな人間の幾何学的アニメーションを生成することは、限られたデータの下で細かい幾何学的詳細を持つ自然服のダイナミクスをモデル化する必要があるため、依然として難しい課題である。
これらの課題に対処するため、我々は2つの新しい設計を提案する。
まず,高速かつ高品質な幾何生成が可能な分布型潜在表現を提案する。
我々は、SMPLとアバター幾何学のより均一なマッピングを確立することにより、以前の作業を改善する。
第二に、限られた動きデータの多様性を完全に活用する生成的アニメーションモデルを導入する。
我々は、アイデンティティ条件付き設計による長期的な一貫性を維持しながら、短期的な遷移に焦点を当てる。
これら2つの設計は,本手法を2段階のフレームワークとして定式化し,第1段階は潜時空間を,第2段階は潜時空間内でアニメーションを生成することを学習する。
潜在空間モデルとアニメーションモデルの両方で実験を行った。
我々は、我々の潜伏空間が従来の手法を超越した高忠実な人間の幾何を生成することを実証した(90 %$)。
)。
アニメーションモデルは、詳細で自然なアニメーションを合成し(2.2 \times$ higher user study score)、すべての評価指標で最高の結果を得る。
関連論文リスト
- UniMo: Unifying 2D Video and 3D Human Motion with an Autoregressive Framework [54.337290937468175]
統合された枠組み内での2次元映像と3次元映像の協調モデリングのための自己回帰モデルUniMoを提案する。
本手法は,正確なモーションキャプチャを行いながら,対応する映像と動きを同時に生成することを示す。
論文 参考訳(メタデータ) (2025-12-03T16:03:18Z) - Generative Human Geometry Distribution [49.58025398670139]
我々は、最近提案された、高忠実度で単一の人間の幾何学をモデル化可能な、幾何学的分布に基づいて構築する。
本稿では,ネットワークパラメータではなく2次元特徴写像として分布を符号化する手法と,ガウスではなく領域としてSMPLモデルを提案する。
実験の結果,提案手法は既存の最先端手法よりも優れており,幾何学的品質が57%向上していることがわかった。
論文 参考訳(メタデータ) (2025-03-03T11:55:19Z) - DreamDance: Animating Human Images by Enriching 3D Geometry Cues from 2D Poses [57.17501809717155]
本研究では,骨格ポーズシーケンスのみを条件入力として,人間のイメージをアニメーションする新しい手法であるDreamDanceを提案する。
私たちの重要な洞察は、人間の画像は自然に複数のレベルの相関を示すということです。
我々は5Kの高品質なダンスビデオと詳細なフレームアノテーションを組み合わせたTikTok-Dance5Kデータセットを構築した。
論文 参考訳(メタデータ) (2024-11-30T08:42:13Z) - AvatarGO: Zero-shot 4D Human-Object Interaction Generation and Animation [60.5897687447003]
AvatarGOはテキスト入力からリアルな4D HOIシーンを生成するために設計された新しいフレームワークである。
我々のフレームワークは、コヒーレントな構成運動を生成するだけでなく、問題に対処する上でより堅牢性を示す。
4Dアバターをオブジェクトインタラクションで合成する最初の試みとして、AvatarGOが人間中心の4Dコンテンツを作るための新しい扉を開くことを願っている。
論文 参考訳(メタデータ) (2024-10-09T17:58:56Z) - MagicAnimate: Temporally Consistent Human Image Animation using
Diffusion Model [74.84435399451573]
本稿では、特定の動きシーケンスに従って、特定の参照アイデンティティのビデオを生成することを目的とした、人間の画像アニメーションタスクについて検討する。
既存のアニメーションは、通常、フレームウォーピング技術を用いて参照画像を目標運動に向けてアニメーションする。
MagicAnimateは,時間的一貫性の向上,参照画像の忠実な保存,アニメーションの忠実性向上を目的とした,拡散に基づくフレームワークである。
論文 参考訳(メタデータ) (2023-11-27T18:32:31Z) - AnimeCeleb: Large-Scale Animation CelebFaces Dataset via Controllable 3D
Synthetic Models [19.6347170450874]
制御可能な合成アニメーションモデルを用いて,大規模なアニメーションセロブフェイスデータセット(AnimeCeleb)を提案する。
データ生成プロセスを容易にするため,オープンな3Dソフトウェアに基づく半自動パイプラインを構築した。
これにより、多目的および多スタイルのアニメーションフェースとリッチアノテーションを備えた大規模なアニメーションフェースデータセットを構築することができる。
論文 参考訳(メタデータ) (2021-11-15T10:00:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。