論文の概要: Ani3DHuman: Photorealistic 3D Human Animation with Self-guided Stochastic Sampling
- arxiv url: http://arxiv.org/abs/2602.19089v1
- Date: Sun, 22 Feb 2026 08:07:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.475794
- Title: Ani3DHuman: Photorealistic 3D Human Animation with Self-guided Stochastic Sampling
- Title(参考訳): Ani3DHuman:自己誘導確率サンプリングによる光リアルな3D人間のアニメーション
- Authors: Qi Sun, Can Wang, Jiaxiang Shang, Yingchun Liu, Jing Liao,
- Abstract要約: Ani3DHumanは,キネマティクスをベースとしたアニメーションとビデオ拡散前のアニメーションを併用するフレームワークである。
まず, 残留する非剛性運動から剛性運動を遠ざける層状運動表現を導入する。
本稿では, 配電問題に効果的に対処する, 自己誘導型フォトリアリスティックサンプリング手法を提案する。
- 参考スコア(独自算出の注目度): 20.88616874056278
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current 3D human animation methods struggle to achieve photorealism: kinematics-based approaches lack non-rigid dynamics (e.g., clothing dynamics), while methods that leverage video diffusion priors can synthesize non-rigid motion but suffer from quality artifacts and identity loss. To overcome these limitations, we present Ani3DHuman, a framework that marries kinematics-based animation with video diffusion priors. We first introduce a layered motion representation that disentangles rigid motion from residual non-rigid motion. Rigid motion is generated by a kinematic method, which then produces a coarse rendering to guide the video diffusion model in generating video sequences that restore the residual non-rigid motion. However, this restoration task, based on diffusion sampling, is highly challenging, as the initial renderings are out-of-distribution, causing standard deterministic ODE samplers to fail. Therefore, we propose a novel self-guided stochastic sampling method, which effectively addresses the out-of-distribution problem by combining stochastic sampling (for photorealistic quality) with self-guidance (for identity fidelity). These restored videos provide high-quality supervision, enabling the optimization of the residual non-rigid motion field. Extensive experiments demonstrate that \MethodName can generate photorealistic 3D human animation, outperforming existing methods. Code is available in https://github.com/qiisun/ani3dhuman.
- Abstract(参考訳): キネマティクスに基づくアプローチは、非厳密なダイナミクス(例えば、衣服のダイナミクス)を欠いているが、ビデオ拡散の先駆的な手法は、非厳密な動きを合成できるが、高品質なアーチファクトやアイデンティティー損失に悩まされる。
これらの制限を克服するために,キネマティクスに基づくアニメーションとビデオ拡散前のアニメーションを結合するフレームワークであるAni3DHumanを紹介する。
まず, 残留する非剛性運動から剛性運動を遠ざける層状運動表現を導入する。
剛体運動は、キネマティックな方法で生成され、粗いレンダリングを生成し、残余の非剛体運動を復元するビデオシーケンスを生成する際に、ビデオ拡散モデルを誘導する。
しかし、この復元作業は拡散サンプリングに基づいており、初期レンダリングは分布外であり、標準決定論的ODEサンプリングは失敗する。
そこで本研究では,確率的サンプリング(フォトリアリスティックな品質のための)と自己誘導(アイデンティティの忠実さのための)を組み合わせることで,配当外問題に効果的に対処する,自己誘導型確率的サンプリング手法を提案する。
これらの復元されたビデオは高品質な監視を提供し、残留する非剛体運動場の最適化を可能にする。
大規模な実験により、既存の手法よりも優れた光リアルな3Dアニメーションを生成できることが実証された。
コードはhttps://github.com/qiisun/ani3dhumanで入手できる。
関連論文リスト
- Object-Aware 4D Human Motion Generation [20.338809521456298]
本研究では,3次元ガウス表現と移動拡散先行に基づくオブジェクト認識型4次元人体運動生成フレームワークを提案する。
我々の枠組みは3次元空間的文脈を尊重する自然的かつ物理的に妥当な人間の動きを生成する。
論文 参考訳(メタデータ) (2025-10-31T20:40:17Z) - ManipDreamer3D : Synthesizing Plausible Robotic Manipulation Video with Occupancy-aware 3D Trajectory [56.06314177428745]
ManipDreamer3Dは入力画像とテキスト命令から可塑性3D対応ロボット操作ビデオを生成する。
提案手法は,自律的に計画された3Dトラジェクトリを用いたロボットビデオを生成し,人間の介入要求を大幅に低減する。
論文 参考訳(メタデータ) (2025-08-29T10:39:06Z) - Animating the Uncaptured: Humanoid Mesh Animation with Video Diffusion Models [71.78723353724493]
ヒューマノイド文字のアニメーションは、様々なグラフィックス応用において不可欠である。
入力された静的な3次元ヒューマノイドメッシュの4次元アニメーションシーケンスを合成する手法を提案する。
論文 参考訳(メタデータ) (2025-03-20T10:00:22Z) - Deblur-Avatar: Animatable Avatars from Motion-Blurred Monocular Videos [64.10307207290039]
本研究では,モーションブルモノクロビデオ入力から高忠実でアニマタブルな3次元アバターをモデリングするための新しいフレームワークを提案する。
被曝時の人体運動軌跡を明示的にモデル化することにより、鋭く高品質な人体アバターを再構築するために、軌跡と3Dガウスアンを共同で最適化する。
論文 参考訳(メタデータ) (2025-01-23T02:31:57Z) - DreamPhysics: Learning Physics-Based 3D Dynamics with Video Diffusion Priors [75.83647027123119]
本稿では,映像拡散前の物体の物理的特性を学習することを提案する。
次に,物理に基づくMaterial-Point-Methodシミュレータを用いて,現実的な動きを伴う4Dコンテンツを生成する。
論文 参考訳(メタデータ) (2024-06-03T16:05:25Z) - DiffMesh: A Motion-aware Diffusion Framework for Human Mesh Recovery from Videos [20.895221536570627]
ヒューマンメッシュリカバリ(Human Mesh recovery, HMR)は、さまざまな現実世界のアプリケーションに対して、リッチな人体情報を提供する。
ビデオベースのアプローチはこの問題を緩和するために時間的情報を活用する。
DiffMeshはビデオベースのHMRのための革新的な動き認識型拡散型フレームワークである。
論文 参考訳(メタデータ) (2023-03-23T16:15:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。