論文の概要: Articulated Kinematics Distillation from Video Diffusion Models
- arxiv url: http://arxiv.org/abs/2504.01204v1
- Date: Tue, 01 Apr 2025 21:37:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:19:37.160484
- Title: Articulated Kinematics Distillation from Video Diffusion Models
- Title(参考訳): ビデオ拡散モデルによる人工キネマティクス蒸留
- Authors: Xuan Li, Qianli Ma, Tsung-Yi Lin, Yongxin Chen, Chenfanfu Jiang, Ming-Yu Liu, Donglai Xiang,
- Abstract要約: Articulated Kinematics Distillation (AKD)は、高忠実度キャラクターアニメーションを生成するためのフレームワークである。
AKDはスケルトンに基づく3Dアセットの表現を使用しており、自由度(DoF)を大幅に削減している。
AKDは構造的整合性を維持しながら複雑な関節運動を蒸留する。
- 参考スコア(独自算出の注目度): 64.18346374534352
- License:
- Abstract: We present Articulated Kinematics Distillation (AKD), a framework for generating high-fidelity character animations by merging the strengths of skeleton-based animation and modern generative models. AKD uses a skeleton-based representation for rigged 3D assets, drastically reducing the Degrees of Freedom (DoFs) by focusing on joint-level control, which allows for efficient, consistent motion synthesis. Through Score Distillation Sampling (SDS) with pre-trained video diffusion models, AKD distills complex, articulated motions while maintaining structural integrity, overcoming challenges faced by 4D neural deformation fields in preserving shape consistency. This approach is naturally compatible with physics-based simulation, ensuring physically plausible interactions. Experiments show that AKD achieves superior 3D consistency and motion quality compared with existing works on text-to-4D generation. Project page: https://research.nvidia.com/labs/dir/akd/
- Abstract(参考訳): AKD(Articulated Kinematics Distillation)は,骨格型アニメーションと現代生成モデルの強みを融合して,高忠実なキャラクターアニメーションを生成するためのフレームワークである。
AKDは、スケルトンをベースとした3Dアセットの表現を使用しており、より効率的で一貫した運動合成を可能にするジョイントレベル制御に焦点を当てることで、自由度(DoF)を大幅に削減している。
予め訓練されたビデオ拡散モデルを用いたスコア蒸留サンプリング(SDS)を通じて、AKDは構造的整合性を維持しつつ複雑な調音運動を蒸留し、形状の整合性を維持するために4次元の神経変形場が直面する課題を克服する。
このアプローチは自然に物理学に基づくシミュレーションと互換性があり、物理的に妥当な相互作用を保証する。
実験の結果,AKDはテキスト・ツー・4D生成における既存の作業と比較して,3次元の一貫性と動作品質に優れていた。
プロジェクトページ: https://research.nvidia.com/labs/dir/akd/
関連論文リスト
- Atlas3D: Physically Constrained Self-Supporting Text-to-3D for Simulation and Fabrication [50.541882834405946]
我々は,テキストから3Dへの自動的実装であるAtlas3Dを紹介する。
提案手法は,新しい微分可能シミュレーションに基づく損失関数と,物理的にインスパイアされた正規化を組み合わせたものである。
我々は、Atlas3Dの有効性を広範囲な生成タスクを通して検証し、シミュレーションと実環境の両方で結果の3Dモデルを検証する。
論文 参考訳(メタデータ) (2024-05-28T18:33:18Z) - Diffusion4D: Fast Spatial-temporal Consistent 4D Generation via Video Diffusion Models [116.31344506738816]
高速でスケーラブルな4Dコンテンツ生成のための新しいフレームワーク textbfDiffusion4D を提案する。
ダイナミックな3Dアセットの軌道ビューを合成できる4D対応ビデオ拡散モデルを開発した。
提案手法は, 生成効率と4次元幾何整合性の観点から, 従来の最先端技術を超えている。
論文 参考訳(メタデータ) (2024-05-26T17:47:34Z) - SC4D: Sparse-Controlled Video-to-4D Generation and Motion Transfer [57.506654943449796]
動作と外観を分離するSC4Dという,効率的でスパース制御されたビデオ・ツー・4Dフレームワークを提案する。
我々の手法は、品質と効率の両面で既存の手法を超越している。
動作を多種多様な4Dエンティティにシームレスに転送する新しいアプリケーションを考案する。
論文 参考訳(メタデータ) (2024-04-04T18:05:18Z) - Align Your Gaussians: Text-to-4D with Dynamic 3D Gaussians and Composed
Diffusion Models [94.07744207257653]
我々は、探索されていないテキストから4D設定に焦点をあて、動的にアニメーションされた3Dオブジェクトを合成する。
4次元オブジェクト最適化において,テキスト・ツー・イメージ,テキスト・ツー・ビデオ,および3次元認識型多視点拡散モデルを組み合わせてフィードバックを提供する。
論文 参考訳(メタデータ) (2023-12-21T11:41:02Z) - AnimatableDreamer: Text-Guided Non-rigid 3D Model Generation and Reconstruction with Canonical Score Distillation [23.967728238723772]
本研究では,モノクロビデオから抽出した骨格上に,多種多様な非剛体オブジェクトを生成できるテキストから4D生成フレームワークを提案する。
AnimatableDreamerには、CSD(Canonical Score Distillation)と呼ばれる新しい最適化設計が搭載されています。
論文 参考訳(メタデータ) (2023-12-06T14:13:54Z) - 4D-fy: Text-to-4D Generation Using Hybrid Score Distillation Sampling [91.99172731031206]
現在のテキストから4Dの手法は、シーンの外観の質、立体構造、動きの3方向のトレードオフに直面している。
本稿では,複数の事前学習拡散モデルからの監視信号をブレンドする交互最適化手法であるハイブリッドスコア蒸留法を提案する。
論文 参考訳(メタデータ) (2023-11-29T18:58:05Z) - Consistent4D: Consistent 360{\deg} Dynamic Object Generation from
Monocular Video [15.621374353364468]
Consistent4Dは、モノクロビデオから4D動的オブジェクトを生成するための新しいアプローチである。
我々は、360度ダイナミックオブジェクト再構成を4次元生成問題として、退屈なマルチビューデータ収集とカメラキャリブレーションの必要性を排除した。
論文 参考訳(メタデータ) (2023-11-06T03:26:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。