論文の概要: AnimaX: Animating the Inanimate in 3D with Joint Video-Pose Diffusion Models
- arxiv url: http://arxiv.org/abs/2506.19851v1
- Date: Tue, 24 Jun 2025 17:59:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.772851
- Title: AnimaX: Animating the Inanimate in 3D with Joint Video-Pose Diffusion Models
- Title(参考訳): AnimaX: 関節型ビデオ空間拡散モデルで3Dで不一致をアニメーションする
- Authors: Zehuan Huang, Haoran Feng, Yangtian Sun, Yuanchen Guo, Yanpei Cao, Lu Sheng,
- Abstract要約: AnimaXは、ビデオ拡散モデルの動作先をスケルトンベースのアニメーションの制御可能な構造でブリッジするフィードフォワード3Dアニメーションフレームワークである。
提案手法は,マルチビュー・マルチフレーム2次元ポーズマップとして3次元動作を表現する。
- 参考スコア(独自算出の注目度): 24.410731608387238
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present AnimaX, a feed-forward 3D animation framework that bridges the motion priors of video diffusion models with the controllable structure of skeleton-based animation. Traditional motion synthesis methods are either restricted to fixed skeletal topologies or require costly optimization in high-dimensional deformation spaces. In contrast, AnimaX effectively transfers video-based motion knowledge to the 3D domain, supporting diverse articulated meshes with arbitrary skeletons. Our method represents 3D motion as multi-view, multi-frame 2D pose maps, and enables joint video-pose diffusion conditioned on template renderings and a textual motion prompt. We introduce shared positional encodings and modality-aware embeddings to ensure spatial-temporal alignment between video and pose sequences, effectively transferring video priors to motion generation task. The resulting multi-view pose sequences are triangulated into 3D joint positions and converted into mesh animation via inverse kinematics. Trained on a newly curated dataset of 160,000 rigged sequences, AnimaX achieves state-of-the-art results on VBench in generalization, motion fidelity, and efficiency, offering a scalable solution for category-agnostic 3D animation. Project page: \href{https://anima-x.github.io/}{https://anima-x.github.io/}.
- Abstract(参考訳): 本稿では,映像拡散モデルの動作先行を骨格アニメーションの制御可能な構造でブリッジするフィードフォワード3DアニメーションフレームワークAnimaXを提案する。
従来の運動合成法は固定された骨格位相に制限されるか、高次元の変形空間においてコストのかかる最適化を必要とする。
対照的に、AnimaXはビデオベースのモーション知識を3Dドメインに効果的に転送し、任意のスケルトンを持つ多種多様なメッシュをサポートする。
提案手法は,マルチビュー・マルチフレーム2次元ポーズマップとして3次元動作を表現し,テンプレートレンダリングとテキスト・モーション・プロンプトに基づく共同映像の拡散を可能にする。
動画とポーズシーケンス間の空間的時間的アライメントを確保するために、位置エンコーディングとモダリティ対応の埋め込みを導入し、動画をモーション生成タスクに効果的に転送する。
得られた多視点ポーズシーケンスは3次元関節位置に三角化され、逆キネマティクスによってメッシュアニメーションに変換される。
AnimaXは16万のリギングシーケンスからなる新たにキュレートされたデータセットに基づいて、VBenchの一般化、運動の忠実性、効率性に関する最先端の結果を達成し、カテゴリに依存しない3Dアニメーションのためのスケーラブルなソリューションを提供する。
プロジェクトページ: \href{https://anima-x.github.io/}{https://anima-x.github.io/}
関連論文リスト
- In-2-4D: Inbetweening from Two Single-View Images to 4D Generation [54.62824686338408]
最小限の入力設定からSplatingにおける生成4D(すなわち3D + Motion)のための新しい問題In-between2-4Dを提案する。
動作中の物体の開始状態と終了状態を表す2つの画像が与えられた場合、我々のゴールは4Dで動きを生成・再構成することである。
論文 参考訳(メタデータ) (2025-04-11T09:01:09Z) - Animating the Uncaptured: Humanoid Mesh Animation with Video Diffusion Models [71.78723353724493]
ヒューマノイド文字のアニメーションは、様々なグラフィックス応用において不可欠である。
入力された静的な3次元ヒューマノイドメッシュの4次元アニメーションシーケンスを合成する手法を提案する。
論文 参考訳(メタデータ) (2025-03-20T10:00:22Z) - Gaussians-to-Life: Text-Driven Animation of 3D Gaussian Splatting Scenes [49.26872036160368]
ガウススティング表現における高品質な3Dシーンの一部をアニメーションする手法を提案する。
従来の作業とは対照的に、複雑な既存の3Dシーンのリアルなアニメーションを可能にする。
論文 参考訳(メタデータ) (2024-11-28T16:01:58Z) - MotionDreamer: Exploring Semantic Video Diffusion features for Zero-Shot 3D Mesh Animation [10.263762787854862]
本稿では,ビデオ拡散モデルから抽出した動きに基づいて,様々な3次元形状の自動アニメーションを行う手法を提案する。
既存のコンピュータグラフィックスパイプラインと互換性のあるメッシュベースの明示的な表現を活用します。
我々の時間効率ゼロショット法は,多種多様な3次元形状を再アニメーションする優れた性能を実現する。
論文 参考訳(メタデータ) (2024-05-30T15:30:38Z) - AnimeRun: 2D Animation Visual Correspondence from Open Source 3D Movies [98.65469430034246]
既存の2次元漫画のデータセットは、単純なフレーム構成と単調な動きに悩まされている。
我々は,オープンソースの3D映画を2Dスタイルのフルシーンに変換することによって,新しい2Dアニメーション視覚対応データセットAnimeRunを提案する。
分析の結果,提案したデータセットは画像合成において実際のアニメに似るだけでなく,既存のデータセットと比較してよりリッチで複雑な動きパターンを持つことがわかった。
論文 参考訳(メタデータ) (2022-11-10T17:26:21Z) - Deep Animation Video Interpolation in the Wild [115.24454577119432]
本研究では,アニメーション・ビデオ・コードに関する問題を初めて形式的に定義・検討する。
効果的なフレームワークであるAnimeInterpを2つの専用モジュールで粗密に提案します。
特にAnimeInterpは、野生のアニメーションシナリオに良好な知覚品質と堅牢性を示します。
論文 参考訳(メタデータ) (2021-04-06T13:26:49Z) - Going beyond Free Viewpoint: Creating Animatable Volumetric Video of
Human Performances [7.7824496657259665]
本稿では,人間の演奏の高品質な映像コンテンツ作成のためのエンドツーエンドパイプラインを提案する。
セマンティックエンリッチメントと幾何学的アニメーション能力は、3Dデータに時間的一貫性を確立することによって達成される。
ポーズ編集では、キャプチャしたデータを可能な限り活用し、キャプチャしたフレームをキネマティックに変形して所望のポーズに適合させる。
論文 参考訳(メタデータ) (2020-09-02T09:46:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。