論文の概要: Animate Any Character in Any World
- arxiv url: http://arxiv.org/abs/2512.17796v1
- Date: Thu, 18 Dec 2025 18:59:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.505144
- Title: Animate Any Character in Any World
- Title(参考訳): あらゆる世界のキャラクタをアニメイトする
- Authors: Yitong Wang, Fangyun Wei, Hongyang Zhang, Bo Dai, Yan Lu,
- Abstract要約: 我々は,静的世界生成の現実性と構造的基盤を活用するAniXを紹介する。
ユーザは3DGSのシーンとキャラクタを提供し、そのキャラクターを自然言語で指示して、多様な振る舞いを実行できる。
AiXは、提供されたシーンとキャラクタとの視覚的忠実性を保った時間的コヒーレントなビデオクリップを合成する。
- 参考スコア(独自算出の注目度): 61.112404900403284
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in world models have greatly enhanced interactive environment simulation. Existing methods mainly fall into two categories: (1) static world generation models, which construct 3D environments without active agents, and (2) controllable-entity models, which allow a single entity to perform limited actions in an otherwise uncontrollable environment. In this work, we introduce AniX, leveraging the realism and structural grounding of static world generation while extending controllable-entity models to support user-specified characters capable of performing open-ended actions. Users can provide a 3DGS scene and a character, then direct the character through natural language to perform diverse behaviors from basic locomotion to object-centric interactions while freely exploring the environment. AniX synthesizes temporally coherent video clips that preserve visual fidelity with the provided scene and character, formulated as a conditional autoregressive video generation problem. Built upon a pre-trained video generator, our training strategy significantly enhances motion dynamics while maintaining generalization across actions and characters. Our evaluation covers a broad range of aspects, including visual quality, character consistency, action controllability, and long-horizon coherence.
- Abstract(参考訳): 近年の世界モデルの進歩により、インタラクティブな環境シミュレーションが大幅に強化されている。
既存の手法は主に,(1)アクティブエージェントのない3次元環境を構築する静的世界生成モデル,(2)制御不能なエンティティが制御不能な環境で限られた動作を行うことを可能にする制御可能エンテントモデル,の2つのカテゴリに分類される。
本研究では、AniXを導入し、静的世界生成のリアリズムと構造的基盤を生かし、制御可能エンタリティモデルを拡張して、オープンエンドアクションを実行可能なユーザ指定文字をサポートする。
ユーザは3DGSのシーンとキャラクタを提供し、そのキャラクターを自然言語で指示して、環境を自由に探索しながら、基本的な移動からオブジェクト中心のインタラクションまで多様な行動を実行することができる。
AniXは、条件付き自己回帰ビデオ生成問題として定式化された、提供されたシーンとキャラクタとの視覚的忠実性を保った時間的コヒーレントなビデオクリップを合成する。
トレーニング済みのビデオジェネレータをベースとして,アクションやキャラクタ間の一般化を維持しながら,動作のダイナミクスを大幅に向上させる。
本評価は,視覚的品質,文字の一貫性,動作制御性,長期的コヒーレンスなど,幅広い側面をカバーしている。
関連論文リスト
- Hunyuan-GameCraft-2: Instruction-following Interactive Game World Model [19.937724706042804]
Hunyuan-GameCraft-2は生成ゲームワールドモデリングのための命令駆動インタラクションの新しいパラダイムである。
我々のモデルでは,自然言語のプロンプトやキーボード,マウスの信号を通じてゲーム映像のコンテンツを制御することができる。
本モデルでは,時間的コヒーレントかつ因果的な対話型ゲームビデオを生成する。
論文 参考訳(メタデータ) (2025-11-28T18:26:39Z) - MoSA: Motion-Coherent Human Video Generation via Structure-Appearance Decoupling [107.8379802891245]
本稿では,人間の映像生成過程を2つの構成要素,すなわち構造生成と外観生成に分解するMOSAを提案する。
MoSAは、ほとんどの評価指標で既存のアプローチを大幅に上回っている。
また,既存の人的ビデオデータセットよりも複雑で多様な動きを特徴とする大規模な人的ビデオデータセットも提案する。
論文 参考訳(メタデータ) (2025-08-24T15:20:24Z) - PlayerOne: Egocentric World Simulator [73.88786358213694]
PlayerOneは、最初のエゴセントリックなリアルワールドシミュレータである。
それは、エゴセントリックなビデオを生成し、エゴセントリックなカメラで捉えたユーザーの実際のシーンの人間の動きと厳密に一致している。
論文 参考訳(メタデータ) (2025-06-11T17:59:53Z) - Animate Anyone 2: High-Fidelity Character Image Animation with Environment Affordance [30.225654002561512]
Animate Anyone 2を紹介する。
本研究では,文字と環境の関係をより効果的に特徴づける形状に依存しないマスク戦略を提案する。
また、モデルがより多様な動きパターンを扱えるように、ポーズ変調戦略を導入する。
論文 参考訳(メタデータ) (2025-02-10T04:20:11Z) - X-Dyna: Expressive Dynamic Human Image Animation [49.896933584815926]
X-Dynaは、単一の人間のイメージをアニメーションするための、ゼロショットで拡散ベースのパイプラインである。
対象と周辺環境の両方に対して現実的でコンテキスト対応のダイナミクスを生成する。
論文 参考訳(メタデータ) (2025-01-17T08:10:53Z) - Move as You Say, Interact as You Can: Language-guided Human Motion Generation with Scene Affordance [48.986552871497]
本稿では,シーンアベイランスを中間表現として活用する新しい2段階フレームワークを提案する。
シーンアベイランスマップを活用することで,マルチモーダルな条件下での人間の動きを再現する難しさを克服する。
我々のアプローチは、HumanML3DやHUMANISEなど、確立されたベンチマークのベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2024-03-26T18:41:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。