論文の概要: AnimateScene: Camera-controllable Animation in Any Scene
- arxiv url: http://arxiv.org/abs/2508.05982v1
- Date: Fri, 08 Aug 2025 03:28:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.061539
- Title: AnimateScene: Camera-controllable Animation in Any Scene
- Title(参考訳): AnimateScene:どんなシーンでもカメラで撮影できるアニメーション
- Authors: Qingyang Liu, Bingjie Gao, Weiheng Huang, Jun Zhang, Zhongqian Sun, Yang Wei, Zelin Peng, Qianli Ma, Shuai Yang, Zhaohe Liao, Haonan Zhao, Li Niu,
- Abstract要約: 近年,3Dシーンの再構築と4Dアニメーションが急速に進歩し,広く採用されている。
重要な難点は、人間を適切な場所に配置し、現場にスケールさせることである。
もう一つの課題は、人間と背景が異なる照明とスタイルを示し、非現実的な合成物を生み出すことである。
AnimateSceneは、上記の問題に統一されたフレームワークで対処する。
- 参考スコア(独自算出の注目度): 34.04222775149215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D scene reconstruction and 4D human animation have seen rapid progress and broad adoption in recent years. However, seamlessly integrating reconstructed scenes with 4D human animation to produce visually engaging results remains challenging. One key difficulty lies in placing the human at the correct location and scale within the scene while avoiding unrealistic interpenetration. Another challenge is that the human and the background may exhibit different lighting and style, leading to unrealistic composites. In addition, appealing character motion videos are often accompanied by camera movements, which means that the viewpoints need to be reconstructed along a specified trajectory. We present AnimateScene, which addresses the above issues in a unified framework. First, we design an accurate placement module that automatically determines a plausible 3D position for the human and prevents any interpenetration within the scene during motion. Second, we propose a training-free style alignment method that adapts the 4D human representation to match the background's lighting and style, achieving coherent visual integration. Finally, we design a joint post-reconstruction method for both the 4D human and the 3D scene that allows camera trajectories to be inserted, enabling the final rendered video to feature visually appealing camera movements. Extensive experiments show that AnimateScene generates dynamic scene videos with high geometric detail and spatiotemporal coherence across various camera and action combinations.
- Abstract(参考訳): 近年,3Dシーンの再構築と4Dアニメーションが急速に進歩し,広く採用されている。
しかし、4Dアニメーションで再現されたシーンをシームレスに統合し、視覚的に魅力的な結果を生み出すことは依然として困難である。
重要な難点は、人間をシーン内の適切な位置と規模に配置すると同時に、非現実的な相互接続を避けることである。
もう一つの課題は、人間と背景が異なる照明とスタイルを示し、非現実的な合成物を生み出すことである。
さらに、魅力的なキャラクターモーションビデオは、しばしばカメラの動きを伴うため、特定の軌道に沿って視点を再構築する必要がある。
AnimateSceneは、上記の問題に統一されたフレームワークで対処する。
まず,人間の3D位置を自動的に決定する正確な配置モジュールを設計し,動作中のシーン内での相互接続を防止する。
第2に、背景の照明とスタイルに合うように4次元の人体表現を適応させ、コヒーレントな視覚統合を実現する訓練自由スタイルアライメント手法を提案する。
最後に,4次元の人間と3次元のシーンの同時再構成手法を設計し,カメラの軌跡を挿入し,最終的な映像が視覚的に魅力的なカメラの動きを特徴付けるようにした。
大規模な実験により、AnimateSceneは様々なカメラとアクションの組み合わせで、高度に幾何学的なディテールと時空間的コヒーレンスを持つダイナミックなシーンビデオを生成することが示された。
関連論文リスト
- AnimateAnywhere: Rouse the Background in Human Image Animation [50.737139810172465]
AnimateAnywhereは、カメラの軌跡を必要とせずに人間の画像アニメーションの背景を刺激するフレームワークである。
人間のポーズシーケンスから背景動きを学習するための背景動き学習装置(BML)を導入する。
実験によると、AnimateAnywhereは人間のポーズシーケンスから背景の動きを効果的に学習する。
論文 参考訳(メタデータ) (2025-04-28T14:35:01Z) - Gaussians-to-Life: Text-Driven Animation of 3D Gaussian Splatting Scenes [49.26872036160368]
ガウススティング表現における高品質な3Dシーンの一部をアニメーションする手法を提案する。
従来の作業とは対照的に、複雑な既存の3Dシーンのリアルなアニメーションを可能にする。
論文 参考訳(メタデータ) (2024-11-28T16:01:58Z) - Make-It-4D: Synthesizing a Consistent Long-Term Dynamic Scene Video from
a Single Image [59.18564636990079]
本研究では,1枚の画像のみから長期ダイナミック映像を合成する問題について検討する。
既存の方法は、一貫性のない永遠の視点を幻覚させるか、長いカメラの軌跡に苦しむかのいずれかである。
一つの画像から一貫した長期動画像を生成する新しい方法であるMake-It-4Dを提案する。
論文 参考訳(メタデータ) (2023-08-20T12:53:50Z) - Generating Continual Human Motion in Diverse 3D Scenes [51.90506920301473]
本研究では,3次元シーンにまたがる人間の動きを誘導するアニメーターを合成する手法を提案する。
本研究では,連続的な動作合成問題を経路に沿って歩行し,キーポイントが指定した動作の内外への遷移に分解する。
我々のモデルは、つかんだり、座ったり、傾いたりといった多様な行動の長いシーケンスを生成することができる。
論文 参考訳(メタデータ) (2023-04-04T18:24:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。