論文の概要: Dynamic Worlds, Dynamic Humans: Generating Virtual Human-Scene Interaction Motion in Dynamic Scenes
- arxiv url: http://arxiv.org/abs/2601.19484v1
- Date: Tue, 27 Jan 2026 11:16:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.294605
- Title: Dynamic Worlds, Dynamic Humans: Generating Virtual Human-Scene Interaction Motion in Dynamic Scenes
- Title(参考訳): ダイナミックワールド, ダイナミックヒューマン:動的シーンにおける仮想人間とシーンのインタラクション動作の生成
- Authors: Yin Wang, Zhiying Leng, Haitian Liu, Frederick W. B. Li, Mu Li, Xiaohui Liang,
- Abstract要約: Dyn-HSIは動的人間とシーンの相互作用のための最初の認知アーキテクチャである。
仮想人間に3つのヒューマノイド成分を与える。
我々は、Dyn-HSIを検証するために、広範囲な定性的および定量的実験を行う。
- 参考スコア(独自算出の注目度): 24.93162102935408
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scenes are continuously undergoing dynamic changes in the real world. However, existing human-scene interaction generation methods typically treat the scene as static, which deviates from reality. Inspired by world models, we introduce Dyn-HSI, the first cognitive architecture for dynamic human-scene interaction, which endows virtual humans with three humanoid components. (1)Vision (human eyes): we equip the virtual human with a Dynamic Scene-Aware Navigation, which continuously perceives changes in the surrounding environment and adaptively predicts the next waypoint. (2)Memory (human brain): we equip the virtual human with a Hierarchical Experience Memory, which stores and updates experiential data accumulated during training. This allows the model to leverage prior knowledge during inference for context-aware motion priming, thereby enhancing both motion quality and generalization. (3) Control (human body): we equip the virtual human with Human-Scene Interaction Diffusion Model, which generates high-fidelity interaction motions conditioned on multimodal inputs. To evaluate performance in dynamic scenes, we extend the existing static human-scene interaction datasets to construct a dynamic benchmark, Dyn-Scenes. We conduct extensive qualitative and quantitative experiments to validate Dyn-HSI, showing that our method consistently outperforms existing approaches and generates high-quality human-scene interaction motions in both static and dynamic settings.
- Abstract(参考訳): シーンは、現実世界のダイナミックな変化を継続的に経験しています。
しかし、既存の人間とシーンのインタラクション生成方法は、通常、シーンを静的として扱い、現実から逸脱する。
世界モデルにインスパイアされたDyn-HSIは、仮想人間に3つのヒューマノイド成分を与える動的人間とシーンの相互作用のための最初の認知アーキテクチャである。
1)視覚(人間の目):仮想人間にダイナミック・シーン・アウェア・ナビゲーションを装着し,周囲の環境の変化を連続的に知覚し,次の進路を適応的に予測する。
2) 記憶(人間の脳): トレーニング中に蓄積した経験データを保存・更新する階層的体験記憶を仮想人間に装備する。
これにより、コンテキスト認識されたモーションプライミングの推論中に事前の知識を活用することができ、それによって運動品質と一般化の両面が向上する。
(3)制御(人体):マルチモーダル入力に条件付き高忠実性相互作用運動を生成するヒューマン・シーン相互作用拡散モデルを用いて仮想人間に装備する。
動的シーンの性能を評価するため,既存の静的ヒューマンシーンインタラクションデータセットを拡張し,動的ベンチマークDyn-Scenesを構築した。
我々は,Dyn-HSIの有効性を検証するために,定性的かつ定量的な実験を行い,本手法が既存の手法より一貫して優れており,静的および動的設定の両方において高品質なヒューマン・シーンのインタラクション動作を生成することを示す。
関連論文リスト
- PhysHSI: Towards a Real-World Generalizable and Natural Humanoid-Scene Interaction System [67.2851799763138]
PhysHSIはシミュレーショントレーニングパイプラインと現実世界のデプロイメントシステムで構成される。
シミュレーションでは,自然のヒューマノイドとシーンの相互作用データを模倣するために,逆運動に基づくポリシー学習を採用する。
実世界の展開には、LiDARとカメラ入力を組み合わせた粗粒度オブジェクトローカライズモジュールを導入する。
論文 参考訳(メタデータ) (2025-10-13T07:11:37Z) - X-Dyna: Expressive Dynamic Human Image Animation [49.896933584815926]
X-Dynaは、単一の人間のイメージをアニメーションするための、ゼロショットで拡散ベースのパイプラインである。
対象と周辺環境の両方に対して現実的でコンテキスト対応のダイナミクスを生成する。
論文 参考訳(メタデータ) (2025-01-17T08:10:53Z) - ZeroHSI: Zero-Shot 4D Human-Scene Interaction by Video Generation [17.438484695828276]
我々は,ゼロショット4次元人間とシーンの相互作用合成を可能にする新しいアプローチであるZeroHSIを提案する。
私たちの重要な洞察は、最先端のビデオ生成モデルから人間とシーンのインタラクションを抽出することです。
ZeroHSIは静的シーンと環境の両方でリアルな人間の動きを動的オブジェクトで合成することができる。
論文 参考訳(メタデータ) (2024-12-24T18:55:38Z) - EgoGaussian: Dynamic Scene Understanding from Egocentric Video with 3D Gaussian Splatting [95.44545809256473]
エゴガウスアン(EgoGaussian)は、3Dシーンを同時に再構築し、RGBエゴセントリックな入力のみから3Dオブジェクトの動きを動的に追跡する手法である。
動的オブジェクトと背景再構築の品質の両面で,最先端技術と比較して大きな改善が見られた。
論文 参考訳(メタデータ) (2024-06-28T10:39:36Z) - Scaling Up Dynamic Human-Scene Interaction Modeling [58.032368564071895]
TRUMANSは、現在利用可能な最も包括的なモーションキャプチャーHSIデータセットである。
人体全体の動きや部分レベルの物体の動きを複雑に捉えます。
本研究では,任意の長さのHSI配列を効率的に生成する拡散型自己回帰モデルを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:45:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。