論文の概要: Seeing My Future: Predicting Situated Interaction Behavior in Virtual Reality
- arxiv url: http://arxiv.org/abs/2510.10742v1
- Date: Sun, 12 Oct 2025 18:29:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.091406
- Title: Seeing My Future: Predicting Situated Interaction Behavior in Virtual Reality
- Title(参考訳): 私の未来を見る:バーチャルリアリティーにおける位置的相互作用行動の予測
- Authors: Yuan Xu, Zimu Zhang, Xiaoxuan Ma, Wentao Zhu, Yu Qiao, Yizhou Wang,
- Abstract要約: 我々は、人間の意図をモデル化し、詳細な位置の行動を予測する階層的な意図認識フレームワークを導入する。
本稿では,人間と環境の関係を効果的に捉えるための動的グラフ畳み込みネットワーク(GCN)を提案する。
実世界のベンチマークとライブVR環境の実験は、我々のアプローチの有効性を実証している。
- 参考スコア(独自算出の注目度): 44.83390932656039
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Virtual and augmented reality systems increasingly demand intelligent adaptation to user behaviors for enhanced interaction experiences. Achieving this requires accurately understanding human intentions and predicting future situated behaviors - such as gaze direction and object interactions - which is vital for creating responsive VR/AR environments and applications like personalized assistants. However, accurate behavioral prediction demands modeling the underlying cognitive processes that drive human-environment interactions. In this work, we introduce a hierarchical, intention-aware framework that models human intentions and predicts detailed situated behaviors by leveraging cognitive mechanisms. Given historical human dynamics and the observation of scene contexts, our framework first identifies potential interaction targets and forecasts fine-grained future behaviors. We propose a dynamic Graph Convolutional Network (GCN) to effectively capture human-environment relationships. Extensive experiments on challenging real-world benchmarks and live VR environment demonstrate the effectiveness of our approach, achieving superior performance across all metrics and enabling practical applications for proactive VR systems that anticipate user behaviors and adapt virtual environments accordingly.
- Abstract(参考訳): バーチャルおよび拡張現実システムは、対話体験の強化のためにユーザー行動へのインテリジェントな適応をますます要求している。
これを実現するには、人間の意図を正確に理解し、視線方向やオブジェクトのインタラクションといった将来の位置する行動を予測する必要があります。
しかし、正確な行動予測は、人間と環境の相互作用を促進する基礎となる認知プロセスをモデル化する必要がある。
本研究では,人間の意図をモデル化し,認知メカニズムを活用して詳細な位置行動を予測する階層的意図認識フレームワークを提案する。
歴史的ヒューマンダイナミクスとシーンコンテキストの観察を前提として,我々のフレームワークはまず潜在的な相互作用のターゲットを特定し,詳細な将来の挙動を予測する。
本稿では,人間と環境の関係を効果的に捉えるための動的グラフ畳み込みネットワーク(GCN)を提案する。
実世界のベンチマークとライブVR環境に関する大規模な実験は、我々のアプローチの有効性を示し、すべての指標で優れたパフォーマンスを実現し、ユーザの振る舞いを予測し、仮想環境に適応するプロアクティブVRシステムに実用的な応用を可能にする。
関連論文リスト
- PhysHSI: Towards a Real-World Generalizable and Natural Humanoid-Scene Interaction System [67.2851799763138]
PhysHSIはシミュレーショントレーニングパイプラインと現実世界のデプロイメントシステムで構成される。
シミュレーションでは,自然のヒューマノイドとシーンの相互作用データを模倣するために,逆運動に基づくポリシー学習を採用する。
実世界の展開には、LiDARとカメラ入力を組み合わせた粗粒度オブジェクトローカライズモジュールを導入する。
論文 参考訳(メタデータ) (2025-10-13T07:11:37Z) - Towards Immersive Human-X Interaction: A Real-Time Framework for Physically Plausible Motion Synthesis [51.95817740348585]
Human-Xは、様々な実体をまたいだ没入的で物理的に妥当なヒューマンインタラクションを可能にするために設計された、新しいフレームワークである。
本手法は, 自己回帰型反応拡散プランナを用いて, リアルタイムに反応と反応を同時予測する。
我々のフレームワークは、人間とロボットのインタラクションのための仮想現実インターフェースを含む、現実世界のアプリケーションで検証されている。
論文 参考訳(メタデータ) (2025-08-04T06:35:48Z) - HUMOF: Human Motion Forecasting in Interactive Social Scenes [29.621970821619424]
複雑なシーンは、対話情報の豊富さによる人間の行動予測に重要な課題を示す。
対話型シーンにおける人間の動き予測に有効な手法を提案する。
提案手法は,4つの公開データセットにまたがる最先端性能を実現する。
論文 参考訳(メタデータ) (2025-06-04T09:21:54Z) - ViRAC: A Vision-Reasoning Agent Head Movement Control Framework in Arbitrary Virtual Environments [0.13654846342364302]
本稿では,大規模モデルの常識的知識と推論能力を活用するViRACを提案する。
ViRACは最近の最先端技術よりも自然でコンテキスト対応の頭部回転を生成する。
論文 参考訳(メタデータ) (2025-02-14T09:46:43Z) - Multi-Agent Dynamic Relational Reasoning for Social Robot Navigation [50.01551945190676]
社会ロボットナビゲーションは、日常生活の様々な状況において有用であるが、安全な人間とロボットの相互作用と効率的な軌道計画が必要である。
本稿では, 動的に進化する関係構造を明示的に推論した系統的関係推論手法を提案する。
マルチエージェント軌道予測とソーシャルロボットナビゲーションの有効性を実証する。
論文 参考訳(メタデータ) (2024-01-22T18:58:22Z) - Learn to Predict How Humans Manipulate Large-sized Objects from
Interactive Motions [82.90906153293585]
本稿では,動きデータと動的記述子を融合させるグラフニューラルネットワークHO-GCNを提案する。
動的記述子を消費するネットワークは、最先端の予測結果が得られ、未確認オブジェクトへのネットワークの一般化に役立つことを示す。
論文 参考訳(メタデータ) (2022-06-25T09:55:39Z) - GIMO: Gaze-Informed Human Motion Prediction in Context [75.52839760700833]
本研究では、高品質なボディポーズシーケンス、シーンスキャン、目視によるエゴ中心のビューを提供する大規模な人体動作データセットを提案する。
私たちのデータ収集は特定のシーンに縛られません。
視線の全可能性を実現するために,視線と運動枝の双方向通信を可能にする新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-04-20T13:17:39Z) - Predicting the Future from First Person (Egocentric) Vision: A Survey [18.07516837332113]
この調査は、自我中心のビジョンから将来の予測の文脈における研究の進化を要約する。
アプリケーション、デバイス、既存の問題、一般的に使用されるデータセット、モデル、入力モダリティの概要を説明している。
我々の分析は、自我中心の視覚から将来の予測方法が、様々なアプリケーションに重大な影響を与えることを強調している。
論文 参考訳(メタデータ) (2021-07-28T14:58:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。