論文の概要: Understanding Cognitive States from Head & Hand Motion Data
- arxiv url: http://arxiv.org/abs/2509.24255v1
- Date: Mon, 29 Sep 2025 03:59:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.733208
- Title: Understanding Cognitive States from Head & Hand Motion Data
- Title(参考訳): 頭部・手の動きデータから認知状態を理解する
- Authors: Kaiang Wen, Mark Roman Miller,
- Abstract要約: 本稿では,構造化意思決定タスク中に収集された状態のフレームレベルアノテーションを用いた,頭部・手の動きの新たなデータセットを提案する。
以上の結果から,深部側頭葉モデルでは動作のみから微妙な認知状態を推定でき,人間の観察者と同等のパフォーマンスを達成できる可能性が示唆された。
この研究は、標準的なVRテレメトリは、ユーザの内的認知プロセスに関連する強力なパターンを含んでおり、新しい世代の適応仮想環境への扉を開くことを実証している。
- 参考スコア(独自算出の注目度): 1.0742675209112622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As virtual reality (VR) and augmented reality (AR) continue to gain popularity, head and hand motion data captured by consumer VR systems have become ubiquitous. Prior work shows that such telemetry can be highly identifying and reflect broad user traits, often aligning with intuitive "folk theories" of body language. However, it remains unclear to what extent motion kinematics encode more nuanced cognitive states, such as confusion, hesitation, and readiness, which lack clear correlates with motion. To investigate this, we introduce a novel dataset of head and hand motion with frame-level annotations of these states collected during structured decision-making tasks. Our findings suggest that deep temporal models can infer subtle cognitive states from motion alone, achieving comparable performance with human observers. This work demonstrates that standard VR telemetry contains strong patterns related to users' internal cognitive processes, which opens the door for a new generation of adaptive virtual environments. To enhance reproducibility and support future work, we will make our dataset and modeling framework publicly available.
- Abstract(参考訳): 仮想現実(VR)と拡張現実(AR)の人気が高まり、コンシューマー向けVRシステムによって捉えられた頭と手の動きのデータが普及している。
以前の研究は、このようなテレメトリは幅広いユーザの特性を高度に識別し、反映し、ボディランゲージの直感的な「民族理論」と整合していることを示している。
しかし、運動キネマティクスが、運動と明確な相関を欠いている混乱、ためらい、準備など、よりニュアンスな認知状態をエンコードする程度は、まだ不明である。
そこで本研究では,これらの状態のフレームレベルアノテーションを用いた頭部・手の動きの新たなデータセットを提案する。
以上の結果から,深部側頭葉モデルでは動作のみから微妙な認知状態を推定でき,人間の観察者と同等のパフォーマンスを達成できる可能性が示唆された。
この研究は、標準的なVRテレメトリは、ユーザの内的認知プロセスに関連する強力なパターンを含んでおり、新しい世代の適応仮想環境への扉を開くことを実証している。
再現性を高め、今後の作業をサポートするため、データセットとモデリングフレームワークを公開します。
関連論文リスト
- Predicting User Grasp Intentions in Virtual Reality [0.0]
対象の種類,サイズ,操作の異なる810の試験において,分類と回帰のアプローチを評価した。
回帰ベースのアプローチはより堅牢なパフォーマンスを示し、タイミングエラーは0.25秒以内、距離エラーは5~20cm程度である。
私たちの結果は、VRインタラクションを強化する機械学習モデルの可能性を強調します。
論文 参考訳(メタデータ) (2025-08-05T15:17:19Z) - Seamless Interaction: Dyadic Audiovisual Motion Modeling and Large-Scale Dataset [113.25650486482762]
4000時間以上の対面インタラクション映像の大規模な収集であるSeamless Interactionデータセットを紹介した。
このデータセットは、ダイドの具体的ダイナミクスを理解するAIテクノロジの開発を可能にする。
そこで我々は,このデータセットを用いて,人間の発話に適応した動作ジェスチャーと表情を生成するモデル群を開発した。
論文 参考訳(メタデータ) (2025-06-27T18:09:49Z) - Exploring Context-aware and LLM-driven Locomotion for Immersive Virtual Reality [8.469329222500726]
大規模言語モデル(LLM)を利用した新しい移動法を提案する。
制御器を用いたテレポーテーション,音声によるステアリング,言語モデルによるアプローチの3つの方法を評価する。
以上の結果から, LLM駆動の移動は, 確立された方法と比較して, ユーザビリティ, 存在, サイバーシックネスのスコアが同等であることが示唆された。
論文 参考訳(メタデータ) (2025-04-24T07:48:09Z) - ViRAC: A Vision-Reasoning Agent Head Movement Control Framework in Arbitrary Virtual Environments [0.13654846342364302]
本稿では,大規模モデルの常識的知識と推論能力を活用するViRACを提案する。
ViRACは最近の最先端技術よりも自然でコンテキスト対応の頭部回転を生成する。
論文 参考訳(メタデータ) (2025-02-14T09:46:43Z) - Tremor Reduction for Accessible Ray Based Interaction in VR Applications [0.0]
多くの従来の2Dインタフェースのインタラクション方法は、入力機構にほとんど変更を加えることなく、VR空間で直接動作するように変換されている。
本稿では,低域通過フィルタを用いてユーザ入力ノイズの正規化を行い,光線による相互作用におけるモータの細かな要求を緩和する手法を提案する。
論文 参考訳(メタデータ) (2024-05-12T17:07:16Z) - Deep Motion Masking for Secure, Usable, and Scalable Real-Time Anonymization of Virtual Reality Motion Data [49.68609500290361]
最近の研究では、ほぼすべてのVRアプリケーションで使われているモーショントラッキングの「テレメトリ」データが、指紋スキャンと同じくらいに識別可能であることが示されている。
本稿では、既知の防御対策を確実に回避できる最先端のVR識別モデルを提案する。
論文 参考訳(メタデータ) (2023-11-09T01:34:22Z) - Force-Aware Interface via Electromyography for Natural VR/AR Interaction [69.1332992637271]
我々はVR/ARにおける自然的および直感的な力入力のための学習ベースのニューラルネットワークを設計する。
我々は,3.3%の平均誤差で指の力量をリアルタイムでデコードし,キャリブレーションの少ない新規ユーザに一般化できることを実証した。
今後のVR/ARにおける、より現実的な物理性に向けた研究を進めるために、我々の研究成果を期待する。
論文 参考訳(メタデータ) (2022-10-03T20:51:25Z) - Stochastic Coherence Over Attention Trajectory For Continuous Learning
In Video Streams [64.82800502603138]
本稿では,映像ストリーム中のピクセルワイズ表現を段階的かつ自律的に開発するための,ニューラルネットワークに基づく新しいアプローチを提案する。
提案手法は, 参加者の入場地を観察することで, エージェントが学習できる, 人間の様の注意機構に基づく。
実験では,3次元仮想環境を利用して,映像ストリームを観察することで,エージェントが物体の識別を学べることを示す。
論文 参考訳(メタデータ) (2022-04-26T09:52:31Z) - GIMO: Gaze-Informed Human Motion Prediction in Context [75.52839760700833]
本研究では、高品質なボディポーズシーケンス、シーンスキャン、目視によるエゴ中心のビューを提供する大規模な人体動作データセットを提案する。
私たちのデータ収集は特定のシーンに縛られません。
視線の全可能性を実現するために,視線と運動枝の双方向通信を可能にする新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-04-20T13:17:39Z) - Dynamic Modeling of Hand-Object Interactions via Tactile Sensing [133.52375730875696]
本研究では,高分解能な触覚グローブを用いて,多種多様な物体に対して4種類のインタラクティブな動作を行う。
我々は,クロスモーダル学習フレームワーク上にモデルを構築し,視覚処理パイプラインを用いてラベルを生成し,触覚モデルを監督する。
この研究は、高密度触覚センシングによる手動物体相互作用における動的モデリングの一歩を踏み出す。
論文 参考訳(メタデータ) (2021-09-09T16:04:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。