論文の概要: Adaptive Virtual Reality Museum: A Closed-Loop Framewor for Engagement-Aware Cultural Heritage
- arxiv url: http://arxiv.org/abs/2603.13639v1
- Date: Fri, 13 Mar 2026 22:46:19 GMT
- ステータス: 情報取得中
- システム内更新日: 2026-03-17 13:00:15.322617
- Title: Adaptive Virtual Reality Museum: A Closed-Loop Framewor for Engagement-Aware Cultural Heritage
- Title(参考訳): Adaptive Virtual Reality Museum: エンゲージメントを意識した文化遺産のためのクローズドループフレーム
- Authors: Joseph Damouni, Wadia Tanus, Naomi Unkelos-Shpigel,
- Abstract要約: 暗黙的なマルチモーダルセンシングにより,コンテンツ深度をリアルタイムビジター行動に調整するクローズドループ適応インタフェースを提案する。
その結果,高いユーザビリティを維持しつつ,読書のエンゲージメントと探索時間を2~3倍に向上した。
これらの予備的な発見は、大規模な調査を保証し、エンゲージメント検証、AI透明性、遺産コンテキストにおける生成モデルに関する疑問を提起する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Static information presentation in VR cultural heritage often causes cognitive overload or under-stimulation. We introduce a closed-loop adaptive interface that tailors content depth to real-time visitor behavior through implicit multimodal sensing. Our approach continuously monitors gaze dwell, head kinematics, and locomotion to infer engagement via a transparent rule-based classifier, which drives a Large Language Model to dynamically modulate explanation complexity without interrupting exploration. We implemented a proof-of-concept in the Berat Ethnographic Museum and conducted a preliminary evaluation (N=16) comparing adaptive versus static content. Results indicate that adaptive participants demonstrated 2-3x increases in reading engagement and exploration time while maintaining high usability (SUS = 84.3). Technical validation confirmed sub-millisecond engagement inference latency on consumer VR hardware. These preliminary findings warrant larger-scale investigation and raise questions about engagement validation, AI transparency, and generative models in heritage contexts. We present this work-in-progress to spark discussion about implicit AI-driven adaptation in immersive cultural experiences.
- Abstract(参考訳): VR文化遺産における静的情報提示は認知的過負荷や過度の刺激を引き起こすことが多い。
暗黙的なマルチモーダルセンシングにより,コンテンツ深度をリアルタイムビジター行動に調整するクローズドループ適応インタフェースを提案する。
提案手法は,探索を中断することなく説明複雑性を動的に調節する大言語モデルを駆動する透明なルールベース分類器を用いて,視線,頭部運動,移動を連続的に監視し,係り合いを推定する。
我々は,Berat Ethnographic Museumで概念実証を実施し,適応性と静的性を比較した予備評価(N=16)を行った。
その結果、適応的な参加者は、高いユーザビリティを維持しながら、読書のエンゲージメントと探索時間の2~3倍の増加を示した(SUS=84.3)。
技術的検証により、コンシューマVRハードウェア上でのミリ秒以下のエンゲージメント推論遅延が確認された。
これらの予備的な発見は、大規模な調査を保証し、エンゲージメント検証、AI透明性、遺産コンテキストにおける生成モデルに関する疑問を提起する。
我々は、没入型文化体験における暗黙のAI駆動適応に関する議論を提起する。
関連論文リスト
- GazeProphetV2: Head-Movement-Based Gaze Prediction Enabling Efficient Foveated Rendering on Mobile VR [0.0]
本稿では,時間的視線パターン,頭部運動データ,視覚シーン情報を組み合わせたVR視線予測へのマルチモーダルアプローチを提案する。
22のVRシーンと5.3Mの視線サンプルにまたがるデータセットによる評価は、モダリティを組み合わせる際の予測精度の改善を示している。
クロスシーンの一般化テストは、予測された視線軌跡における93.1%の検証精度と時間的整合性を示す。
論文 参考訳(メタデータ) (2025-11-25T06:55:39Z) - PhysVLM-AVR: Active Visual Reasoning for Multimodal Large Language Models in Physical Environments [36.84821207878773]
マルチモーダル大言語モデル(MLLM)における視覚的推論は、主に静的で完全に観測可能な設定で研究されている。
AVR(Active Visual Reasoning)タスクを導入し、視覚的推論を部分的に観察可能で対話的な環境に拡張する。
推論と情報収集の効率性の両方を評価するために,複数ラウンドの対話型環境を特徴とするベンチマークを提案する。
論文 参考訳(メタデータ) (2025-10-24T02:59:00Z) - See, Think, Act: Online Shopper Behavior Simulation with VLM Agents [58.92444959954643]
本稿では,視覚情報,特にWebページスクリーンショットのVLMによる動作シミュレーションへの統合について検討する。
我々は,協調行動予測と合理化生成にSFTを用いて,相互作用の完全な文脈を条件づける。
推論能力をさらに強化するため,RLを階層的な報酬構造と統合し,難易度因子によって拡張する。
論文 参考訳(メタデータ) (2025-10-22T05:07:14Z) - Understanding Cognitive States from Head & Hand Motion Data [1.0742675209112622]
本稿では,構造化意思決定タスク中に収集された状態のフレームレベルアノテーションを用いた,頭部・手の動きの新たなデータセットを提案する。
以上の結果から,深部側頭葉モデルでは動作のみから微妙な認知状態を推定でき,人間の観察者と同等のパフォーマンスを達成できる可能性が示唆された。
この研究は、標準的なVRテレメトリは、ユーザの内的認知プロセスに関連する強力なパターンを含んでおり、新しい世代の適応仮想環境への扉を開くことを実証している。
論文 参考訳(メタデータ) (2025-09-29T03:59:56Z) - Emulating Human-like Adaptive Vision for Efficient and Flexible Machine Visual Perception [93.20637973889434]
本稿では、"パッシブ"から"アクティブ"ビジョンモデルへのパラダイムシフトを促進するための一般的なフレームワークであるAdaptiveNNを紹介する。
AdaptiveNNは、視覚知覚を粗い連続的な意思決定プロセスとして定式化する。
アダプティブNNは、大規模な視覚認識、きめ細かい識別、視覚検索、実際の運転と医療シナリオからの画像処理を含む、9つのタスクにまたがる17のベンチマークで評価する。
論文 参考訳(メタデータ) (2025-09-18T18:25:43Z) - Predicting User Grasp Intentions in Virtual Reality [0.0]
対象の種類,サイズ,操作の異なる810の試験において,分類と回帰のアプローチを評価した。
回帰ベースのアプローチはより堅牢なパフォーマンスを示し、タイミングエラーは0.25秒以内、距離エラーは5~20cm程度である。
私たちの結果は、VRインタラクションを強化する機械学習モデルの可能性を強調します。
論文 参考訳(メタデータ) (2025-08-05T15:17:19Z) - From Seeing to Experiencing: Scaling Navigation Foundation Models with Reinforcement Learning [59.88543114325153]
本稿では,航法基礎モデルの強化学習能力を高めるためのSeeing-to-Experiencingフレームワークを提案する。
S2Eは、ビデオの事前トレーニングとRLによるポストトレーニングの長所を組み合わせたものだ。
実世界のシーンを3DGSで再現した3D画像に基づく総合的なエンドツーエンド評価ベンチマークであるNavBench-GSを構築した。
論文 参考訳(メタデータ) (2025-07-29T17:26:10Z) - ARIG: Autoregressive Interactive Head Generation for Real-time Conversations [15.886402427095515]
対面コミュニケーションは、共通の人間の活動として、インタラクティブなヘッドジェネレーションの研究を動機付けている。
従来のクリップワイズ生成パラダイムや明示的なリスナー/スピーカジェネレータスイッチング手法は,将来的な信号取得に限界がある。
本稿では,AR(autoregressive,自己回帰的,自己回帰的,自己回帰的,自己回帰的)に基づくフレームワークARIGを提案する。
論文 参考訳(メタデータ) (2025-07-01T06:38:14Z) - A Threefold Review on Deep Semantic Segmentation: Efficiency-oriented,
Temporal and Depth-aware design [77.34726150561087]
我々は、自動運転車のビジョンの文脈において、Deep Semanticの最も関連性があり最近の進歩について調査を行う。
私たちの主な目的は、それぞれの視点で直面している主要な方法、利点、制限、結果、課題に関する包括的な議論を提供することです。
論文 参考訳(メタデータ) (2023-03-08T01:29:55Z) - Anticipating the Unseen Discrepancy for Vision and Language Navigation [63.399180481818405]
視覚言語ナビゲーションでは、エージェントは特定のターゲットに到達するために自然言語命令に従う必要がある。
目に見える環境と目に見えない環境の間に大きな違いがあるため、エージェントがうまく一般化することは困難である。
本研究では,テストタイムの視覚的整合性を促進することによって,未知の環境への一般化を学習する,未知の離散性予測ビジョンと言語ナビゲーション(DAVIS)を提案する。
論文 参考訳(メタデータ) (2022-09-10T19:04:40Z) - VIRT: Improving Representation-based Models for Text Matching through
Virtual Interaction [50.986371459817256]
本稿では,VIRT と呼ばれる新しいtextitVirtual InteRacTion 機構を提案する。
VIRTは、表現ベースのエンコーダに、対話ベースのモデルのように振舞いを模倣する仮想インタラクションを実行するよう要求する。
論文 参考訳(メタデータ) (2021-12-08T09:49:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。