論文の概要: Sight, Sound and Smell in Immersive Experiences of Urban History: Virtual Vauxhall Gardens Case Study
- arxiv url: http://arxiv.org/abs/2505.13612v1
- Date: Mon, 19 May 2025 18:00:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.469508
- Title: Sight, Sound and Smell in Immersive Experiences of Urban History: Virtual Vauxhall Gardens Case Study
- Title(参考訳): 都市史における没入感と音と匂い--仮想ボクスホール庭園を事例として
- Authors: Tim Pearce, David Souto, Douglas Barrett, Benjamin Lok, Mateusz Bocian, Artur Soczawa-Stronczyk, Giasemi Vavoula, Paul Long, Avinash Bhangaonkar, Stephanie Bowry, Michaela Butter, David Coke, Kate Loveman, Rosemary Sweet, Lars Tharp, Jeremy Webster, Hongji Yang, Robin Green, Andrew Hugill,
- Abstract要約: 本研究は, 嗅覚を含む多感覚体験を, 歴史的空間のVR再構成に効果的に統合する方法について検討した。
ロンドンのVauxhall Pleasure GardensをVRで再現するにあたって、私たちはネットワーク化されたポータブル嗅覚ディスプレイを開発しました。
以上の結果から,VR体験に同期嗅覚を取り入れることで,ユーザのエンゲージメントが向上し,肯定的な知覚がもたらされることが示唆された。
- 参考スコア(独自算出の注目度): 2.0897860130200443
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We explore the integration of multisensory elements in virtual reality reconstructions of historical spaces through a case study of the Virtual Vauxhall Gardens project. While visual and auditory components have become standard in digital heritage experiences, the addition of olfactory stimuli remains underexplored, despite its powerful connection to memory and emotional engagement. This research investigates how multisensory experiences involving olfaction can be effectively integrated into VR reconstructions of historical spaces to enhance presence and engagement with cultural heritage. In the context of a VR reconstruction of London's eighteenth-century Vauxhall Pleasure Gardens, we developed a networked portable olfactory display capable of synchronizing specific scents with visual and auditory elements at pivotal moments in the virtual experience. Our evaluation methodology assesses both technical implementation and user experience, measuring presence, and usability metrics across diverse participant groups. Our results show that integrating synchronized olfactory stimuli into the VR experience can enhance user engagement and be perceived positively, contributing to a unique and immersive encounter with historical settings. While presence questionnaires indicated a strong sense of auditory presence and control, with other sensory factors rated moderately, user experience of attractiveness was exceptionally high; qualitative feedback suggested heightened sensory awareness and engagement influenced by the inclusion and anticipation of smell. Our results suggest that evaluating multisensory VR heritage experiences requires a nuanced approach, as standard usability metrics may be ill-suited and 'realism' might be less critical than creating an evocative, historically informed, and emotionally resonant experience......
- Abstract(参考訳): 仮想ボクスホール庭園プロジェクト(Virtual Vauxhall Gardens project)を事例として,歴史的空間のバーチャルリアリティ再構築における多感覚要素の統合について検討する。
視覚的および聴覚的要素は、デジタル遺産体験において標準的なものとなっているが、記憶と感情的エンゲージメントに強く結びついているにもかかわらず、嗅覚刺激の付加は未発見のままである。
本研究は,オオカミの多感覚体験を歴史的空間のVR再構成に効果的に統合し,文化遺産への関与を高める方法について検討する。
ロンドン・ボクスホール・プレジャー・ガーデンズ(Vauxhall Pleasure Gardens)をVRで再現するにあたって、我々は仮想体験において重要な瞬間に特定の香りと視覚的および聴覚的要素を同期させるネットワーク化されたポータブル嗅覚ディスプレイを開発した。
本評価手法は,技術実装とユーザエクスペリエンス,ユーザビリティ測定,ユーザビリティ指標の両面から評価する。
以上の結果から,VR体験に同期嗅覚を取り入れることで,ユーザのエンゲージメントが向上し,肯定的な認識が得られ,歴史的環境との独特で没入的な出会いに寄与することが示唆された。
プレゼンスアンケートは, 聴覚の有無やコントロールの感覚が強く, その他の感覚要因が適度に評価される一方で, 魅力感のユーザ体験は極めて高く, 質的なフィードバックは, 嗅覚の含意と予見に影響された感覚意識とエンゲージメントを高めることを示唆した。
私たちの結果は、多感的なVR遺産体験を評価するには、標準のユーザビリティ指標が不適切で、“現実主義(realism)”が、挑発的で歴史的に知られ、感情的に共鳴する体験を作り出すことよりも、あまり重要ではないことを示唆している。
関連論文リスト
- Imagine, Verify, Execute: Memory-Guided Agentic Exploration with Vision-Language Models [60.675955082094944]
本稿では,人間の好奇心に触発されたエージェント探索フレームワークIVEを紹介する。
シミュレーションおよび実世界のテーブルトップ環境におけるIVEの評価を行った。
論文 参考訳(メタデータ) (2025-05-12T17:59:11Z) - SkillMimic-V2: Learning Robust and Generalizable Interaction Skills from Sparse and Noisy Demonstrations [68.9300049150948]
インタラクション実証(Reinforcement Demonstration, RLID)からの強化学習における根本的な課題に対処する。
既存のデータ収集アプローチはスパース、非接続、ノイズのトラジェクトリを生成し、スキルのバリエーションとトランジションの完全なスペクトルをキャプチャできない。
本稿では,実証技術間の潜在的な遷移を検出するStitched Trajectory Graph (STG) と,実証地区内の任意の状態に対するユニークな接続を確立するState Transition Field (STF) という2つのデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2025-05-04T13:00:29Z) - Exploring Context-aware and LLM-driven Locomotion for Immersive Virtual Reality [8.469329222500726]
大規模言語モデル(LLM)を利用した新しい移動法を提案する。
制御器を用いたテレポーテーション,音声によるステアリング,言語モデルによるアプローチの3つの方法を評価する。
以上の結果から, LLM駆動の移動は, 確立された方法と比較して, ユーザビリティ, 存在, サイバーシックネスのスコアが同等であることが示唆された。
論文 参考訳(メタデータ) (2025-04-24T07:48:09Z) - ESVQA: Perceptual Quality Assessment of Egocentric Spatial Videos [71.62145804686062]
我々は,600個のエゴセントリックな空間ビデオとそれらの平均評価スコア(MOS)からなる,最初のエゴセントリックな空間ビデオ品質評価データベース(ESVQAD)を紹介する。
両眼の空間, 動き, 意味的特徴を統合し, 知覚品質を予測できる新しい多次元両眼機能融合モデル ESVQAnet を提案する。
ESVQAnetは知覚品質評価タスクにおいて16の最先端VQAモデルより優れていることを示す実験結果を得た。
論文 参考訳(メタデータ) (2024-12-29T10:13:30Z) - Exploring Eye Tracking to Detect Cognitive Load in Complex Virtual Reality Training [11.83314968015781]
視線追跡に基づく機械学習手法を用いて、ユーザの認知負荷を検出するための研究が進行中である。
寒冷噴霧のためのVRトレーニングシステムを開発し,22名の被験者を対象に実験を行った。
予備分析は、複雑なVR体験における認知負荷を検出するためにアイトラッキングを使用することの可能性を示している。
論文 参考訳(メタデータ) (2024-11-18T16:44:19Z) - Thelxinoë: Recognizing Human Emotions Using Pupillometry and Machine Learning [0.0]
本研究は,現実的かつ感情的に共鳴するタッチインタラクションのための複数のセンサデータを統合することで,VR体験の向上を目的とした,Thelxino"eフレームワークに大きく貢献する。
我々の発見は、没入的でインタラクティブなVR環境を開発するための新しい道を開き、バーチャルタッチ技術の将来の進歩への道を開いた。
論文 参考訳(メタデータ) (2024-03-27T21:14:17Z) - Learning beyond sensations: how dreams organize neuronal representations [1.749248408967819]
仮想体験の生成を通じて表現を整理する2つの相補的な学習原理について論じる。
これらの原理は、既知の皮質構造や力学、睡眠の現象学と互換性がある。
論文 参考訳(メタデータ) (2023-08-03T15:45:12Z) - Force-Aware Interface via Electromyography for Natural VR/AR Interaction [69.1332992637271]
我々はVR/ARにおける自然的および直感的な力入力のための学習ベースのニューラルネットワークを設計する。
我々は,3.3%の平均誤差で指の力量をリアルタイムでデコードし,キャリブレーションの少ない新規ユーザに一般化できることを実証した。
今後のVR/ARにおける、より現実的な物理性に向けた研究を進めるために、我々の研究成果を期待する。
論文 参考訳(メタデータ) (2022-10-03T20:51:25Z) - Learning Effect of Lay People in Gesture-Based Locomotion in Virtual
Reality [81.5101473684021]
最も有望な方法はジェスチャーベースであり、追加のハンドヘルドハードウェアを必要としない。
最近の研究は、主に異なるロコモーションテクニックのユーザの好みとパフォーマンスに焦点を当てている。
本研究は,VRにおける手のジェスチャーに基づくロコモーションシステムへの適応の迅速さについて検討した。
論文 参考訳(メタデータ) (2022-06-16T10:44:16Z) - Learning Perceptual Locomotion on Uneven Terrains using Sparse Visual
Observations [75.60524561611008]
この研究は、人中心の環境において、よく見られるバンプ、ランプ、階段の広い範囲にわたる知覚的移動を達成するために、スパースな視覚的観察の使用を活用することを目的としている。
まず、関心の均一な面を表すことのできる最小限の視覚入力を定式化し、このような外受容的・固有受容的データを統合した学習フレームワークを提案する。
本研究では, 平地を全方向歩行し, 障害物のある地形を前方移動させるタスクにおいて, 学習方針を検証し, 高い成功率を示す。
論文 参考訳(メタデータ) (2021-09-28T20:25:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。