論文の概要: Towards an Emotion-Aware Metaverse: A Human-Centric Shipboard Fire Drill Simulator
- arxiv url: http://arxiv.org/abs/2503.03570v1
- Date: Wed, 05 Mar 2025 14:58:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 15:52:22.306681
- Title: Towards an Emotion-Aware Metaverse: A Human-Centric Shipboard Fire Drill Simulator
- Title(参考訳): 感情認識メタバースに向けて:人間中心の船上消火栓シミュレーター
- Authors: Musaab H. Hamed-Ahmed, Diego Ramil-López, Paula Fraga-Lamas, Tiago M. Fernández-Caramés,
- Abstract要約: 本稿では,船舶の緊急時に乗組員を準備するために設計された,感情を意識したMetaverseアプリケーション:VR(Virtual Reality)消火訓練シミュレータについて述べる。
シミュレータはリアルタイムで感情を検出し、ストレス下での訓練者の反応を評価し、学習結果を改善する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Traditional XR and Metaverse applications prioritize user experience (UX) for adoption and success but often overlook a crucial aspect of user interaction: emotions. This article addresses this gap by presenting an emotion-aware Metaverse application: a Virtual Reality (VR) fire drill simulator designed to prepare crews for shipboard emergencies. The simulator detects emotions in real time, assessing trainees responses under stress to improve learning outcomes. Its architecture incorporates eye-tracking and facial expression analysis via Meta Quest Pro headsets. The system features four levels whose difficulty is increased progressively to evaluate user decision-making and emotional resilience. The system was evaluated in two experimental phases. The first phase identified challenges, such as navigation issues and lack of visual guidance. These insights led to an improved second version with a better user interface, visual cues and a real-time task tracker. Performance metrics like completion times, task efficiency and emotional responses were analyzed. The obtained results show that trainees with prior VR or gaming experience navigated the scenarios more efficiently. Moreover, the addition of task-tracking visuals and navigation guidance significantly improved user performance, reducing task completion times between 14.18\% and 32.72\%. Emotional responses were captured, revealing that some participants were engaged, while others acted indifferently, indicating the need for more immersive elements. Overall, this article provides useful guidelines for creating the next generation of emotion-aware Metaverse applications.
- Abstract(参考訳): 従来のXRとMetaverseアプリケーションは、採用と成功のためにユーザエクスペリエンス(UX)を優先しますが、ユーザインタラクションの重要な側面である感情を見落とします。
本稿は,船上緊急時に乗組員を準備するために設計された,感情を意識したMetaverseアプリケーション:VR(Virtual Reality)消火訓練シミュレータを提案することで,このギャップに対処する。
シミュレータはリアルタイムで感情を検出し、ストレス下での訓練者の反応を評価し、学習結果を改善する。
そのアーキテクチャには、Meta Quest Proヘッドセットによるアイトラッキングと表情分析が含まれている。
このシステムは、ユーザの意思決定と感情的レジリエンスを評価するために、難易度が徐々に増大する4つのレベルを特徴としている。
このシステムは2つの実験段階において評価された。
第1フェーズでは、ナビゲーションの問題や視覚的なガイダンスの欠如といった課題が特定された。
これらの洞察は、より良いユーザーインターフェイス、ビジュアルキュー、リアルタイムタスクトラッカーを備えた第2バージョンの改善につながった。
完了時間、タスク効率、感情応答などのパフォーマンス指標を分析した。
その結果,VRやゲーム経験のある研修生の方がシナリオをより効率的にナビゲートできることがわかった。
さらに、タスク追跡視覚とナビゲーションガイダンスの追加により、ユーザパフォーマンスが大幅に向上し、タスク完了時間が14.18\%から32.72\%に短縮された。
感情的な反応が捉えられ、一部の参加者が関与していることが明らかとなり、他の参加者は無関心に行動し、より没入的な要素の必要性が示唆された。
全体として、この記事では、感情を意識した次世代メタバースアプリケーションを作成するための有用なガイドラインを提供する。
関連論文リスト
- Identifying User Goals from UI Trajectories [19.492331502146886]
観測されたUI軌道からタスク目標を識別する手法を提案する。
また,2つの意図記述をパラフレーズとみなすことができるかどうかを評価するための新しい評価手法を提案する。
このタスクをベンチマークするために、人間と最先端モデル、特にGPT-4とGemini-1.5 Proのパフォーマンスを比較した。
論文 参考訳(メタデータ) (2024-06-20T13:46:10Z) - Facial Emotion Recognition in VR Games [2.5382095320488665]
我々は、畳み込みニューラルネットワーク(CNN)を用いて、目とまぶたがカバーされているフルフェイス画像の感情を予測するモデルを訓練する。
これらの画像のモデルは、怒り、幸福、嫌悪、恐怖、不公平、悲しみ、驚きの7つの異なる感情を正確に認識することができる。
ゲームプレイ中にプレイヤーがどのような感情を経験しているかを理解するために,実験から収集したデータを分析した。
論文 参考訳(メタデータ) (2023-12-12T01:40:14Z) - An Approach for Improving Automatic Mouth Emotion Recognition [1.5293427903448025]
この研究は、畳み込みニューラルネットワーク(CNN)を用いた口検出による自動感情認識技術の提案と試験である。
この技術は、コミュニケーションスキルの問題のある健康障害の人々を支援するために応用される。
論文 参考訳(メタデータ) (2022-12-12T16:17:21Z) - SS-VAERR: Self-Supervised Apparent Emotional Reaction Recognition from
Video [61.21388780334379]
この研究は、自己監督的な方法で行われるビデオのみの入力からの明らかな感情的反応の認識に焦点を当てる。
ネットワークは、まず異なる自己教師付きプレテキストタスクで事前訓練され、その後、下流のターゲットタスクで微調整される。
論文 参考訳(メタデータ) (2022-10-20T15:21:51Z) - Towards self-attention based visual navigation in the real world [0.0]
視覚誘導ナビゲーションでは、タスク指向の意思決定を知らせるために複雑な視覚情報を処理する必要がある。
シミュレーションで訓練された深層強化学習エージェントは、現実世界に配備された時に満足のいく結果を示すことが多い。
これは、4000以下のパラメータを使って3Dアクション空間をナビゲートする訓練に成功した、自己注意型エージェントの最初のデモンストレーションである。
論文 参考訳(メタデータ) (2022-09-15T04:51:42Z) - First Contact: Unsupervised Human-Machine Co-Adaptation via Mutual
Information Maximization [112.40598205054994]
我々はこのアイデアを、インターフェースを最適化するための完全に教師なしの目的として定式化する。
タイピング,シミュレートされたロボットの制御,ゲームプレイなど,様々なキーボードとアイアイのインタフェースを運用しているユーザの540K例について,観察的研究を行った。
以上の結果から,我々の相互情報スコアは,様々な領域における真真正タスク完了メトリクスの予測値であることが示唆された。
論文 参考訳(メタデータ) (2022-05-24T21:57:18Z) - Real-time Emotion and Gender Classification using Ensemble CNN [0.0]
本稿では,人物の感情や性別をリアルタイムに検出できるシステムを構築するためのEnsemble CNNの実装について述べる。
我々の研究は、単一の顔画像だけでなく、複数の顔画像上で感情や性別を予測することができる。
論文 参考訳(メタデータ) (2021-11-15T13:51:35Z) - Explore before Moving: A Feasible Path Estimation and Memory Recalling
Framework for Embodied Navigation [117.26891277593205]
ナビゲーションに焦点をあて,経験や常識に欠ける既存のナビゲーションアルゴリズムの問題を解決する。
移動前に2回思考する能力に触発されて、不慣れな場面で目標を追求する実現可能な経路を考案し、パス推定とメモリリコールフレームワークと呼ばれる経路計画手法を提案する。
EmbodiedQAナビゲーションタスクにおけるPEMRの強力な実験結果を示す。
論文 参考訳(メタデータ) (2021-10-16T13:30:55Z) - Computational Emotion Analysis From Images: Recent Advances and Future
Directions [79.05003998727103]
本章では,画像感情分析(IEA)を計算的観点から導入することを目的としている。
心理学の一般的な感情表現モデルから始めます。
そして、研究者たちが解決しようとしている重要な計算問題を定義します。
論文 参考訳(メタデータ) (2021-03-19T13:33:34Z) - Assisted Perception: Optimizing Observations to Communicate State [112.40598205054994]
我々は、ロボット遠隔操作や視覚障害のあるナビゲーションといったタスクにおいて、ユーザが世界の状態を見積もるのを支援することを目的としている。
ユーザによって処理された場合、より正確な内部状態推定につながる新しい観測結果を合成する。
論文 参考訳(メタデータ) (2020-08-06T19:08:05Z) - ProxEmo: Gait-based Emotion Learning and Multi-view Proxemic Fusion for
Socially-Aware Robot Navigation [65.11858854040543]
本稿では,歩行者間のロボットナビゲーションのための感情予測アルゴリズムProxEmoを提案する。
提案手法は歩行歩行から歩行者の知覚された感情を予測し,感情誘導ナビゲーションに使用する。
論文 参考訳(メタデータ) (2020-03-02T17:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。