論文の概要: Thelxinoë: Recognizing Human Emotions Using Pupillometry and Machine Learning
- arxiv url: http://arxiv.org/abs/2403.19014v1
- Date: Wed, 27 Mar 2024 21:14:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-29 17:52:05.696658
- Title: Thelxinoë: Recognizing Human Emotions Using Pupillometry and Machine Learning
- Title(参考訳): Thelxinoë:Pupillometryと機械学習を用いた人間の感情認識
- Authors: Darlene Barker, Haim Levkowitz,
- Abstract要約: 本研究は,現実的かつ感情的に共鳴するタッチインタラクションのための複数のセンサデータを統合することで,VR体験の向上を目的とした,Thelxino"eフレームワークに大きく貢献する。
我々の発見は、没入的でインタラクティブなVR環境を開発するための新しい道を開き、バーチャルタッチ技術の将来の進歩への道を開いた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this study, we present a method for emotion recognition in Virtual Reality (VR) using pupillometry. We analyze pupil diameter responses to both visual and auditory stimuli via a VR headset and focus on extracting key features in the time-domain, frequency-domain, and time-frequency domain from VR generated data. Our approach utilizes feature selection to identify the most impactful features using Maximum Relevance Minimum Redundancy (mRMR). By applying a Gradient Boosting model, an ensemble learning technique using stacked decision trees, we achieve an accuracy of 98.8% with feature engineering, compared to 84.9% without it. This research contributes significantly to the Thelxino\"e framework, aiming to enhance VR experiences by integrating multiple sensor data for realistic and emotionally resonant touch interactions. Our findings open new avenues for developing more immersive and interactive VR environments, paving the way for future advancements in virtual touch technology.
- Abstract(参考訳): 本研究では,瞳孔計測を用いた仮想現実(VR)における感情認識手法を提案する。
我々は,VRヘッドセットを用いて視覚刺激と聴覚刺激に対する瞳孔径の反応を分析し,VR生成データから時間領域,周波数領域,時間周波数領域の重要な特徴を抽出することに焦点を当てた。
提案手法は,mRMR(Maximum Relevance Minimum Redundancy)を用いて,特徴選択を用いて最も影響の大きい特徴を同定する。
重み付き決定木を用いたアンサンブル学習手法であるグラディエントブースティングモデルを適用することで,特徴工学で98.8%の精度を達成できるのに対し,84.9%の精度を達成できる。
本研究は,現実的かつ感情的に共鳴するタッチインタラクションのための複数のセンサデータを統合することで,VR体験の向上を目的としたThelxino\"eフレームワークに大きく貢献する。
我々の発見は、没入的でインタラクティブなVR環境を開発するための新しい道を開き、バーチャルタッチ技術の将来の進歩への道を開いた。
関連論文リスト
- Exploring Eye Tracking to Detect Cognitive Load in Complex Virtual Reality Training [11.83314968015781]
視線追跡に基づく機械学習手法を用いて、ユーザの認知負荷を検出するための研究が進行中である。
寒冷噴霧のためのVRトレーニングシステムを開発し,22名の被験者を対象に実験を行った。
予備分析は、複雑なVR体験における認知負荷を検出するためにアイトラッキングを使用することの可能性を示している。
論文 参考訳(メタデータ) (2024-11-18T16:44:19Z) - Tremor Reduction for Accessible Ray Based Interaction in VR Applications [0.0]
多くの従来の2Dインタフェースのインタラクション方法は、入力機構にほとんど変更を加えることなく、VR空間で直接動作するように変換されている。
本稿では,低域通過フィルタを用いてユーザ入力ノイズの正規化を行い,光線による相互作用におけるモータの細かな要求を緩和する手法を提案する。
論文 参考訳(メタデータ) (2024-05-12T17:07:16Z) - VR interaction for efficient virtual manufacturing: mini map for
multi-user VR navigation platform [0.0]
本稿では,仮想工場レイアウト計画のためのインタラクティブな位置決めマップに着目し,ナビゲーション支援としてのディジタルマップのユーザインタラクション設計について検討する。
5種類のインタラクティブマップのプロトタイプをテストし、評価し、20人の参加者と40人の検証済みデータストリームによって評価した。
そこで本研究では,対話型地図の最も効率的なインタラクション設計について分析し,考察した。
論文 参考訳(メタデータ) (2023-12-29T13:09:54Z) - Emotion Based Prediction in the Context of Optimized Trajectory Planning
for Immersive Learning [0.0]
没入型学習の仮想要素として,Google Expeditionとタッチスクリーンによる感情の利用について検討した。
教育的応用、余裕、認知的負荷が関係する対応する手段である。
論文 参考訳(メタデータ) (2023-12-18T09:24:35Z) - Multisensory extended reality applications offer benefits for volumetric biomedical image analysis in research and medicine [2.46537907738351]
高解像度ボリューム画像からの3Dデータは、現代医学における診断と治療の中心的な資源である。
近年の研究では、視覚深度知覚と触覚を持つ3次元画像の知覚に拡張現実(XR)を用いたが、制限的な触覚デバイスを用いた。
本研究では, バイオメディカル画像の専門家24名を対象に, 3次元医用形状を探索した。
論文 参考訳(メタデータ) (2023-11-07T13:37:47Z) - Force-Aware Interface via Electromyography for Natural VR/AR Interaction [69.1332992637271]
我々はVR/ARにおける自然的および直感的な力入力のための学習ベースのニューラルネットワークを設計する。
我々は,3.3%の平均誤差で指の力量をリアルタイムでデコードし,キャリブレーションの少ない新規ユーザに一般化できることを実証した。
今後のVR/ARにおける、より現実的な物理性に向けた研究を進めるために、我々の研究成果を期待する。
論文 参考訳(メタデータ) (2022-10-03T20:51:25Z) - The Gesture Authoring Space: Authoring Customised Hand Gestures for
Grasping Virtual Objects in Immersive Virtual Environments [81.5101473684021]
本研究は、仮想オブジェクトを現実世界のようにつかむことができる、オブジェクト固有のグリップジェスチャーのためのハンドジェスチャーオーサリングツールを提案する。
提示されたソリューションは、ジェスチャー認識にテンプレートマッチングを使用し、カスタムのカスタマイズされた手の動きを設計および作成するために技術的な知識を必要としない。
本研究は,提案手法を用いて作成したジェスチャーが,ユーザによって他のユーザよりも自然な入力モダリティとして認識されていることを示した。
論文 参考訳(メタデータ) (2022-07-03T18:33:33Z) - Learning Effect of Lay People in Gesture-Based Locomotion in Virtual
Reality [81.5101473684021]
最も有望な方法はジェスチャーベースであり、追加のハンドヘルドハードウェアを必要としない。
最近の研究は、主に異なるロコモーションテクニックのユーザの好みとパフォーマンスに焦点を当てている。
本研究は,VRにおける手のジェスチャーに基づくロコモーションシステムへの適応の迅速さについて検討した。
論文 参考訳(メタデータ) (2022-06-16T10:44:16Z) - Wireless Edge-Empowered Metaverse: A Learning-Based Incentive Mechanism
for Virtual Reality [102.4151387131726]
メタバースにおけるVRサービスのための学習型インセンティブメカニズムフレームワークを提案する。
まず,仮想世界におけるVRユーザのための指標として,知覚の質を提案する。
第二に、VRユーザー(買い手)とVR SP(売り手)間のVRサービスの迅速な取引のために、オランダの二重オークション機構を設計する。
第3に,この競売プロセスの高速化を目的とした深層強化学習型競売機を設計する。
論文 参考訳(メタデータ) (2021-11-07T13:02:52Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。