論文の概要: Thelxinoë: Recognizing Human Emotions Using Pupillometry and Machine Learning
- arxiv url: http://arxiv.org/abs/2403.19014v1
- Date: Wed, 27 Mar 2024 21:14:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-29 17:52:05.696658
- Title: Thelxinoë: Recognizing Human Emotions Using Pupillometry and Machine Learning
- Title(参考訳): Thelxinoë:Pupillometryと機械学習を用いた人間の感情認識
- Authors: Darlene Barker, Haim Levkowitz,
- Abstract要約: 本研究は,現実的かつ感情的に共鳴するタッチインタラクションのための複数のセンサデータを統合することで,VR体験の向上を目的とした,Thelxino"eフレームワークに大きく貢献する。
我々の発見は、没入的でインタラクティブなVR環境を開発するための新しい道を開き、バーチャルタッチ技術の将来の進歩への道を開いた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this study, we present a method for emotion recognition in Virtual Reality (VR) using pupillometry. We analyze pupil diameter responses to both visual and auditory stimuli via a VR headset and focus on extracting key features in the time-domain, frequency-domain, and time-frequency domain from VR generated data. Our approach utilizes feature selection to identify the most impactful features using Maximum Relevance Minimum Redundancy (mRMR). By applying a Gradient Boosting model, an ensemble learning technique using stacked decision trees, we achieve an accuracy of 98.8% with feature engineering, compared to 84.9% without it. This research contributes significantly to the Thelxino\"e framework, aiming to enhance VR experiences by integrating multiple sensor data for realistic and emotionally resonant touch interactions. Our findings open new avenues for developing more immersive and interactive VR environments, paving the way for future advancements in virtual touch technology.
- Abstract(参考訳): 本研究では,瞳孔計測を用いた仮想現実(VR)における感情認識手法を提案する。
我々は,VRヘッドセットを用いて視覚刺激と聴覚刺激に対する瞳孔径の反応を分析し,VR生成データから時間領域,周波数領域,時間周波数領域の重要な特徴を抽出することに焦点を当てた。
提案手法は,mRMR(Maximum Relevance Minimum Redundancy)を用いて,特徴選択を用いて最も影響の大きい特徴を同定する。
重み付き決定木を用いたアンサンブル学習手法であるグラディエントブースティングモデルを適用することで,特徴工学で98.8%の精度を達成できるのに対し,84.9%の精度を達成できる。
本研究は,現実的かつ感情的に共鳴するタッチインタラクションのための複数のセンサデータを統合することで,VR体験の向上を目的としたThelxino\"eフレームワークに大きく貢献する。
我々の発見は、没入的でインタラクティブなVR環境を開発するための新しい道を開き、バーチャルタッチ技術の将来の進歩への道を開いた。
関連論文リスト
- Learning High-Quality Navigation and Zooming on Omnidirectional Images in Virtual Reality [37.564863636844905]
我々は,VRナビゲーションにおける視覚的明瞭度を高めるために,OmniVRと呼ばれる新しいシステムを提案する。
当社のシステムでは,VRに関心のある対象を,ユーザーが自由に見つけてズームインすることができる。
論文 参考訳(メタデータ) (2024-05-01T07:08:24Z) - VR interaction for efficient virtual manufacturing: mini map for
multi-user VR navigation platform [0.0]
本稿では,仮想工場レイアウト計画のためのインタラクティブな位置決めマップに着目し,ナビゲーション支援としてのディジタルマップのユーザインタラクション設計について検討する。
5種類のインタラクティブマップのプロトタイプをテストし、評価し、20人の参加者と40人の検証済みデータストリームによって評価した。
そこで本研究では,対話型地図の最も効率的なインタラクション設計について分析し,考察した。
論文 参考訳(メタデータ) (2023-12-29T13:09:54Z) - Emotion Based Prediction in the Context of Optimized Trajectory Planning
for Immersive Learning [0.0]
没入型学習の仮想要素として,Google Expeditionとタッチスクリーンによる感情の利用について検討した。
教育的応用、余裕、認知的負荷が関係する対応する手段である。
論文 参考訳(メタデータ) (2023-12-18T09:24:35Z) - Force-Aware Interface via Electromyography for Natural VR/AR Interaction [69.1332992637271]
我々はVR/ARにおける自然的および直感的な力入力のための学習ベースのニューラルネットワークを設計する。
我々は,3.3%の平均誤差で指の力量をリアルタイムでデコードし,キャリブレーションの少ない新規ユーザに一般化できることを実証した。
今後のVR/ARにおける、より現実的な物理性に向けた研究を進めるために、我々の研究成果を期待する。
論文 参考訳(メタデータ) (2022-10-03T20:51:25Z) - The Gesture Authoring Space: Authoring Customised Hand Gestures for
Grasping Virtual Objects in Immersive Virtual Environments [81.5101473684021]
本研究は、仮想オブジェクトを現実世界のようにつかむことができる、オブジェクト固有のグリップジェスチャーのためのハンドジェスチャーオーサリングツールを提案する。
提示されたソリューションは、ジェスチャー認識にテンプレートマッチングを使用し、カスタムのカスタマイズされた手の動きを設計および作成するために技術的な知識を必要としない。
本研究は,提案手法を用いて作成したジェスチャーが,ユーザによって他のユーザよりも自然な入力モダリティとして認識されていることを示した。
論文 参考訳(メタデータ) (2022-07-03T18:33:33Z) - Learning Effect of Lay People in Gesture-Based Locomotion in Virtual
Reality [81.5101473684021]
最も有望な方法はジェスチャーベースであり、追加のハンドヘルドハードウェアを必要としない。
最近の研究は、主に異なるロコモーションテクニックのユーザの好みとパフォーマンスに焦点を当てている。
本研究は,VRにおける手のジェスチャーに基づくロコモーションシステムへの適応の迅速さについて検討した。
論文 参考訳(メタデータ) (2022-06-16T10:44:16Z) - Wireless Edge-Empowered Metaverse: A Learning-Based Incentive Mechanism
for Virtual Reality [102.4151387131726]
メタバースにおけるVRサービスのための学習型インセンティブメカニズムフレームワークを提案する。
まず,仮想世界におけるVRユーザのための指標として,知覚の質を提案する。
第二に、VRユーザー(買い手)とVR SP(売り手)間のVRサービスの迅速な取引のために、オランダの二重オークション機構を設計する。
第3に,この競売プロセスの高速化を目的とした深層強化学習型競売機を設計する。
論文 参考訳(メタデータ) (2021-11-07T13:02:52Z) - Real or Virtual? Using Brain Activity Patterns to differentiate Attended
Targets during Augmented Reality Scenarios [10.739605873338592]
Augmented Realityシナリオで収集した脳波(EEG)データを機械学習技術を用いて分類します。
浅い畳み込みニューラルネットは、20人の参加者から3秒のデータウィンドウを人によって分類した。
論文 参考訳(メタデータ) (2021-01-12T19:08:39Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。