論文の概要: Multi-level Stress Assessment from ECG in a Virtual Reality Environment
using Multimodal Fusion
- arxiv url: http://arxiv.org/abs/2107.04566v1
- Date: Fri, 9 Jul 2021 17:34:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-12 15:05:41.999195
- Title: Multi-level Stress Assessment from ECG in a Virtual Reality Environment
using Multimodal Fusion
- Title(参考訳): マルチモーダル融合を用いた仮想現実環境における心電図からの多レベル応力評価
- Authors: Zeeshan Ahmad, Suha Rabbani, Muhammad Rehman Zafar, Syem Ishaque,
Sridhar Krishnan, Naimul Khan
- Abstract要約: ECGは、非侵襲的な性質のため、深刻なバーチャルリアリティ(VR)アプリケーションにおけるストレスを評価するための魅力的な選択肢である。
既存の研究は2段階のストレスアセスメントしか行わず、より活発なバイオフィードバックベースのアプリケーションを開発するためには、マルチレベルアセスメントが必要である。
本稿では,1秒の窓から応力予測を行うことのできる分光図と1次元心電図を用いた新しい多モード深部融合モデルを提案する。
- 参考スコア(独自算出の注目度): 4.664989082015336
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: ECG is an attractive option to assess stress in serious Virtual Reality (VR)
applications due to its non-invasive nature. However, the existing Machine
Learning (ML) models perform poorly. Moreover, existing studies only perform a
binary stress assessment, while to develop a more engaging biofeedback-based
application, multi-level assessment is necessary. Existing studies annotate and
classify a single experience (e.g. watching a VR video) to a single stress
level, which again prevents design of dynamic experiences where real-time
in-game stress assessment can be utilized. In this paper, we report our
findings on a new study on VR stress assessment, where three stress levels are
assessed. ECG data was collected from 9 users experiencing a VR roller coaster.
The VR experience was then manually labeled in 10-seconds segments to three
stress levels by three raters. We then propose a novel multimodal deep fusion
model utilizing spectrogram and 1D ECG that can provide a stress prediction
from just a 1-second window. Experimental results demonstrate that the proposed
model outperforms the classical HRV-based ML models (9% increase in accuracy)
and baseline deep learning models (2.5% increase in accuracy). We also report
results on the benchmark WESAD dataset to show the supremacy of the model.
- Abstract(参考訳): ECGは、非侵襲的な性質のため、深刻な仮想現実(VR)アプリケーションにおけるストレスを評価する魅力的な選択肢である。
しかし、既存の機械学習(ML)モデルは性能が良くない。
さらに、既存の研究は二分ストレスアセスメントしか行わず、より活発なバイオフィードバックベースのアプリケーションを開発するためには、マルチレベルアセスメントが必要である。
既存の研究は単一の経験(例えば)を注釈し分類している。
vrビデオの視聴)を単一のストレスレベルにすることで、リアルタイムのゲーム内ストレス評価を活用できる動的エクスペリエンスの設計を再び防ぐことができる。
本稿では、3つのストレスレベルを評価するvrストレスアセスメントに関する新しい研究について報告する。
ECGデータは、VRジェットコースターを経験している9人のユーザーから収集された。
その後、VR体験を手作業で10秒単位で3つのストレスレベルにラベル付けした。
次に,1秒間の窓から応力予測を行うことができるspectrogramと1d ecgを用いた,新しいマルチモーダル深層融合モデルを提案する。
実験の結果,提案モデルは従来のHRVベースMLモデル(精度9%向上)とベースラインディープラーニングモデル(2.5%向上)より優れていた。
また、ベンチマークWESADデータセットの結果を報告し、モデルの優位性を示す。
関連論文リスト
- Benchmarking and Improving Bird's Eye View Perception Robustness in Autonomous Driving [55.93813178692077]
本稿では,BEVアルゴリズムのレジリエンスを評価するためのベンチマークスイートであるRoboBEVを紹介する。
検出,マップセグメンテーション,深さ推定,占有予測といったタスクにまたがる33の最先端のBEVベースの知覚モデルを評価する。
また, 事前学習や深度自由なBEVトランスフォーメーションなどの戦略が, アウト・オブ・ディストリビューションデータに対するロバスト性を高める上で有効であることを示す。
論文 参考訳(メタデータ) (2024-05-27T17:59:39Z) - Investigating the Robustness of Counterfactual Learning to Rank Models: A Reproducibility Study [61.64685376882383]
ランク付け学習(CLTR: Counterfactual Learning to rank)は、IRコミュニティにおいて、ログ化された大量のユーザインタラクションデータを活用してランキングモデルをトレーニングする能力において、大きな注目を集めている。
本稿では,複雑かつ多様な状況における既存のCLTRモデルのロバスト性について検討する。
その結果, DLAモデルとIPS-DCMは, PS-PBMやPSSよりも, オフラインの確率推定による堅牢性が高いことがわかった。
論文 参考訳(メタデータ) (2024-04-04T10:54:38Z) - Stress Management Using Virtual Reality-Based Attention Training [3.686808512438363]
また,VRによるアテンショントレーニングにより,記録された脳波信号における認識されたストレスインスタンスの数を減少させる結果が得られた。
本研究は、ストレス管理のためのVRベースのアテンショントレーニングの導入に関する予備的な洞察を与える。
論文 参考訳(メタデータ) (2023-12-10T22:42:00Z) - Virtual-Reality based Vestibular Ocular Motor Screening for Concussion
Detection using Machine-Learning [0.0]
スポーツ関連脳梗塞(SRC)は視覚・前庭・体性感覚系の感覚情報に依存する。
現在,Vestibular/Ocular Motor Screening (VOMS) を施行中である。
技術の進歩により、VOMSの標準化を進めるためにバーチャルリアリティ(VR)を利用することができる。
論文 参考訳(メタデータ) (2022-10-13T02:09:21Z) - On the Generalizability of ECG-based Stress Detection Models [4.592950581802712]
本稿では,心電図に基づくディープラーニングモデルと心拍変動(HRV)機能に基づくモデルの一般化機能について検討する。
我々の知る限りでは、これはECGベースのディープラーニングモデルとHRVモデルとのデータセット間の一般化性を比較する最初の試みである。
論文 参考訳(メタデータ) (2022-10-12T14:12:04Z) - Dynamic Contrastive Distillation for Image-Text Retrieval [90.05345397400144]
画像テキスト検索モデルを圧縮するための新しいプラグイン動的コントラスト蒸留(DCD)フレームワークを提案する。
提案したDCD戦略を2つの最先端の視覚言語事前訓練モデル、すなわち ViLT と METER に適用することに成功している。
MS-COCOとFlickr30Kベンチマークの実験では、DCDフレームワークの有効性と効率が示されている。
論文 参考訳(メタデータ) (2022-07-04T14:08:59Z) - Predicting Driver Self-Reported Stress by Analyzing the Road Scene [0.8155575318208631]
運転者の主観的ストレスレベルを推定するために視覚的運転シーンを使用できるかどうかを検証する手法を開発した。
我々は、AffectiveROADビデオ記録とその対応するストレスラベルを使用する。
ドライバのストレスレベルを分類するための3つのコンピュータビジョンモデリング手法の設計と評価を行う。
論文 参考訳(メタデータ) (2021-09-27T17:55:35Z) - BEHAVIOR: Benchmark for Everyday Household Activities in Virtual,
Interactive, and Ecological Environments [70.18430114842094]
本稿では,シミュレーションにおける100のアクティビティを持つAIのベンチマークであるBEHAVIORを紹介する。
これらの活動は現実的で多様性があり、複雑であるように設計されています。
われわれは、バーチャルリアリティー(VR)における500件の人間デモを含む。
論文 参考訳(メタデータ) (2021-08-06T23:36:23Z) - Personalized Stress Monitoring using Wearable Sensors in Everyday
Settings [9.621481727547215]
心拍数(HR)と心拍変動率(HRV)に基づく日常生活ストレスレベルの客観的予測について検討する。
本稿では、ラベル付けのためのデータサンプルの調整可能なコレクションをサポートする、個人化されたストレス監視のための階層化システムアーキテクチャと、ラベル付けのためのリアルタイムデータのストリームから情報化サンプルを選択する方法を提案する。
論文 参考訳(メタデータ) (2021-07-31T04:15:15Z) - Motion Pyramid Networks for Accurate and Efficient Cardiac Motion
Estimation [51.72616167073565]
本研究では,心臓の運動推定を高精度かつ効率的に行うための,ディープラーニングに基づく新しいアプローチであるMotion Pyramid Networksを提案する。
我々は、複数の特徴表現から運動場のピラミッドを予測し、融合し、より洗練された運動場を生成する。
そこで我々は,新しい循環型教員教育戦略を用いて,推論をエンドツーエンドにし,トラッキング性能をさらに向上させる。
論文 参考訳(メタデータ) (2020-06-28T21:03:19Z) - AutoHR: A Strong End-to-end Baseline for Remote Heart Rate Measurement
with Neural Searching [76.4844593082362]
既存のエンド・ツー・エンドのネットワークが難易度が低い理由を考察し,アーキテクチャ・サーチ(NAS)を用いたリモートHR計測のための強力なベースラインを確立する。
総合的な実験は、時間内テストとクロスデータセットテストの両方で3つのベンチマークデータセットで実施される。
論文 参考訳(メタデータ) (2020-04-26T05:43:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。