論文の概要: VRMN-bD: A Multi-modal Natural Behavior Dataset of Immersive Human Fear
Responses in VR Stand-up Interactive Games
- arxiv url: http://arxiv.org/abs/2401.12133v1
- Date: Mon, 22 Jan 2024 17:15:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 13:15:17.157733
- Title: VRMN-bD: A Multi-modal Natural Behavior Dataset of Immersive Human Fear
Responses in VR Stand-up Interactive Games
- Title(参考訳): VRMN-bD:VRスタンドアップインタラクティブゲームにおける没入型人間の恐怖反応のマルチモーダル自然行動データセット
- Authors: He Zhang, Xinyang Li, Yuanxi Sun, Xinyi Fu, Christine Qiu, John M.
Carroll
- Abstract要約: 我々は,23人のプレイヤーからマルチモーダルデータを収集し,恐怖の感情を分析するメディアとしてVRホラーゲームを用いた。
LSTMモデルを用いて6レベルの分類で65.31%と90.47%のアキュラシーによる恐怖を予測した。
その結果,データセットの収集方法,データスケール,オーディエンススコープの制限が少ないことがわかった。
- 参考スコア(独自算出の注目度): 15.179470623112103
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding and recognizing emotions are important and challenging issues
in the metaverse era. Understanding, identifying, and predicting fear, which is
one of the fundamental human emotions, in virtual reality (VR) environments
plays an essential role in immersive game development, scene development, and
next-generation virtual human-computer interaction applications. In this
article, we used VR horror games as a medium to analyze fear emotions by
collecting multi-modal data (posture, audio, and physiological signals) from 23
players. We used an LSTM-based model to predict fear with accuracies of 65.31%
and 90.47% under 6-level classification (no fear and five different levels of
fear) and 2-level classification (no fear and fear), respectively. We
constructed a multi-modal natural behavior dataset of immersive human fear
responses (VRMN-bD) and compared it with existing relevant advanced datasets.
The results show that our dataset has fewer limitations in terms of collection
method, data scale and audience scope. We are unique and advanced in targeting
multi-modal datasets of fear and behavior in VR stand-up interactive
environments. Moreover, we discussed the implications of this work for
communities and applications. The dataset and pre-trained model are available
at https://github.com/KindOPSTAR/VRMN-bD.
- Abstract(参考訳): 感情の理解と認識は、メタバース時代において重要かつ困難な問題である。
バーチャルリアリティ(vr)環境における人間の基本的な感情の1つである恐怖の理解、識別、予測は、没入型ゲーム開発、シーン開発、次世代仮想コンピュータインタラクションアプリケーションにおいて重要な役割を果たす。
本稿では,23人のプレイヤーから複数モーダルデータ(姿勢,音声,生理的信号)を収集し,恐怖の感情を分析するメディアとしてVRホラーゲームを用いた。
我々はLSTMに基づくモデルを用いて、6レベルの分類(恐怖と5つの異なる恐怖)と2レベルの分類(恐怖と恐怖)で、65.31%と90.47%の精度で恐怖を予測する。
本研究では,没入型人間恐怖応答(vrmn-bd)のマルチモーダル自然行動データセットを構築し,既存の高度データセットと比較した。
その結果,収集方法やデータスケール,オーディエンススコープの面では,データセットの制限が小さいことがわかった。
私たちは、VRスタンドアップインタラクティブ環境における恐怖と行動のマルチモーダルデータセットをターゲットとしています。
さらに,この研究がコミュニティやアプリケーションに与える影響についても論じる。
データセットと事前トレーニングされたモデルはhttps://github.com/KindOPSTAR/VRMN-bDで公開されている。
関連論文リスト
- DiVR: incorporating context from diverse VR scenes for human trajectory prediction [2.16656895298847]
本稿では,Perceiver アーキテクチャに基づくクロスモーダルトランスフォーマである DiVR (Diverse Context VR Human Motion Prediction) を提案する。
その結果、DVRは他のモデルや静的グラフと比較して精度と適応性が高いことがわかった。
ソースコードはhttps://gitlab.inria.fr/ffrancog/creattive3d-divr-modelで公開されています。
論文 参考訳(メタデータ) (2024-11-13T07:55:41Z) - PersonalityScanner: Exploring the Validity of Personality Assessment Based on Multimodal Signals in Virtual Reality [44.15145632980038]
PersonalityScannerは、認知プロセスを刺激し、日々の行動をシミュレートするVRシミュレータである。
ビデオ、音声、テキスト、アイトラッキング、顔のマイクロ圧縮、ポーズ、深度データ、ログ、慣性測定ユニットを含む10つのモードの同期マルチモーダルデータセットを収集する。
論文 参考訳(メタデータ) (2024-07-29T06:17:41Z) - Learning Human Action Recognition Representations Without Real Humans [66.61527869763819]
そこで本研究では,仮想人間を含む合成データを用いて,実世界の映像を活用してモデルを事前学習するベンチマークを提案する。
次に、このデータに基づいて学習した表現を、下流行動認識ベンチマークの様々なセットに転送可能であるかを評価する。
私たちのアプローチは、以前のベースラインを最大5%上回ります。
論文 参考訳(メタデータ) (2023-11-10T18:38:14Z) - Deep Motion Masking for Secure, Usable, and Scalable Real-Time Anonymization of Virtual Reality Motion Data [49.68609500290361]
最近の研究では、ほぼすべてのVRアプリケーションで使われているモーショントラッキングの「テレメトリ」データが、指紋スキャンと同じくらいに識別可能であることが示されている。
本稿では、既知の防御対策を確実に回避できる最先端のVR識別モデルを提案する。
論文 参考訳(メタデータ) (2023-11-09T01:34:22Z) - VR.net: A Real-world Dataset for Virtual Reality Motion Sickness
Research [33.092692299254814]
VR.netは10のジャンルで10の現実世界のゲームから約12時間のゲームプレイビデオを提供するデータセットである。
各ビデオフレームに対して、カメラ/オブジェクト移動、深度場、モーションフローなど、モーション病関連ラベルの豊富なセットを正確に割り当てる。
我々は,VRゲームのソースコードにアクセスすることなく,3Dエンジンのレンダリングパイプラインから地上の真実データを自動的かつ正確に抽出するツールを利用する。
論文 参考訳(メタデータ) (2023-06-06T03:43:11Z) - MECCANO: A Multimodal Egocentric Dataset for Humans Behavior
Understanding in the Industrial-like Domain [23.598727613908853]
本稿では,産業的な環境下での人間の行動理解を目的とした,エゴセントリックなビデオのデータセットMECCANOを提案する。
マルチモダリティの特徴は、視線信号、深度マップ、RGBビデオとカスタムヘッドセットが同時に取得される点である。
データセットは、人間の行動理解の文脈における基本的なタスクに対して、一人称視点から明示的にラベル付けされている。
論文 参考訳(メタデータ) (2022-09-19T00:52:42Z) - BEHAVE: Dataset and Method for Tracking Human Object Interactions [105.77368488612704]
マルチビューのRGBDフレームとそれに対応する3D SMPLとオブジェクトをアノテートしたアノテートコンタクトに適合させる。
このデータを用いて、自然環境における人間と物体を、容易に使用可能なマルチカメラで共同で追跡できるモデルを学ぶ。
論文 参考訳(メタデータ) (2022-04-14T13:21:19Z) - EgoBody: Human Body Shape, Motion and Social Interactions from
Head-Mounted Devices [76.50816193153098]
EgoBodyは複雑な3Dシーンにおけるソーシャルインタラクションのための新しい大規模データセットである。
私たちはMicrosoft HoloLens2ヘッドセットを使って、RGB、奥行き、視線、頭と手のトラッキングなど、リッチなエゴセントリックなデータストリームを記録しています。
正確な3Dグラウンドトルースを得るため、マルチKinectリグでヘッドセットを校正し、多視点RGB-Dフレームに表現力のあるSMPL-Xボディーメッシュを適合させる。
論文 参考訳(メタデータ) (2021-12-14T18:41:28Z) - Playing for 3D Human Recovery [88.91567909861442]
本研究では,自動注釈付けされた3Dグラウンド真理でビデオゲームをプレイすることで,膨大な人間のシーケンスを得る。
具体的には,GTA-Vゲームエンジンで生成された大規模3次元人文データセットであるGTA-Humanをコントリビュートする。
GTA-Humanで訓練された単純なフレームベースのベースラインは、より高度な手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2021-10-14T17:49:42Z) - Robust Egocentric Photo-realistic Facial Expression Transfer for Virtual
Reality [68.18446501943585]
ソーシャルな存在は、バーチャルリアリティー(VR)におけるデジタル人間による次世代コミュニケーションシステムを支える
最高の3DビデオリアルVRアバターは、人固有の(PS)モデルに依存します。
本稿では,エンドツーエンドのマルチアイデンティティアーキテクチャを提案することで,これらの制限を克服する。
論文 参考訳(メタデータ) (2021-04-10T15:48:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。