論文の概要: Exploring Emotions in Multi-componential Space using Interactive VR Games
- arxiv url: http://arxiv.org/abs/2404.03239v1
- Date: Thu, 4 Apr 2024 06:54:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-05 15:33:48.699743
- Title: Exploring Emotions in Multi-componential Space using Interactive VR Games
- Title(参考訳): インタラクティブVRゲームを用いたマルチコンポーネント空間での感情探索
- Authors: Rukshani Somarathna, Gelareh Mohammadi,
- Abstract要約: インタラクティブバーチャルリアリティ(VR)ゲームを用いたデータ駆動型アプローチを運用した。
機械学習(ML)手法を用いて、各コンポーネントの感情分化に対するユニークな貢献を識別した。
これらの知見は、感情研究におけるVR環境の利用にも影響する。
- 参考スコア(独自算出の注目度): 1.1510009152620668
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Emotion understanding is a complex process that involves multiple components. The ability to recognise emotions not only leads to new context awareness methods but also enhances system interaction's effectiveness by perceiving and expressing emotions. Despite the attention to discrete and dimensional models, neuroscientific evidence supports those emotions as being complex and multi-faceted. One framework that resonated well with such findings is the Component Process Model (CPM), a theory that considers the complexity of emotions with five interconnected components: appraisal, expression, motivation, physiology and feeling. However, the relationship between CPM and discrete emotions has not yet been fully explored. Therefore, to better understand emotions underlying processes, we operationalised a data-driven approach using interactive Virtual Reality (VR) games and collected multimodal measures (self-reports, physiological and facial signals) from 39 participants. We used Machine Learning (ML) methods to identify the unique contributions of each component to emotion differentiation. Our results showed the role of different components in emotion differentiation, with the model including all components demonstrating the most significant contribution. Moreover, we found that at least five dimensions are needed to represent the variation of emotions in our dataset. These findings also have implications for using VR environments in emotion research and highlight the role of physiological signals in emotion recognition within such environments.
- Abstract(参考訳): 感情理解は、複数のコンポーネントを含む複雑なプロセスである。
感情を認識する能力は、新しい文脈認識法をもたらすだけでなく、感情を知覚し表現することでシステム間相互作用の有効性を高める。
離散的、次元的なモデルに注意を払っているにもかかわらず、神経科学的証拠はこれらの感情が複雑で多面的であることを裏付けている。
このような発見とよく調和するフレームワークのひとつにコンポーネント・プロセス・モデル(CPM)がある。これは、評価、表現、モチベーション、生理学、感覚という5つの相互接続された要素による感情の複雑さを考える理論である。
しかし、CPMと離散感情の関係は、まだ完全には解明されていない。
そこで我々は,対話型バーチャルリアリティ(VR)ゲームを用いたデータ駆動型アプローチを運用し,39人の参加者からマルチモーダル測度(自己報告,生理的,顔的信号)を収集した。
機械学習(ML)手法を用いて、各コンポーネントの感情分化に対するユニークな貢献を識別した。
その結果、感情の分化における異なる要素の役割が示され、最も重要な寄与を示す全ての要素を含むモデルが得られた。
さらに、データセット内の感情の変化を表現するために、少なくとも5つの次元が必要であることがわかりました。
これらの知見は、感情研究におけるVR環境の利用にも影響し、そのような環境における感情認識における生理的シグナルの役割を強調している。
関連論文リスト
- EmoLLM: Multimodal Emotional Understanding Meets Large Language Models [61.179731667080326]
マルチモーダル・大規模言語モデル(MLLM)は、目的とするマルチモーダル認識タスクにおいて顕著な性能を達成している。
しかし、主観的、感情的にニュアンスのあるマルチモーダルコンテンツを解釈する能力はほとんど解明されていない。
EmoLLMは、マルチモーダルな感情理解のための新しいモデルであり、2つのコア技術が組み込まれている。
論文 参考訳(メタデータ) (2024-06-24T08:33:02Z) - Emotion Recognition based on Psychological Components in Guided
Narratives for Emotion Regulation [0.0]
本稿では,感情制御のためのアンケートを用いて収集した感情的感情の新たなコーパスを紹介する。
本研究では,コンポーネントの相互作用とその感情分類への影響について,機械学習手法と事前学習言語モデルを用いて検討する。
論文 参考訳(メタデータ) (2023-05-15T12:06:31Z) - Multi-Cue Adaptive Emotion Recognition Network [4.570705738465714]
適応型マルチキューに基づく感情認識のための新しい深層学習手法を提案する。
提案手法とCAER-Sデータセットの最先端手法を比較した。
論文 参考訳(メタデータ) (2021-11-03T15:08:55Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - Stimuli-Aware Visual Emotion Analysis [75.68305830514007]
本稿では,刺激選択,特徴抽出,感情予測の3段階からなる刺激認識型視覚感情分析(VEA)手法を提案する。
我々の知る限りでは、エンド・ツー・エンドのネットワークでVEAに刺激選択プロセスを導入するのは初めてです。
実験により、提案手法は、4つの公的な視覚的感情データセットに対する最先端のアプローチよりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2021-09-04T08:14:52Z) - Emotion Recognition from Multiple Modalities: Fundamentals and
Methodologies [106.62835060095532]
マルチモーダル感情認識(MER)のいくつかの重要な側面について論じる。
まず、広く使われている感情表現モデルと感情モダリティの簡単な紹介から始める。
次に、既存の感情アノテーション戦略とそれに対応する計算タスクを要約する。
最後に,実世界のアプリケーションについて概説し,今後の方向性について論じる。
論文 参考訳(メタデータ) (2021-08-18T21:55:20Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Enhancing Cognitive Models of Emotions with Representation Learning [58.2386408470585]
本稿では,きめ細かな感情の埋め込み表現を生成するための,新しいディープラーニングフレームワークを提案する。
本フレームワークは,コンテキスト型埋め込みエンコーダとマルチヘッド探索モデルを統合する。
本モデルは共感対話データセット上で評価され,32種類の感情を分類する最新結果を示す。
論文 参考訳(メタデータ) (2021-04-20T16:55:15Z) - A Multi-Componential Approach to Emotion Recognition and the Effect of
Personality [0.0]
本稿では,映画視聴中に引き起こされた感情体験を特徴付けるために,データ駆動型アプローチによる構成的枠組みを適用した。
その結果、様々な感情の違いは、数次元(少なくとも6次元)で捉えられることが示唆された。
その結果、限定的な記述子数を持つ成分モデルでは、経験的な離散的感情のレベルを予測できることがわかった。
論文 参考訳(メタデータ) (2020-10-22T01:27:23Z) - Impact of multiple modalities on emotion recognition: investigation into
3d facial landmarks, action units, and physiological data [4.617405932149653]
感情認識における3次元顔データ,行動単位,生理的データの解析を行った。
分析の結果,3次元顔のランドマークと生理的データの両方が表情・感情認識に有効であることが示唆された。
一方、アクションユニットは、他のモダリティと融合した場合、感情認識に肯定的な影響を与える可能性があるが、この結果から、それらを用いて感情を検出することは困難であることが示唆された。
論文 参考訳(メタデータ) (2020-05-17T18:59:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。