論文の概要: Emotion Recognition With Temporarily Localized 'Emotional Events' in
Naturalistic Context
- arxiv url: http://arxiv.org/abs/2211.02637v1
- Date: Tue, 25 Oct 2022 10:01:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 23:55:36.491936
- Title: Emotion Recognition With Temporarily Localized 'Emotional Events' in
Naturalistic Context
- Title(参考訳): 時間的局所化「感情事象」を用いた自然的文脈における感情認識
- Authors: Mohammad Asif and Sudhakar Mishra and Majithia Tejas Vinodbhai and Uma
Shanker Tiwary
- Abstract要約: 我々は脳波信号を用いて、Valence(V)次元とArousal(A)次元の異なる組み合わせで感情事象を分類する。
感情に関する正確な情報を持つことで、長期の脳波信号と比較して分類精度が向上する。
- 参考スコア(独自算出の注目度): 1.7205106391379026
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Emotion recognition using EEG signals is an emerging area of research due to
its broad applicability in BCI. Emotional feelings are hard to stimulate in the
lab. Emotions do not last long, yet they need enough context to be perceived
and felt. However, most EEG-related emotion databases either suffer from
emotionally irrelevant details (due to prolonged duration stimulus) or have
minimal context doubting the feeling of any emotion using the stimulus. We
tried to reduce the impact of this trade-off by designing an experiment in
which participants are free to report their emotional feelings simultaneously
watching the emotional stimulus. We called these reported emotional feelings
"Emotional Events" in our Dataset on Emotion with Naturalistic Stimuli (DENS).
We used EEG signals to classify emotional events on different combinations of
Valence(V) and Arousal(A) dimensions and compared the results with benchmark
datasets of DEAP and SEED. STFT is used for feature extraction and used in the
classification model consisting of CNN-LSTM hybrid layers. We achieved
significantly higher accuracy with our data compared to DEEP and SEED data. We
conclude that having precise information about emotional feelings improves the
classification accuracy compared to long-duration EEG signals which might be
contaminated by mind-wandering.
- Abstract(参考訳): 脳波信号を用いた感情認識は、BCIの幅広い適用性から、新たな研究分野である。
実験室では感情的な感情は刺激しにくい。
感情は長くは続かないが、知覚され、感じるのに十分な文脈が必要である。
しかし、ほとんどの脳波関連感情データベースは、(持続的な刺激によって)感情的に無関係な詳細に苦しむか、刺激を用いた感情の感覚を疑う最小限の文脈を持つ。
参加者は、感情刺激を同時に観察しながら、感情的な感情を自由に報告できる実験を設計することで、このトレードオフの影響を減らそうとした。
我々はこれらの感情的感情を、自然性刺激を伴う感情に関するデータセット(DENS)に記載した。
我々は脳波信号を用いて、Valence(V)とArousal(A)の異なる組み合わせの感情事象を分類し、その結果をDEAPとSEEDのベンチマークデータセットと比較した。
STFTは特徴抽出に使われ、CNN-LSTMハイブリッド層からなる分類モデルで使用される。
DEEPデータやSEEDデータと比較すると,データの精度は著しく向上した。
感情的感情に関する正確な情報を持つことで、マインドランディングによって汚染される可能性のある長期脳波信号と比較して、分類精度が向上する。
関連論文リスト
- Smile upon the Face but Sadness in the Eyes: Emotion Recognition based on Facial Expressions and Eye Behaviors [63.194053817609024]
視覚行動は、視覚行動支援型マルチモーダル感情認識データセットを作成するための重要な感情的手がかりとなる。
EMERデータセットに感情認識(ER)と表情認識(FER)の両方のアノテーションを初めて提供する。
具体的には、ERとFERの両方のパフォーマンスを同時に向上する新しいEMERTアーキテクチャを設計する。
論文 参考訳(メタデータ) (2024-11-08T04:53:55Z) - EMO-KNOW: A Large Scale Dataset on Emotion and Emotion-cause [8.616061735005314]
我々は15年間で980万件のツイートから導かれた感情原因の大規模なデータセットを紹介した。
データセットの新規性は、その幅広い感情クラスと抽象的な感情原因に由来する。
私たちのデータセットは、異なる人々の多様な感情反応を考慮に入れた感情認識システムの設計を可能にします。
論文 参考訳(メタデータ) (2024-06-18T08:26:33Z) - Think out Loud: Emotion Deducing Explanation in Dialogues [57.90554323226896]
対話における感情推論(Emotion Deducing Explanation in Dialogues)を提案する。
EDENは感情と原因を明確な考え方で認識する。
大規模言語モデル(LLM)が感情や原因をよりよく認識するのに役立ちます。
論文 参考訳(メタデータ) (2024-06-07T08:58:29Z) - Language Models (Mostly) Do Not Consider Emotion Triggers When Predicting Emotion [87.18073195745914]
人間の感情が感情の予測において有意であると考えられる特徴とどのように相関するかを検討する。
EmoTriggerを用いて、感情のトリガーを識別する大規模言語モデルの能力を評価する。
分析の結果、感情のトリガーは感情予測モデルにとって健全な特徴ではなく、様々な特徴と感情検出のタスクの間に複雑な相互作用があることが判明した。
論文 参考訳(メタデータ) (2023-11-16T06:20:13Z) - Emotion Analysis on EEG Signal Using Machine Learning and Neural Network [0.0]
本研究の目的は,脳信号を用いた感情認識能力の向上である。
人間と機械の相互作用技術への様々なアプローチは長い間進行中であり、近年では脳信号を使って感情を自動的に理解することに成功した。
論文 参考訳(メタデータ) (2023-07-09T09:50:34Z) - Inter Subject Emotion Recognition Using Spatio-Temporal Features From
EEG Signal [4.316570025748204]
この研究は、脳波信号から感情を独立して分類する、簡単に実装できる感情認識モデルに関するものである。
このモデルは、感情を分類するために、CNNの正規層、深さ層、分離可能な畳み込み層の組み合わせである。
精度は73.04%だった。
論文 参考訳(メタデータ) (2023-05-27T07:43:19Z) - Emotion Intensity and its Control for Emotional Voice Conversion [77.05097999561298]
感情音声変換(EVC)は、言語内容と話者のアイデンティティを保ちながら、発話の感情状態を変換しようとする。
本稿では,感情の強さを明示的に表現し,制御することを目的とする。
本稿では,話者スタイルを言語内容から切り離し,連続した空間に埋め込み,感情埋め込みのプロトタイプを形成するスタイルに符号化することを提案する。
論文 参考訳(メタデータ) (2022-01-10T02:11:25Z) - Progressive Graph Convolution Network for EEG Emotion Recognition [35.08010382523394]
神経科学領域の研究により、感情パターンと脳機能領域の関係が明らかになった。
脳波による感情認識では、きめ細かい感情の間には、きめ細かい感情の間により明確な境界が存在することが観察できる。
脳波の感情信号に特有の特徴を捉えるためのプログレッシブグラフ畳み込みネットワーク(PGCN)を提案する。
論文 参考訳(メタデータ) (2021-12-14T03:30:13Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Detecting Emotion Primitives from Speech and their use in discerning
Categorical Emotions [16.886826928295203]
感情は人間同士のコミュニケーションにおいて重要な役割を担い、幸福やフラストレーション、誠実さといった感情を伝えることができる。
この研究は、感情プリミティブが、幸福、嫌悪、軽蔑、怒り、驚きといったカテゴリー的感情を中性的なスピーチから検出する方法について研究した。
以上の結果から, 覚醒と支配は, 感情のより優れた検出方法であった。
論文 参考訳(メタデータ) (2020-01-31T03:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。