論文の概要: Emotion Recognition With Temporarily Localized 'Emotional Events' in
Naturalistic Context
- arxiv url: http://arxiv.org/abs/2211.02637v1
- Date: Tue, 25 Oct 2022 10:01:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 23:55:36.491936
- Title: Emotion Recognition With Temporarily Localized 'Emotional Events' in
Naturalistic Context
- Title(参考訳): 時間的局所化「感情事象」を用いた自然的文脈における感情認識
- Authors: Mohammad Asif and Sudhakar Mishra and Majithia Tejas Vinodbhai and Uma
Shanker Tiwary
- Abstract要約: 我々は脳波信号を用いて、Valence(V)次元とArousal(A)次元の異なる組み合わせで感情事象を分類する。
感情に関する正確な情報を持つことで、長期の脳波信号と比較して分類精度が向上する。
- 参考スコア(独自算出の注目度): 1.7205106391379026
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Emotion recognition using EEG signals is an emerging area of research due to
its broad applicability in BCI. Emotional feelings are hard to stimulate in the
lab. Emotions do not last long, yet they need enough context to be perceived
and felt. However, most EEG-related emotion databases either suffer from
emotionally irrelevant details (due to prolonged duration stimulus) or have
minimal context doubting the feeling of any emotion using the stimulus. We
tried to reduce the impact of this trade-off by designing an experiment in
which participants are free to report their emotional feelings simultaneously
watching the emotional stimulus. We called these reported emotional feelings
"Emotional Events" in our Dataset on Emotion with Naturalistic Stimuli (DENS).
We used EEG signals to classify emotional events on different combinations of
Valence(V) and Arousal(A) dimensions and compared the results with benchmark
datasets of DEAP and SEED. STFT is used for feature extraction and used in the
classification model consisting of CNN-LSTM hybrid layers. We achieved
significantly higher accuracy with our data compared to DEEP and SEED data. We
conclude that having precise information about emotional feelings improves the
classification accuracy compared to long-duration EEG signals which might be
contaminated by mind-wandering.
- Abstract(参考訳): 脳波信号を用いた感情認識は、BCIの幅広い適用性から、新たな研究分野である。
実験室では感情的な感情は刺激しにくい。
感情は長くは続かないが、知覚され、感じるのに十分な文脈が必要である。
しかし、ほとんどの脳波関連感情データベースは、(持続的な刺激によって)感情的に無関係な詳細に苦しむか、刺激を用いた感情の感覚を疑う最小限の文脈を持つ。
参加者は、感情刺激を同時に観察しながら、感情的な感情を自由に報告できる実験を設計することで、このトレードオフの影響を減らそうとした。
我々はこれらの感情的感情を、自然性刺激を伴う感情に関するデータセット(DENS)に記載した。
我々は脳波信号を用いて、Valence(V)とArousal(A)の異なる組み合わせの感情事象を分類し、その結果をDEAPとSEEDのベンチマークデータセットと比較した。
STFTは特徴抽出に使われ、CNN-LSTMハイブリッド層からなる分類モデルで使用される。
DEEPデータやSEEDデータと比較すると,データの精度は著しく向上した。
感情的感情に関する正確な情報を持つことで、マインドランディングによって汚染される可能性のある長期脳波信号と比較して、分類精度が向上する。
関連論文リスト
- Language Models (Mostly) Do Not Consider Emotion Triggers When
Predicting Emotion [97.98240591442922]
本研究では,人間の感情が感情の予測において,モデルが有意であると考えられる特徴とどのように相関するかを検討する。
EmoTriggerを使って、感情のトリガーを識別する大きな言語モデルの評価を行う。
分析の結果、感情のトリガーは感情予測モデルにとって健全な特徴ではなく、様々な特徴と感情検出のタスクの間に複雑な相互作用があることが判明した。
論文 参考訳(メタデータ) (2023-11-16T06:20:13Z) - Emotion Analysis on EEG Signal Using Machine Learning and Neural Network [0.0]
本研究の目的は,脳信号を用いた感情認識能力の向上である。
人間と機械の相互作用技術への様々なアプローチは長い間進行中であり、近年では脳信号を使って感情を自動的に理解することに成功した。
論文 参考訳(メタデータ) (2023-07-09T09:50:34Z) - Inter Subject Emotion Recognition Using Spatio-Temporal Features From
EEG Signal [4.316570025748204]
この研究は、脳波信号から感情を独立して分類する、簡単に実装できる感情認識モデルに関するものである。
このモデルは、感情を分類するために、CNNの正規層、深さ層、分離可能な畳み込み層の組み合わせである。
精度は73.04%だった。
論文 参考訳(メタデータ) (2023-05-27T07:43:19Z) - Emotion Intensity and its Control for Emotional Voice Conversion [77.05097999561298]
感情音声変換(EVC)は、言語内容と話者のアイデンティティを保ちながら、発話の感情状態を変換しようとする。
本稿では,感情の強さを明示的に表現し,制御することを目的とする。
本稿では,話者スタイルを言語内容から切り離し,連続した空間に埋め込み,感情埋め込みのプロトタイプを形成するスタイルに符号化することを提案する。
論文 参考訳(メタデータ) (2022-01-10T02:11:25Z) - Progressive Graph Convolution Network for EEG Emotion Recognition [35.08010382523394]
神経科学領域の研究により、感情パターンと脳機能領域の関係が明らかになった。
脳波による感情認識では、きめ細かい感情の間には、きめ細かい感情の間により明確な境界が存在することが観察できる。
脳波の感情信号に特有の特徴を捉えるためのプログレッシブグラフ畳み込みネットワーク(PGCN)を提案する。
論文 参考訳(メタデータ) (2021-12-14T03:30:13Z) - SOLVER: Scene-Object Interrelated Visual Emotion Reasoning Network [83.27291945217424]
画像から感情を予測するために,SOLVER(Scene-Object Interrelated Visual Emotion Reasoning Network)を提案する。
異なるオブジェクト間の感情関係を掘り下げるために、まずセマンティックな概念と視覚的特徴に基づいて感情グラフを構築します。
また、シーンとオブジェクトを統合するScene-Object Fusion Moduleを設計し、シーンの特徴を利用して、提案したシーンベースのアテンションメカニズムでオブジェクトの特徴の融合プロセスを導出する。
論文 参考訳(メタデータ) (2021-10-24T02:41:41Z) - Stimuli-Aware Visual Emotion Analysis [75.68305830514007]
本稿では,刺激選択,特徴抽出,感情予測の3段階からなる刺激認識型視覚感情分析(VEA)手法を提案する。
我々の知る限りでは、エンド・ツー・エンドのネットワークでVEAに刺激選択プロセスを導入するのは初めてです。
実験により、提案手法は、4つの公的な視覚的感情データセットに対する最先端のアプローチよりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2021-09-04T08:14:52Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - A Novel Transferability Attention Neural Network Model for EEG Emotion
Recognition [51.203579838210885]
脳波感情認識のための伝達型注目ニューラルネットワーク(TANN)を提案する。
TANNは、伝達可能な脳波領域のデータとサンプルを適応的に強調することにより、感情的な識別情報を学習する。
これは、複数の脳領域レベル判別器と1つのサンプルレベル判別器の出力を測定することで実現できる。
論文 参考訳(メタデータ) (2020-09-21T02:42:30Z) - Detecting Emotion Primitives from Speech and their use in discerning
Categorical Emotions [16.886826928295203]
感情は人間同士のコミュニケーションにおいて重要な役割を担い、幸福やフラストレーション、誠実さといった感情を伝えることができる。
この研究は、感情プリミティブが、幸福、嫌悪、軽蔑、怒り、驚きといったカテゴリー的感情を中性的なスピーチから検出する方法について研究した。
以上の結果から, 覚醒と支配は, 感情のより優れた検出方法であった。
論文 参考訳(メタデータ) (2020-01-31T03:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。