論文の概要: An EEG-Based Multi-Modal Emotion Database with Both Posed and Authentic
Facial Actions for Emotion Analysis
- arxiv url: http://arxiv.org/abs/2203.15829v1
- Date: Tue, 29 Mar 2022 18:02:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 06:36:14.328024
- Title: An EEG-Based Multi-Modal Emotion Database with Both Posed and Authentic
Facial Actions for Emotion Analysis
- Title(参考訳): 感情分析のためのポーズと真正な顔動作を両立した脳波に基づくマルチモーダル感情データベース
- Authors: Xiaotian Li, Xiang Zhang, Huiyuan Yang, Wenna Duan, Weiying Dai and
Lijun Yin
- Abstract要約: 本稿では,表情,行動単位,脳波を同時に収集し,新しいデータベースを構築することを提案する。
データベースは研究コミュニティに公開され、自動感情認識のための最先端の技術を推進します。
- 参考スコア(独自算出の注目度): 13.448832812713501
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Emotion is an experience associated with a particular pattern of
physiological activity along with different physiological, behavioral and
cognitive changes. One behavioral change is facial expression, which has been
studied extensively over the past few decades. Facial behavior varies with a
person's emotion according to differences in terms of culture, personality,
age, context, and environment. In recent years, physiological activities have
been used to study emotional responses. A typical signal is the
electroencephalogram (EEG), which measures brain activity. Most of existing
EEG-based emotion analysis has overlooked the role of facial expression
changes. There exits little research on the relationship between facial
behavior and brain signals due to the lack of dataset measuring both EEG and
facial action signals simultaneously. To address this problem, we propose to
develop a new database by collecting facial expressions, action units, and EEGs
simultaneously. We recorded the EEGs and face videos of both posed facial
actions and spontaneous expressions from 29 participants with different ages,
genders, ethnic backgrounds. Differing from existing approaches, we designed a
protocol to capture the EEG signals by evoking participants' individual action
units explicitly. We also investigated the relation between the EEG signals and
facial action units. As a baseline, the database has been evaluated through the
experiments on both posed and spontaneous emotion recognition with images
alone, EEG alone, and EEG fused with images, respectively. The database will be
released to the research community to advance the state of the art for
automatic emotion recognition.
- Abstract(参考訳): 感情は、生理的、行動的、認知的な変化とともに、特定の生理的活動パターンに関連する経験である。
行動の変化の1つは表情であり、ここ数十年にわたって広く研究されてきた。
顔の行動は、文化、性格、年齢、文脈、環境の違いによって、人の感情によって異なる。
近年、感情反応の研究に生理的活動が用いられている。
典型的な信号は脳波(EEG)であり、脳活動を測定する。
既存の脳波に基づく感情分析のほとんどは、表情の変化の役割を見落としている。
脳波と顔面行動信号の両方を同時に測定するデータセットがないため、顔行動と脳信号の関係についてはほとんど研究されていない。
そこで本研究では,表情,行動単位,脳波を同時に収集し,新しいデータベースを構築することを提案する。
年齢,性別,民族的背景の異なる29人の顔行動と自発的な表情の脳波と顔映像を収録した。
既存のアプローチと異なり、参加者の個々のアクションユニットを明示的に呼び出すことで脳波信号を捕捉するプロトコルを設計した。
また,脳波信号と顔面行動単位との関係についても検討した。
データベースのベースラインとして,画像のみを用いたポーズ認識と自発感情認識,脳波のみ,脳波を画像と融合させた実験を行った。
データベースは研究コミュニティに公開され、自動感情認識のための最先端の技術を推進します。
関連論文リスト
- Smile upon the Face but Sadness in the Eyes: Emotion Recognition based on Facial Expressions and Eye Behaviors [63.194053817609024]
視覚行動は、視覚行動支援型マルチモーダル感情認識データセットを作成するための重要な感情的手がかりとなる。
EMERデータセットに感情認識(ER)と表情認識(FER)の両方のアノテーションを初めて提供する。
具体的には、ERとFERの両方のパフォーマンスを同時に向上する新しいEMERTアーキテクチャを設計する。
論文 参考訳(メタデータ) (2024-11-08T04:53:55Z) - Emotion Analysis on EEG Signal Using Machine Learning and Neural Network [0.0]
本研究の目的は,脳信号を用いた感情認識能力の向上である。
人間と機械の相互作用技術への様々なアプローチは長い間進行中であり、近年では脳信号を使って感情を自動的に理解することに成功した。
論文 参考訳(メタデータ) (2023-07-09T09:50:34Z) - Emotion Separation and Recognition from a Facial Expression by Generating the Poker Face with Vision Transformers [57.1091606948826]
我々はこれらの課題に対処するため,ポーカー・フェイス・ビジョン・トランスフォーマー (PF-ViT) と呼ばれる新しいFERモデルを提案する。
PF-ViTは、対応するポーカーフェースを生成して、乱れを認識できない感情を静的な顔画像から分離し、認識することを目的としている。
PF-ViTはバニラビジョントランスフォーマーを使用し、そのコンポーネントは大規模な表情データセット上でMasked Autoencodeerとして事前トレーニングされている。
論文 参考訳(メタデータ) (2022-07-22T13:39:06Z) - A Naturalistic Database of Thermal Emotional Facial Expressions and
Effects of Induced Emotions on Memory [1.8352113484137629]
本研究は、感情的内容の高い映画抜粋の視覚を通して、自然に誘発される感情的表情を収集する手順を定義する。
引き起こされた感情状態には、悲しみ、嫌悪、幸福、驚きの4つの基本的な感情が含まれる。
得られたデータベースは、熱的および可視的な感情的表情の両方を含む。
論文 参考訳(メタデータ) (2022-03-29T11:17:35Z) - Progressive Graph Convolution Network for EEG Emotion Recognition [35.08010382523394]
神経科学領域の研究により、感情パターンと脳機能領域の関係が明らかになった。
脳波による感情認識では、きめ細かい感情の間には、きめ細かい感情の間により明確な境界が存在することが観察できる。
脳波の感情信号に特有の特徴を捉えるためのプログレッシブグラフ畳み込みネットワーク(PGCN)を提案する。
論文 参考訳(メタデータ) (2021-12-14T03:30:13Z) - A Circular-Structured Representation for Visual Emotion Distribution
Learning [82.89776298753661]
視覚的感情分布学習に先立つ知識を活用するために,身近な円形構造表現を提案する。
具体的には、まず感情圏を構築し、その内にある感情状態を統一する。
提案した感情圏では、各感情分布は3つの属性で定義される感情ベクトルで表される。
論文 参考訳(メタデータ) (2021-06-23T14:53:27Z) - Emotion pattern detection on facial videos using functional statistics [62.997667081978825]
顔面筋運動の有意なパターンを抽出する機能的ANOVAに基づく手法を提案する。
感情群間の表現に時間的差があるかどうかを関数fテストを用いて判定する。
論文 参考訳(メタデータ) (2021-03-01T08:31:08Z) - A Novel Transferability Attention Neural Network Model for EEG Emotion
Recognition [51.203579838210885]
脳波感情認識のための伝達型注目ニューラルネットワーク(TANN)を提案する。
TANNは、伝達可能な脳波領域のデータとサンプルを適応的に強調することにより、感情的な識別情報を学習する。
これは、複数の脳領域レベル判別器と1つのサンプルレベル判別器の出力を測定することで実現できる。
論文 参考訳(メタデータ) (2020-09-21T02:42:30Z) - Impact of multiple modalities on emotion recognition: investigation into
3d facial landmarks, action units, and physiological data [4.617405932149653]
感情認識における3次元顔データ,行動単位,生理的データの解析を行った。
分析の結果,3次元顔のランドマークと生理的データの両方が表情・感情認識に有効であることが示唆された。
一方、アクションユニットは、他のモダリティと融合した場合、感情認識に肯定的な影響を与える可能性があるが、この結果から、それらを用いて感情を検出することは困難であることが示唆された。
論文 参考訳(メタデータ) (2020-05-17T18:59:57Z) - Emotion Recognition From Gait Analyses: Current Research and Future
Directions [48.93172413752614]
歩行はウォーカーの感情に関する情報を伝える
様々な感情と歩行パターンのマッピングは、感情の自動認識のための新しい情報源を提供する。
歩行は遠隔観察可能で 模倣が困難で 被験者との協力も少ない
論文 参考訳(メタデータ) (2020-03-13T08:22:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。