論文の概要: Robust EEG-based Emotion Recognition Using an Inception and Two-sided Perturbation Model
- arxiv url: http://arxiv.org/abs/2404.15373v1
- Date: Sun, 21 Apr 2024 07:54:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-25 15:44:33.614747
- Title: Robust EEG-based Emotion Recognition Using an Inception and Two-sided Perturbation Model
- Title(参考訳): インセプションモデルと両側摂動モデルを用いたロバスト脳波に基づく感情認識
- Authors: Shadi Sartipi, Mujdat Cetin,
- Abstract要約: Inception機能ジェネレータと2側摂動(INC-TSP)アプローチを提案し,脳-コンピュータインタフェースにおける感情認識を強化する。
INC-TSPは、脳波データ分析のためのインセプションモジュールを統合し、入力摂動に対する防御メカニズムとして双方向摂動(TSP)を使用している。
被験者に依存しない3クラス感情認識シナリオにおいて,INC-TSPの有効性を実証した。
- 参考スコア(独自算出の注目度): 0.46040036610482665
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Automated emotion recognition using electroencephalogram (EEG) signals has gained substantial attention. Although deep learning approaches exhibit strong performance, they often suffer from vulnerabilities to various perturbations, like environmental noise and adversarial attacks. In this paper, we propose an Inception feature generator and two-sided perturbation (INC-TSP) approach to enhance emotion recognition in brain-computer interfaces. INC-TSP integrates the Inception module for EEG data analysis and employs two-sided perturbation (TSP) as a defensive mechanism against input perturbations. TSP introduces worst-case perturbations to the model's weights and inputs, reinforcing the model's elasticity against adversarial attacks. The proposed approach addresses the challenge of maintaining accurate emotion recognition in the presence of input uncertainties. We validate INC-TSP in a subject-independent three-class emotion recognition scenario, demonstrating robust performance.
- Abstract(参考訳): 脳波信号を用いた自動感情認識が注目されている。
ディープラーニングアプローチは強いパフォーマンスを示すが、環境騒音や敵攻撃など、様々な摂動に対する脆弱性に悩まされることが多い。
本稿では,脳-コンピュータインタフェースにおける感情認識を高めるために,インセプション特徴発生器と両面摂動(INC-TSP)アプローチを提案する。
INC-TSPは、脳波データ分析のためのインセプションモジュールを統合し、入力摂動に対する防御メカニズムとして双方向摂動(TSP)を使用している。
TSPは、モデルの重みと入力に最悪のケース摂動を導入し、敵攻撃に対するモデルの弾力性を強化する。
提案手法は,入力不確実性の存在下での正確な感情認識を維持するという課題に対処する。
被験者に依存しない3クラス感情認識シナリオにおいて,INC-TSPの有効性を実証した。
関連論文リスト
- EEG Emotion Copilot: Pruning LLMs for Emotional EEG Interpretation with Assisted Medical Record Generation [13.048477440429195]
本稿では,局所的に動作する軽量な大規模言語モデル(LLM)を利用したEEG Emotion Copilotを提案する。
このシステムは、まず脳波信号から直接感情状態を認識し、パーソナライズされた診断と治療の提案を生成するように設計されている。
プライバシーに関する懸念も対処され、倫理的データ収集、処理、ユーザーの個人情報の保護に焦点が当てられている。
論文 参考訳(メタデータ) (2024-09-30T19:15:05Z) - Emotion-Agent: Unsupervised Deep Reinforcement Learning with Distribution-Prototype Reward for Continuous Emotional EEG Analysis [2.1645626994550664]
連続脳波(EEG)信号は、感情脳-コンピュータインターフェース(aBCI)の応用に広く用いられている。
脳波信号から関連性および情報的感情モーメントを自動的に識別する,非教師なしの深層強化学習フレームワーク Emotion-Agent を提案する。
Emotion-AgentはPPO(Proximal Policy Optimization)を用いて訓練され、安定かつ効率的な収束を実現する。
論文 参考訳(メタデータ) (2024-08-22T04:29:25Z) - Multi-modal Mood Reader: Pre-trained Model Empowers Cross-Subject Emotion Recognition [23.505616142198487]
我々は、クロスオブジェクト感情認識のための訓練済みモデルに基づくMultimodal Mood Readerを開発した。
このモデルは、大規模データセットの事前学習を通じて、脳波信号の普遍的な潜在表現を学習する。
公開データセットに関する大規模な実験は、クロスオブジェクト感情認識タスクにおけるMood Readerの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-05-28T14:31:11Z) - Two in One Go: Single-stage Emotion Recognition with Decoupled Subject-context Transformer [78.35816158511523]
単段階の感情認識手法として,DSCT(Decoupled Subject-Context Transformer)を用いる。
広範に使われている文脈認識型感情認識データセットであるCAER-SとEMOTICの単段階フレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-04-26T07:30:32Z) - Deep Imbalanced Learning for Multimodal Emotion Recognition in
Conversations [15.705757672984662]
会話におけるマルチモーダル感情認識(MERC)は、マシンインテリジェンスにとって重要な開発方向である。
MERCのデータの多くは自然に感情カテゴリーの不均衡な分布を示しており、研究者は感情認識に対する不均衡なデータの負の影響を無視している。
生データにおける感情カテゴリーの不均衡分布に対処するクラス境界拡張表現学習(CBERL)モデルを提案する。
我々は,IEMOCAPおよびMELDベンチマークデータセットの広範な実験を行い,CBERLが感情認識の有効性において一定の性能向上を達成したことを示す。
論文 参考訳(メタデータ) (2023-12-11T12:35:17Z) - Adversarial Stimuli: Attacking Brain-Computer Interfaces via Perturbed
Sensory Events [11.650381752104296]
脳波をベースとした運動画像(MI)を用いた脳神経インタフェースの実現可能性について,感覚刺激の摂動による検討を行った。
敵対的な例と同様に、これらの刺激は、BCIシステムの統合された脳感覚処理コンポーネントの限界を活用することを目的としている。
論文 参考訳(メタデータ) (2022-11-18T05:20:35Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z) - A Novel Transferability Attention Neural Network Model for EEG Emotion
Recognition [51.203579838210885]
脳波感情認識のための伝達型注目ニューラルネットワーク(TANN)を提案する。
TANNは、伝達可能な脳波領域のデータとサンプルを適応的に強調することにより、感情的な識別情報を学習する。
これは、複数の脳領域レベル判別器と1つのサンプルレベル判別器の出力を測定することで実現できる。
論文 参考訳(メタデータ) (2020-09-21T02:42:30Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。