論文の概要: REFS: Robust EEG feature selection with missing multi-dimensional annotation for emotion recognition
- arxiv url: http://arxiv.org/abs/2508.05933v1
- Date: Fri, 08 Aug 2025 01:53:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.045202
- Title: REFS: Robust EEG feature selection with missing multi-dimensional annotation for emotion recognition
- Title(参考訳): REFS:感情認識のための多次元アノテーションの欠如によるロバスト脳波の特徴選択
- Authors: Xueyuan Xu, Wenjia Dong, Fulin Wei, Li Zhuo,
- Abstract要約: 感情的な脳とコンピュータのインターフェースは、感情的な相互作用と感情的な知性にとって重要な技術である。
マルチタイプ脳波の特徴の高次元性は、比較的少数の高品質脳波サンプルと相まって、感情認識の課題を提起する。
本研究では,多次元感情認識の欠如に対する新しい脳波特徴選択法を提案する。
- 参考スコア(独自算出の注目度): 6.8109977763829885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The affective brain-computer interface is a crucial technology for affective interaction and emotional intelligence, emerging as a significant area of research in the human-computer interaction. Compared to single-type features, multi-type EEG features provide a multi-level representation for analyzing multi-dimensional emotions. However, the high dimensionality of multi-type EEG features, combined with the relatively small number of high-quality EEG samples, poses challenges such as classifier overfitting and suboptimal real-time performance in multi-dimensional emotion recognition. Moreover, practical applications of affective brain-computer interface frequently encounters partial absence of multi-dimensional emotional labels due to the open nature of the acquisition environment, and ambiguity and variability in individual emotion perception. To address these challenges, this study proposes a novel EEG feature selection method for missing multi-dimensional emotion recognition. The method leverages adaptive orthogonal non-negative matrix factorization to reconstruct the multi-dimensional emotional label space through second-order and higher-order correlations, which could reduce the negative impact of missing values and outliers on label reconstruction. Simultaneously, it employs least squares regression with graph-based manifold learning regularization and global feature redundancy minimization regularization to enable EEG feature subset selection despite missing information, ultimately achieving robust EEG-based multi-dimensional emotion recognition. Simulation experiments on three widely used multi-dimensional emotional datasets, DREAMER, DEAP and HDED, reveal that the proposed method outperforms thirteen advanced feature selection methods in terms of robustness for EEG emotional feature selection.
- Abstract(参考訳): 感情的な脳とコンピュータのインターフェースは、感情的な相互作用と感情的な知性にとって重要な技術であり、人間とコンピュータの相互作用において重要な研究領域として現れている。
シングルタイプの特徴と比較して、マルチタイプの脳波機能は多次元の感情を分析するためのマルチレベル表現を提供する。
しかし,マルチタイプ脳波の特徴の高次元性と,比較的少数の高品質脳波サンプルを組み合わせることで,多次元感情認識における分類器オーバーフィットや準最適リアルタイム性能などの課題を提起する。
さらに、感情的脳-コンピュータインタフェースの実践的応用は、獲得環境のオープンな性質と、個人の感情知覚におけるあいまいさと可変性により、多次元の感情ラベルが部分的に欠如していることが多い。
これらの課題に対処するために,多次元感情認識の欠如に対する新しい脳波特徴選択法を提案する。
本手法は適応直交非負行列分解を利用して,2次・高次相関による多次元感情ラベル空間の再構成を行う。
同時に、グラフベースの多様体学習規則化とグローバルな特徴冗長性最小化規則化を用いて最小二乗回帰を用いて、情報不足にもかかわらずEEG特徴部分選択を可能にし、最終的には堅牢なEEGベースの多次元感情認識を実現する。
DREAMER, DEAP, HDEDの3つの多次元感情データセットのシミュレーション実験により, 脳波の感情的特徴選択の堅牢性の観点から,提案手法が13種類の高度な特徴選択法より優れていることが示された。
関連論文リスト
- ADSEL: Adaptive dual self-expression learning for EEG feature selection via incomplete multi-dimensional emotional tagging [6.914762787652603]
脳波に基づく感情認識のための新しい不完全多次元特徴選択アルゴリズムを提案する。
提案手法は,最小二乗回帰を用いた適応二重自己表現学習(ADSEL)を統合する。
論文 参考訳(メタデータ) (2025-08-07T10:18:37Z) - CWEFS: Brain volume conduction effects inspired channel-wise EEG feature selection for multi-dimensional emotion recognition [6.8109977763829885]
多次元感情認識のためのチャネルワイド脳波特徴選択法(CWEFS)を提案する。
脳の体積伝導効果にインスパイアされたCWEFSは、脳波の感情的特徴選択を共有潜在構造モデルに統合する。
CWEFSは適応的なチャネル重み付け学習を導入し、感情的特徴選択タスクにおける異なるEEGチャネルの意義を自動的に決定する。
論文 参考訳(メタデータ) (2025-08-07T10:17:59Z) - CAST-Phys: Contactless Affective States Through Physiological signals Database [74.28082880875368]
感情的なマルチモーダルデータセットの欠如は、正確な感情認識システムを開発する上で、依然として大きなボトルネックとなっている。
遠隔の生理的感情認識が可能な新しい高品質なデータセットであるCAST-Physを提示する。
本分析では,表情だけでは十分な感情情報が得られない現実的なシナリオにおいて,生理的信号が重要な役割を担っていることを強調した。
論文 参考訳(メタデータ) (2025-07-08T15:20:24Z) - EmoLLM: Multimodal Emotional Understanding Meets Large Language Models [61.179731667080326]
マルチモーダル・大規模言語モデル(MLLM)は、目的とするマルチモーダル認識タスクにおいて顕著な性能を達成している。
しかし、主観的、感情的にニュアンスのあるマルチモーダルコンテンツを解釈する能力はほとんど解明されていない。
EmoLLMは、マルチモーダルな感情理解のための新しいモデルであり、2つのコア技術が組み込まれている。
論文 参考訳(メタデータ) (2024-06-24T08:33:02Z) - Multi-modal Mood Reader: Pre-trained Model Empowers Cross-Subject Emotion Recognition [23.505616142198487]
我々は、クロスオブジェクト感情認識のための訓練済みモデルに基づくMultimodal Mood Readerを開発した。
このモデルは、大規模データセットの事前学習を通じて、脳波信号の普遍的な潜在表現を学習する。
公開データセットに関する大規模な実験は、クロスオブジェクト感情認識タスクにおけるMood Readerの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-05-28T14:31:11Z) - Deep Imbalanced Learning for Multimodal Emotion Recognition in
Conversations [15.705757672984662]
会話におけるマルチモーダル感情認識(MERC)は、マシンインテリジェンスにとって重要な開発方向である。
MERCのデータの多くは自然に感情カテゴリーの不均衡な分布を示しており、研究者は感情認識に対する不均衡なデータの負の影響を無視している。
生データにおける感情カテゴリーの不均衡分布に対処するクラス境界拡張表現学習(CBERL)モデルを提案する。
我々は,IEMOCAPおよびMELDベンチマークデータセットの広範な実験を行い,CBERLが感情認識の有効性において一定の性能向上を達成したことを示す。
論文 参考訳(メタデータ) (2023-12-11T12:35:17Z) - Multimodal Emotion Recognition using Transfer Learning from Speaker
Recognition and BERT-based models [53.31917090073727]
本稿では,音声とテキストのモダリティから,伝達学習モデルと微調整モデルとを融合したニューラルネットワークによる感情認識フレームワークを提案する。
本稿では,対話型感情的モーションキャプチャー・データセットにおけるマルチモーダル・アプローチの有効性を評価する。
論文 参考訳(メタデータ) (2022-02-16T00:23:42Z) - Stimuli-Aware Visual Emotion Analysis [75.68305830514007]
本稿では,刺激選択,特徴抽出,感情予測の3段階からなる刺激認識型視覚感情分析(VEA)手法を提案する。
我々の知る限りでは、エンド・ツー・エンドのネットワークでVEAに刺激選択プロセスを導入するのは初めてです。
実験により、提案手法は、4つの公的な視覚的感情データセットに対する最先端のアプローチよりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2021-09-04T08:14:52Z) - Cross-individual Recognition of Emotions by a Dynamic Entropy based on
Pattern Learning with EEG features [2.863100352151122]
複数の個体の神経生理学的特徴に関連する情報的指標を抽象化するために,動的エントロピーに基づくパターン学習(DEPL)として表されるディープラーニングフレームワークを提案する。
DEPLは、ダイナミックエントロピーに基づく特徴の皮質位置間の相互依存性をモデル化することにより、ディープ畳み込みニューラルネットワークによって生成された表現の能力を向上した。
論文 参考訳(メタデータ) (2020-09-26T07:22:07Z) - A Novel Transferability Attention Neural Network Model for EEG Emotion
Recognition [51.203579838210885]
脳波感情認識のための伝達型注目ニューラルネットワーク(TANN)を提案する。
TANNは、伝達可能な脳波領域のデータとサンプルを適応的に強調することにより、感情的な識別情報を学習する。
これは、複数の脳領域レベル判別器と1つのサンプルレベル判別器の出力を測定することで実現できる。
論文 参考訳(メタデータ) (2020-09-21T02:42:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。