論文の概要: ASLSL: Adaptive shared latent structure learning with incomplete multi-modal physiological data for multi-dimensional emotional feature selection
- arxiv url: http://arxiv.org/abs/2508.05934v1
- Date: Fri, 08 Aug 2025 01:54:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.046041
- Title: ASLSL: Adaptive shared latent structure learning with incomplete multi-modal physiological data for multi-dimensional emotional feature selection
- Title(参考訳): ASLSL:多次元感情特徴選択のための不完全多モード生理学的データを用いた適応共有潜在構造学習
- Authors: Xueyuan Xu, Tianze Yu, Wenjia Dong, Fulin Wei, Li Zhuo,
- Abstract要約: 適応型共有潜在構造学習(ASLSL)と呼ばれる不完全多モード生理学的信号特徴選択法を提案する。
類似した特徴が類似した感情的ラベルを共有する性質に基づいて、ASLSLは適応的な共用潜在構造学習を用いて、不完全な多モード生理的信号と多次元感情的ラベルに共有される共通の潜時空間を探索する。
- 参考スコア(独自算出の注目度): 6.558247638028055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, multi-modal physiological signals based emotion recognition has garnered increasing attention in the field of brain-computer interfaces. Nevertheness, the associated multi-modal physiological features are often high-dimensional and inevitably include irrelevant, redundant, and noisy representation, which can easily lead to overfitting, poor performance, and high computational complexity in emotion classifiers. Feature selection has been widely applied to address these challenges. However, previous studies generally assumed that multi-modal physiological data are complete, whereas in reality, the data are often incomplete due to the openness of the acquisition and operational environment. For example, a part of samples are available in several modalities but not in others. To address this issue, we propose a novel method for incomplete multi-modal physiological signal feature selection called adaptive shared latent structure learning (ASLSL). Based on the property that similar features share similar emotional labels, ASLSL employs adaptive shared latent structure learning to explore a common latent space shared for incomplete multi-modal physiological signals and multi-dimensional emotional labels, thereby mitigating the impact of missing information and mining consensus information. Two most popular multi-modal physiological emotion datasets (DEAP and DREAMER) with multi-dimensional emotional labels were utilized to compare the performance between compare ASLSL and seventeen feature selection methods. Comprehensive experimental results on these datasets demonstrate the effectiveness of ASLSL.
- Abstract(参考訳): 近年,脳-コンピュータインタフェースの分野において,マルチモーダルな生理的信号に基づく感情認識が注目されている。
にもかかわらず、関連するマルチモーダルな生理的特徴は高次元であり、必然的に無関係で冗長でノイズの多い表現を含んでおり、感情分類器の過度な適合、パフォーマンスの低下、高い計算複雑性につながる可能性がある。
これらの課題に対処するために、機能選択が広く適用されている。
しかし、従来の研究では、マルチモーダルな生理的データが完全であると考えられていたが、実際には、取得と運用環境の開放性のため、しばしば不完全である。
例えば、サンプルの一部はいくつかのモダリティで利用可能だが、他の部分では利用できない。
この問題に対処するために,適応型共有潜在構造学習(ASLSL)と呼ばれる不完全多モード生理学的信号特徴選択法を提案する。
類似した特徴が類似した感情的ラベルを共有する性質に基づいて、ASLSLは適応的な共用潜在構造学習を用いて、不完全な多モード生理的信号と多次元感情的ラベルに共有される共通の潜時空間を探索し、欠落した情報の影響を緩和し、コンセンサス情報をマイニングする。
多次元感情ラベル付き多次元感情データセット(DEAP, DREAMER)を用いて, ASLSLと17種類の特徴選択法の比較を行った。
これらのデータセットに対する総合的な実験結果から, ASLSLの有効性が示された。
関連論文リスト
- ADSEL: Adaptive dual self-expression learning for EEG feature selection via incomplete multi-dimensional emotional tagging [6.914762787652603]
脳波に基づく感情認識のための新しい不完全多次元特徴選択アルゴリズムを提案する。
提案手法は,最小二乗回帰を用いた適応二重自己表現学習(ADSEL)を統合する。
論文 参考訳(メタデータ) (2025-08-07T10:18:37Z) - CAST-Phys: Contactless Affective States Through Physiological signals Database [74.28082880875368]
感情的なマルチモーダルデータセットの欠如は、正確な感情認識システムを開発する上で、依然として大きなボトルネックとなっている。
遠隔の生理的感情認識が可能な新しい高品質なデータセットであるCAST-Physを提示する。
本分析では,表情だけでは十分な感情情報が得られない現実的なシナリオにおいて,生理的信号が重要な役割を担っていることを強調した。
論文 参考訳(メタデータ) (2025-07-08T15:20:24Z) - MVICAD2: Multi-View Independent Component Analysis with Delays and Dilations [61.59658203704757]
本稿では,時間的遅延と拡張の両面において,被験者間でソースを異にするMVICAD(Multi-View Independent Component Analysis with Delays and Dilations)を提案する。
本稿では, 正則化と最適化手法を用いて, 性能向上を図るため, 正則化と最適化手法を用いて, その可能性の近似を導出する。
論文 参考訳(メタデータ) (2025-01-13T15:47:02Z) - VR Based Emotion Recognition Using Deep Multimodal Fusion With Biosignals Across Multiple Anatomical Domains [3.303674512749726]
本稿では,Squeeze-and-Excitation(SE)ブロックと組み合わせた,新しいマルチスケールアテンションベースのLSTMアーキテクチャを提案する。
提案したアーキテクチャは,ユーザスタディで検証され,評価値と覚醒レベルを分類する上で,優れた性能を示す。
論文 参考訳(メタデータ) (2024-12-03T08:59:12Z) - Multi-modal Mood Reader: Pre-trained Model Empowers Cross-Subject Emotion Recognition [23.505616142198487]
我々は、クロスオブジェクト感情認識のための訓練済みモデルに基づくMultimodal Mood Readerを開発した。
このモデルは、大規模データセットの事前学習を通じて、脳波信号の普遍的な潜在表現を学習する。
公開データセットに関する大規模な実験は、クロスオブジェクト感情認識タスクにおけるMood Readerの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-05-28T14:31:11Z) - Hypercomplex Multimodal Emotion Recognition from EEG and Peripheral
Physiological Signals [7.293063257956068]
本稿では,パラメータ化ハイパーコンプレックス乗算を含む新しい融合モジュールを備えたハイパーコンプレックス・マルチモーダルネットワークを提案する。
我々は,脳波(EEG)および末梢生理信号から価値と覚醒値の分類を行い,公開されているMAHNOB-HCIを用いて検討した。
論文 参考訳(メタデータ) (2023-10-11T16:45:44Z) - CLCLSA: Cross-omics Linked embedding with Contrastive Learning and Self
Attention for multi-omics integration with incomplete multi-omics data [47.2764293508916]
不均一・高次元マルチオミクスデータの統合は、遺伝データの理解においてますます重要になっている。
マルチオミクスデータ統合を行う際に直面する障害のひとつは、機器の感度とコストによる未ペアリングマルチオミクスデータの存在である。
クロスオミクスを用いたマルチオミクス統合のための深層学習手法を提案する。
論文 参考訳(メタデータ) (2023-04-12T00:22:18Z) - A Hierarchical Regression Chain Framework for Affective Vocal Burst
Recognition [72.36055502078193]
本稿では,声帯からの感情認識のための連鎖回帰モデルに基づく階層的枠組みを提案する。
データスパシティの課題に対処するため、レイヤワイドおよび時間アグリゲーションモジュールを備えた自己教師付き学習(SSL)表現も使用しています。
提案されたシステムは、ACII Affective Vocal Burst (A-VB) Challenge 2022に参加し、「TWO」および「CULTURE」タスクで第1位となった。
論文 参考訳(メタデータ) (2023-03-14T16:08:45Z) - Attentive Cross-modal Connections for Deep Multimodal Wearable-based
Emotion Recognition [7.559720049837459]
本稿では、畳み込みニューラルネットワーク間で情報を共有するための、新しい注意深いクロスモーダル接続を提案する。
具体的には、EDAとECGの中間表現を共有することにより、感情分類を改善する。
実験の結果,提案手法は強いマルチモーダル表現を学習し,多くのベースライン法より優れていることがわかった。
論文 参考訳(メタデータ) (2021-08-04T18:40:32Z) - Uncovering the structure of clinical EEG signals with self-supervised
learning [64.4754948595556]
教師付き学習パラダイムは、しばしば利用可能なラベル付きデータの量によって制限される。
この現象は脳波(EEG)などの臨床関連データに特に問題となる。
ラベルのないデータから情報を抽出することで、ディープニューラルネットワークとの競合性能に到達することができるかもしれない。
論文 参考訳(メタデータ) (2020-07-31T14:34:47Z) - Symbiotic Adversarial Learning for Attribute-based Person Search [86.7506832053208]
本稿では,共生学習の枠組みとして,共生学習の基盤に2つのGANを配置する。
具体的には、2種類の生成的敵ネットワークがトレーニングプロセスを通して協調的に学習する。
論文 参考訳(メタデータ) (2020-07-19T07:24:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。