論文の概要: FACE: Few-shot Adapter with Cross-view Fusion for Cross-subject EEG Emotion Recognition
- arxiv url: http://arxiv.org/abs/2503.18998v1
- Date: Mon, 24 Mar 2025 03:16:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:50:56.807820
- Title: FACE: Few-shot Adapter with Cross-view Fusion for Cross-subject EEG Emotion Recognition
- Title(参考訳): FACE:クロスオブジェクト脳波認識のためのクロスビューフュージョンを用いたFew-shot Adapter
- Authors: Haiqi Liu, C. L. Philip Chen, Tong Zhang,
- Abstract要約: クロスオブジェクト脳波の感情認識は、重要なオブジェクト間変動と複雑に絡み合ったオブジェクト内変動によって困難である。
最近の数発の学習パラダイムは、これらの制限に対処しようと試みているが、しばしば限られたサンプルを用いて主題固有の適応を行う際に破滅的な過度なオーバーフィッティングに遭遇する。
本稿では,脳波の感情認識のためのFACEと呼ばれるクロスビュー融合方式のマイクロショットアダプタについて紹介する。
- 参考スコア(独自算出の注目度): 57.08108545219043
- License:
- Abstract: Cross-subject EEG emotion recognition is challenged by significant inter-subject variability and intricately entangled intra-subject variability. Existing works have primarily addressed these challenges through domain adaptation or generalization strategies. However, they typically require extensive target subject data or demonstrate limited generalization performance to unseen subjects. Recent few-shot learning paradigms attempt to address these limitations but often encounter catastrophic overfitting during subject-specific adaptation with limited samples. This article introduces the few-shot adapter with a cross-view fusion method called FACE for cross-subject EEG emotion recognition, which leverages dynamic multi-view fusion and effective subject-specific adaptation. Specifically, FACE incorporates a cross-view fusion module that dynamically integrates global brain connectivity with localized patterns via subject-specific fusion weights to provide complementary emotional information. Moreover, the few-shot adapter module is proposed to enable rapid adaptation for unseen subjects while reducing overfitting by enhancing adapter structures with meta-learning. Experimental results on three public EEG emotion recognition benchmarks demonstrate FACE's superior generalization performance over state-of-the-art methods. FACE provides a practical solution for cross-subject scenarios with limited labeled data.
- Abstract(参考訳): クロスオブジェクト脳波の感情認識は、重要なオブジェクト間変動と複雑に絡み合ったオブジェクト内変動によって困難である。
既存の研究は主にドメイン適応や一般化戦略を通じてこれらの課題に対処してきた。
しかし、典型的には、広範囲な対象データを必要とするか、目に見えない対象に対して限定的な一般化性能を示す。
最近の数発の学習パラダイムは、これらの制限に対処しようと試みているが、しばしば限られたサンプルを用いて主題固有の適応を行う際に破滅的な過度なオーバーフィッティングに遭遇する。
本稿では、動的多視点融合と効果的な主観的適応を生かした、クロスオブジェクト脳波の感情認識のためのFACEと呼ばれるクロスビュー融合方式のマイクロショットアダプタについて紹介する。
具体的には、FACEにはクロスビュー融合モジュールが組み込まれており、被験者固有の融合重みを通してグローバルな脳の接続と局所的なパターンを動的に統合し、相補的な感情情報を提供する。
さらに, メタラーニングによる適応構造の向上により, オーバーフィッティングを低減しつつ, 未確認対象への迅速な適応を可能にするために, マイクロショットアダプタモジュールを提案する。
3つの公開脳波感情認識ベンチマークによる実験結果から、FACEの最先端手法よりも優れた一般化性能が示された。
FACEはラベル付きデータに制限のあるクロスオブジェクトシナリオに対して実用的なソリューションを提供する。
関連論文リスト
- Enhancing Multimodal Emotion Recognition through Multi-Granularity Cross-Modal Alignment [10.278127492434297]
本稿では、分散ベース、インスタンスベース、トークンベースのアライメントモジュールを含む包括的アプローチにより、MGCMA(Multi-Granularity Cross-Modal Alignment)フレームワークを紹介する。
IEMOCAPに関する実験により,提案手法が現状技術より優れていることを示す。
論文 参考訳(メタデータ) (2024-12-30T09:30:41Z) - Enhancing Emotion Recognition in Conversation through Emotional Cross-Modal Fusion and Inter-class Contrastive Learning [40.101313334772016]
会話における感情認識の目的は、文脈情報に基づいて発話の感情カテゴリーを特定することである。
従来のERC法は、クロスモーダル核融合のための単純な接続に依存していた。
本稿では,ベクトル接続に基づくモーダル融合感情予測ネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-28T07:22:30Z) - Modality Prompts for Arbitrary Modality Salient Object Detection [57.610000247519196]
本論文は、任意のモーダリティ・サリエント物体検出(AM SOD)の課題について述べる。
任意のモダリティ、例えばRGBイメージ、RGB-Dイメージ、RGB-D-Tイメージから有能なオブジェクトを検出することを目的としている。
AM SODの2つの基本的な課題を解明するために,新しいモード適応トランス (MAT) を提案する。
論文 参考訳(メタデータ) (2024-05-06T11:02:02Z) - Two in One Go: Single-stage Emotion Recognition with Decoupled Subject-context Transformer [78.35816158511523]
単段階の感情認識手法として,DSCT(Decoupled Subject-Context Transformer)を用いる。
広範に使われている文脈認識型感情認識データセットであるCAER-SとEMOTICの単段階フレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-04-26T07:30:32Z) - AMuSE: Adaptive Multimodal Analysis for Speaker Emotion Recognition in
Group Conversations [39.79734528362605]
マルチモーダルアテンションネットワークは、空間抽象の様々なレベルにおける相互モーダル相互作用をキャプチャする。
AMuSEモデルは、空間的特徴と時間的特徴の両方を、話者レベルと発話レベルという2つの濃密な記述子に凝縮する。
論文 参考訳(メタデータ) (2024-01-26T19:17:05Z) - Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - CSLP-AE: A Contrastive Split-Latent Permutation Autoencoder Framework
for Zero-Shot Electroencephalography Signal Conversion [49.1574468325115]
脳波分析の鍵となる目的は、基礎となる神経活動(コンテンツ)を抽出し、個体の変動(スタイル)を考慮することである。
近年の音声変換技術の発展に触発されて,脳波変換を直接最適化するCSLP-AEフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-13T22:46:43Z) - Surface EMG-Based Inter-Session/Inter-Subject Gesture Recognition by
Leveraging Lightweight All-ConvNet and Transfer Learning [17.535392299244066]
低解像度の瞬時HD-sEMG画像を用いたジェスチャー認識は、より流動的で自然な筋肉-コンピュータインターフェースを開発するための新たな道を開く。
セッション間とオブジェクト間シナリオ間のデータのばらつきは、大きな課題を示します。
既存のアプローチでは、非常に大きく複雑なConvNetまたは2SRNNベースのドメイン適応手法を使用して、これらのセッション間およびオブジェクト間データのばらつきに起因する分散シフトを近似した。
我々は、軽量なAll-ConvNetとTransfer Learning(TL)を利用した、セッション間およびオブジェクト間ジェスチャー認識の強化のための軽量All-ConvNet+TLモデルを提案する。
論文 参考訳(メタデータ) (2023-05-13T21:47:55Z) - Hybrid Relation Guided Set Matching for Few-shot Action Recognition [51.3308583226322]
本稿では,2つの鍵成分を組み込んだHybrid Relation Guided Set Matching (HyRSM) 手法を提案する。
ハイブリッドリレーションモジュールの目的は、エピソード内の関連関係とクロスビデオの完全活用により、タスク固有の埋め込みを学習することである。
我々は,HyRSMを6つの挑戦的ベンチマークで評価した。
論文 参考訳(メタデータ) (2022-04-28T11:43:41Z) - Cross-Subject Domain Adaptation for Classifying Working Memory Load with Multi-Frame EEG Images [23.88791823748776]
本研究では,空間的注意(CS-DASA)を考慮したクロスオブジェクト深層適応モデルを提案する。
まず,脳波時系列を空間情報,スペクトル情報,時間情報を含む多フレーム脳波画像に変換する。
最後に、対象画像データからの識別的空間的特徴に焦点を合わせるために、主観的空間的注意機構を用いる。
論文 参考訳(メタデータ) (2021-06-12T13:04:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。