論文の概要: One Model for All: Universal Pre-training for EEG based Emotion Recognition across Heterogeneous Datasets and Paradigms
- arxiv url: http://arxiv.org/abs/2511.08444v1
- Date: Wed, 12 Nov 2025 01:58:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.820485
- Title: One Model for All: Universal Pre-training for EEG based Emotion Recognition across Heterogeneous Datasets and Paradigms
- Title(参考訳): オールのための1つのモデル:不均一データセットとパラダイム間の脳波に基づく感情認識のためのユニバーサル事前学習
- Authors: Xiang Li, You Li, Yazhou Zhang,
- Abstract要約: One Model for All"は、異なるデータセット間でのEEG分析のための普遍的な事前トレーニングフレームワークである。
我々のフレームワークは、SEED (99.27%)、DEAP (93.69%)、DREAMER (93.93%)という、全てのオブジェクト内ベンチマークで新しいSOTA性能を実現する。
この研究は、多種多様な脳波分析タスクのための、より普遍的でスケーラブルで効果的な事前学習モデルの道を開いた。
- 参考スコア(独自算出の注目度): 9.873322204941394
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: EEG-based emotion recognition is hampered by profound dataset heterogeneity (channel/subject variability), hindering generalizable models. Existing approaches struggle to transfer knowledge effectively. We propose 'One Model for All', a universal pre-training framework for EEG analysis across disparate datasets. Our paradigm decouples learning into two stages: (1) Univariate pre-training via self-supervised contrastive learning on individual channels, enabled by a Unified Channel Schema (UCS) that leverages the channel union (e.g., SEED-62ch, DEAP-32ch); (2) Multivariate fine-tuning with a novel 'ART' (Adaptive Resampling Transformer) and 'GAT' (Graph Attention Network) architecture to capture complex spatio-temporal dependencies. Experiments show universal pre-training is an essential stabilizer, preventing collapse on SEED (vs. scratch) and yielding substantial gains on DEAP (+7.65%) and DREAMER (+3.55%). Our framework achieves new SOTA performance on all within-subject benchmarks: SEED (99.27%), DEAP (93.69%), and DREAMER (93.93%). We also show SOTA cross-dataset transfer, achieving 94.08% (intersection) and 93.05% (UCS) on the unseen DREAMER dataset, with the former surpassing the within-domain pre-training benchmark. Ablation studies validate our architecture: the GAT module is critical, yielding a +22.19% gain over GCN on the high-noise DEAP dataset, and its removal causes a catastrophic -16.44% performance drop. This work paves the way for more universal, scalable, and effective pre-trained models for diverse EEG analysis tasks.
- Abstract(参考訳): 脳波に基づく感情認識は、深いデータセットの不均一性(チャネル/オブジェクトの変動)によって妨げられ、一般化可能なモデルを妨げる。
既存のアプローチは、知識を効果的に伝達するのに苦労しています。
異種データセット間での脳波解析のための普遍的な事前学習フレームワーク「One Model for All」を提案する。
本稿のパラダイムは,(1) チャネルユニオン(SEED-62ch, DEAP-32ch)を活用する統一チャネルスキーマ(UCS)によって実現された,個別チャネル上での自己指導型コントラスト学習による事前学習を,(2) 複雑な時空間依存性を捉えるために,'ART' (Adaptive Resampling Transformer) と'GAT' (Graph Attention Network) アーキテクチャを用いて,多変量微調整を行う。
実験では、普遍的な事前訓練が必須の安定剤であり、SEED(vs. scratch)の崩壊を防ぎ、DEAP(+7.65%)とDREAMER(+3.55%)に実質的な利益をもたらすことが示された。
本フレームワークは,SEED (99.27%), DEAP (93.69%), DREAMER (93.93%) という,すべてのオブジェクト内ベンチマークで新たなSOTA性能を実現する。
また、未確認のDREAMERデータセット上で94.08%(インターセクション)と93.05%(UCS)を達成し、前者はドメイン内事前トレーニングベンチマークを上回った。
GATモジュールは、高ノイズDEAPデータセットでGCNを+22.19%上回り、その除去は破滅的な-16.44%パフォーマンス低下を引き起こす。
この研究は、多種多様な脳波分析タスクのための、より普遍的でスケーラブルで効果的な事前学習モデルの道を開いた。
関連論文リスト
- Efficient Federated Learning with Heterogeneous Data and Adaptive Dropout [62.73150122809138]
Federated Learning(FL)は、複数のエッジデバイスを使用したグローバルモデルの協調トレーニングを可能にする、有望な分散機械学習アプローチである。
動的不均一モデルアグリゲーション(FedDH)と適応ドロップアウト(FedAD)の2つの新しい手法を備えたFedDHAD FLフレームワークを提案する。
これら2つの手法を組み合わせることで、FedDHADは精度(最大6.7%)、効率(最大2.02倍高速)、コスト(最大15.0%小型)で最先端のソリューションを大幅に上回っている。
論文 参考訳(メタデータ) (2025-07-14T16:19:00Z) - A Novel Hybrid Deep Learning Technique for Speech Emotion Detection using Feature Engineering [0.0]
提案したDCRF-BiLSTMモデルは,中立,幸福,悲しみ,怒り,恐怖,嫌悪,驚きという7つの感情を認識するために用いられる。
このモデルは、RAVDESSの97.83%を含む個々のデータセットで高い精度を達成する。
組み合わせた(R+T+S)データセットでは、98.82%の精度を達成し、以前報告された結果を上回っている。
論文 参考訳(メタデータ) (2025-07-09T17:07:45Z) - Is Architectural Complexity Overrated? Competitive and Interpretable Knowledge Graph Completion with RelatE [6.959701672059059]
RelatEは、エンティティとリレーションの二重表現を効率的に統合する、解釈可能でモジュラーな方法である。
標準ベンチマークにおいて、競争力や優れたパフォーマンスを達成する。
摂動実験では、MRRはTransEと比較して最大61%、RotatEと比較して最大19%減少し、ロバスト性が改善された。
論文 参考訳(メタデータ) (2025-05-25T04:36:52Z) - AWARE-NET: Adaptive Weighted Averaging for Robust Ensemble Network in Deepfake Detection [0.0]
ディープラーニングに基づくディープフェイク検出のための新しい2層アンサンブルフレームワークを提案する。
私たちのフレームワークは、各アーキテクチャが3回インスタンス化されるユニークなアプローチを採用しています。
実験は最先端のデータセット内性能を達成した。
論文 参考訳(メタデータ) (2025-05-01T05:14:50Z) - Lory: Fully Differentiable Mixture-of-Experts for Autoregressive Language Model Pre-training [73.90260246781435]
私たちは、このようなアーキテクチャを自動回帰言語モデルに拡張する最初のアプローチであるLoryを紹介します。
パラメータマッチングされた高密度モデルよりも、多種多様な下流タスクにおいて顕著な性能向上を示す。
セグメントレベルのルーティングにもかかわらず、Loryモデルはトークンレベルのルーティングを備えた最先端のMoEモデルと比較して、競合的なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-05-06T03:06:33Z) - ContrasInver: Ultra-Sparse Label Semi-supervised Regression for
Multi-dimensional Seismic Inversion [7.356328937024184]
コントラインバー(ContrasInver)は、2、3個の井戸の丸太を用いて地震波の逆解析を行う手法である。
実験では、ContrasInverは合成データSEAM Iで最先端の性能を達成した。
オランダのF3とDelftでは,それぞれ3つと2つの井戸ログのみを使用して,信頼性の高い結果をもたらす,初めてのデータ駆動型アプローチである。
論文 参考訳(メタデータ) (2023-02-13T15:19:51Z) - MSeg: A Composite Dataset for Multi-domain Semantic Segmentation [100.17755160696939]
セマンティックセグメンテーションデータセットを異なるドメインから統合する合成データセットであるMSegを提案する。
一般化と画素レベルのアノテーションのアライメントを調整し,2万枚以上のオブジェクトマスクを8万枚以上の画像で再現する。
MSegでトレーニングされたモデルは、WildDash-v1のリーダーボードで、トレーニング中にWildDashのデータに触れることなく、堅牢なセマンティックセグメンテーションのためにランク付けされている。
論文 参考訳(メタデータ) (2021-12-27T16:16:35Z) - Self-Supervised Pre-Training for Transformer-Based Person
Re-Identification [54.55281692768765]
トランスフォーマーに基づく教師付き事前訓練は、人物再識別(ReID)において大きなパフォーマンスを達成する
ImageNetとReIDデータセットのドメインギャップのため、通常、パフォーマンスを高めるために、より大きなトレーニング済みデータセットが必要です。
この研究は、データとモデル構造の観点から、事前トレーニングデータセットとReIDデータセットのギャップを軽減することを目的としている。
論文 参考訳(メタデータ) (2021-11-23T18:59:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。