論文の概要: Multi-dataset Joint Pre-training of Emotional EEG Enables Generalizable Affective Computing
- arxiv url: http://arxiv.org/abs/2510.22197v1
- Date: Sat, 25 Oct 2025 07:30:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:14.90766
- Title: Multi-dataset Joint Pre-training of Emotional EEG Enables Generalizable Affective Computing
- Title(参考訳): 一般化可能な感情脳波計算を可能にするマルチデータセット共同事前学習
- Authors: Qingzhu Zhang, Jiani Zhong, Zongsheng Li, Xinke Shen, Quanying Liu,
- Abstract要約: 既存の脳波モデルは、タスク固有の特徴と幅広い事前学習アプローチのミスマッチにより、感情認識のような複雑なタスクに苦しむ。
本研究の目的は、クロスデータセット感情認識のためのタスク固有のマルチデータセット共同事前学習フレームワークを開発することである。
- 参考スコア(独自算出の注目度): 5.116264249622881
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Task-specific pre-training is essential when task representations diverge from generic pre-training features. Existing task-general pre-training EEG models struggle with complex tasks like emotion recognition due to mismatches between task-specific features and broad pre-training approaches. This work aims to develop a task-specific multi-dataset joint pre-training framework for cross-dataset emotion recognition, tackling problems of large inter-dataset distribution shifts, inconsistent emotion category definitions, and substantial inter-subject variability. We introduce a cross-dataset covariance alignment loss to align second-order statistical properties across datasets, enabling robust generalization without the need for extensive labels or per-subject calibration. To capture the long-term dependency and complex dynamics of EEG, we propose a hybrid encoder combining a Mamba-like linear attention channel encoder and a spatiotemporal dynamics model. Our method outperforms state-of-the-art large-scale EEG models by an average of 4.57% in AUROC for few-shot emotion recognition and 11.92% in accuracy for zero-shot generalization to a new dataset. Performance scales with the increase of datasets used in pre-training. Multi-dataset joint pre-training achieves a performance gain of 8.55% over single-dataset training. This work provides a scalable framework for task-specific pre-training and highlights its benefit in generalizable affective computing. Our code is available at https://github.com/ncclab-sustech/mdJPT_nips2025.
- Abstract(参考訳): タスク表現が一般的な事前学習機能から分岐する場合には、タスク固有の事前学習が不可欠である。
既存のタスク汎用事前学習型脳波モデルは、タスク固有の特徴と幅広い事前学習アプローチのミスマッチにより、感情認識のような複雑なタスクに苦しむ。
本研究の目的は,タスク固有のマルチデータセット・ジョイント・プレトレーニング・フレームワークを開発することである。
データセット間での2次統計特性の整合性を確保するために、データセット間の共分散アライメント損失を導入し、広範囲なラベルや対象ごとのキャリブレーションを必要とせず、ロバストな一般化を可能にする。
脳波の長期依存性と複雑なダイナミクスを捉えるために,Mambaのような線形アテンションチャネルエンコーダと時空間ダイナミクスモデルを組み合わせたハイブリッドエンコーダを提案する。
本手法は,数ショットの感情認識においてAUROCで平均4.57%,新しいデータセットに対するゼロショットの一般化において1.92%の精度で,最先端の大規模脳波モデルより優れている。
事前トレーニングで使用されるデータセットの増加に伴い、パフォーマンスがスケールする。
マルチデータセットのジョイント事前トレーニングは、シングルデータセットのトレーニングよりも8.55%の性能向上を達成した。
この作業はタスク固有の事前トレーニングのためのスケーラブルなフレームワークを提供し、一般化可能な感情コンピューティングのメリットを強調している。
私たちのコードはhttps://github.com/ncclab-sustech/mdJPT_nips2025で公開されています。
関連論文リスト
- A Scalable Pretraining Framework for Link Prediction with Efficient Adaptation [16.82426251068573]
リンク予測(LP)は、グラフ機械学習において重要なタスクである。
既存の手法は、疎結合性からの限られた監督を含む重要な課題に直面している。
これらの課題に対処するためのソリューションとして,事前学習について検討する。
論文 参考訳(メタデータ) (2025-08-06T17:10:31Z) - Towards Data-Efficient Pretraining for Atomic Property Prediction [51.660835328611626]
タスク関連データセットでの事前トレーニングは、大規模な事前トレーニングと一致するか、あるいは超える可能性があることを示す。
本稿では,コンピュータビジョンのFr'echet Inception Distanceにインスパイアされた,化学類似度指数(CSI)を紹介する。
論文 参考訳(メタデータ) (2025-02-16T11:46:23Z) - Zero-shot Meta-learning for Tabular Prediction Tasks with Adversarially Pre-trained Transformer [2.1677183904102257]
本稿では、実世界のデータセットを事前学習することなく、表形式の予測タスクでゼロショットメタ学習を行うことのできるAdversarially Pre-trained Transformer(APT)を提案する。
APTは、異なる合成データセットで意図的にモデルに挑戦する敵対的な合成データエージェントで事前訓練されている。
筆者らのフレームワークは,データセットの特徴をフィルタリングすることなく,小さな分類タスクにおける最先端のパフォーマンスと一致していることを示す。
論文 参考訳(メタデータ) (2025-02-06T23:58:11Z) - Test-Time Alignment via Hypothesis Reweighting [56.71167047381817]
大規模な事前訓練されたモデルは、しばしば未指定のタスクで苦労する。
テストタイムのユーザ意図にモデルを整合させるという課題に対処する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-11T23:02:26Z) - Task-customized Masked AutoEncoder via Mixture of Cluster-conditional
Experts [104.9871176044644]
Masked Autoencoder (MAE) は,モデル事前学習において有望な結果が得られる自己教師型学習手法である。
我々は、新しいMAEベースの事前学習パラダイム、Mixture of Cluster-conditional Experts (MoCE)を提案する。
MoCEは、クラスタ条件ゲートを使用して、各専門家にセマンティックなイメージのみをトレーニングする。
論文 参考訳(メタデータ) (2024-02-08T03:46:32Z) - Unified Pretraining for Recommendation via Task Hypergraphs [55.98773629788986]
本稿では,タスクハイパーグラフによる推薦のための統一事前学習という,新しいマルチタスク事前学習フレームワークを提案する。
多様なプレテキストタスクの要求やニュアンスを処理するための統一学習パターンとして,プレテキストタスクをハイパーエッジ予測に一般化するタスクハイパーグラフを設計する。
各プレテキストタスクとレコメンデーションの関連性を識別的に学習するために、新しいトランジショナルアテンション層が考案される。
論文 参考訳(メタデータ) (2023-10-20T05:33:21Z) - A-Eval: A Benchmark for Cross-Dataset Evaluation of Abdominal
Multi-Organ Segmentation [38.644744669074775]
A-Evalは,Abdominal ('A') の多臓器セグメンテーションのクロスデータセット評価('Eval')のためのベンチマークである。
FLARE22、AMOS、WORD、TotalSegmentatorという4つの大規模パブリックデータセットのトレーニングセットを採用しています。
A-Evalベンチマークを用いて各種モデルの一般化可能性を評価し,多様なデータ利用シナリオに着目した。
論文 参考訳(メタデータ) (2023-09-07T17:59:50Z) - DANCE: DAta-Network Co-optimization for Efficient Segmentation Model Training and Inference [86.03382625531951]
DANCEは、効率的なセグメンテーションモデルのトレーニングと推論のための自動データネットワーク協調最適化である。
入力イメージを適応的にダウンサンプル/ドロップする自動データスライミングを統合し、画像の空間的複雑さによって導かれるトレーニング損失に対するそれに対応するコントリビューションを制御する。
実験と非難研究により、DANCEは効率的なセグメンテーションに向けて「オールウィン」を達成できることを示した。
論文 参考訳(メタデータ) (2021-07-16T04:58:58Z) - Pretraining Representations for Data-Efficient Reinforcement Learning [12.43475487724972]
ラベルのないデータを使ってエンコーダを事前訓練し、少数のタスク固有のデータに基づいて微調整する。
Atariゲーム上でのインタラクションが100万段階に制限された場合、我々のアプローチは以前の作業を大幅に上回っている。
提案手法では,大規模モデルと組み合わせることで,より多様なタスク整合観測データが得られる。
論文 参考訳(メタデータ) (2021-06-09T04:14:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。