論文の概要: Prototype-Guided Non-Exemplar Continual Learning for Cross-subject EEG Decoding
- arxiv url: http://arxiv.org/abs/2511.20696v1
- Date: Mon, 24 Nov 2025 05:42:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:58.759691
- Title: Prototype-Guided Non-Exemplar Continual Learning for Cross-subject EEG Decoding
- Title(参考訳): クロスオブジェクト脳波復号のためのプロトタイプ誘導非例連続学習
- Authors: Dan Li, Hye-Bin Shin, Yeon-Woo Choi,
- Abstract要約: 過去の脳波サンプルにアクセスすることなく事前知識を保存するための,プロトタイプ誘導型非経験的連続学習(ProNECL)フレームワークを提案する。
ProNECLは、各主題から識別表現を要約するために、クラスレベルのプロトタイプを構築している。
本フレームワークは知識保持と適応性を効果的にバランスさせ,脳波復号処理のクロスオブジェクトにおける優れた性能を実現する。
- 参考スコア(独自算出の注目度): 2.2358117822602837
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to the significant variability in electroencephalogram (EEG) signals across individuals, knowledge acquired from previous subjects is often overwritten as new subjects are introduced in continual EEG decoding task. Current works mainly rely on storing the historical data of seen subjects as a replay buffer to prevent forgetting. However, privacy concerns or memory constraints make keeping such data impractical. Instead, we propose a Prototype-guided Non-Exemplar Continual Learning (ProNECL)framework that preserves prior knowledge without accessing any historical EEG samples. ProNECL constructs class-level prototypes to summarize discriminative representations from each subject and incrementally aligns new feature spaces with the global prototype memory through cross-subject feature alignment and knowledge distillation. Validated on the BCI Competition IV 2a and 2b datasets, our framework effectively balances knowledge retention and adaptability, achieving superior performance in cross-subject continual EEG decoding tasks.
- Abstract(参考訳): 脳波(EEG)信号の個体間変異が著しいため、脳波復号タスクにおいて、従来の被験者から得られた知識が上書きされることがしばしばある。
現在の作業は主に、忘れないようにリプレイバッファとして見る被験者の履歴データを格納することに依存している。
しかし、プライバシの懸念やメモリの制約は、そのようなデータを非現実的に維持する。
代わりに,従来の脳波サンプルにアクセスせずに事前の知識を保存できるプロトタイプ誘導型非経験的連続学習(ProNECL)フレームワークを提案する。
ProNECLは、各被験者の識別表現を要約するクラスレベルのプロトタイプを構築し、クロスオブジェクトな特徴アライメントと知識蒸留を通じて、新しい特徴空間とグローバルなプロトタイプメモリを漸進的に整列させる。
BCIコンペティションIVaと2bデータセットで検証され、我々のフレームワークは知識保持と適応性を効果的にバランスさせ、クロスオブジェクト連続脳波復号タスクにおいて優れた性能を達成する。
関連論文リスト
- Retrofit: Continual Learning with Bounded Forgetting for Security Applications [25.185616916987158]
本稿では,データ振り返りのない連続学習手法であるRETROFITを提案する。
干渉を軽減するために、独立部分空間にパラメータ変化を限定する低ランクかつスパースな更新を適用する。
時間的ドリフト下でのマルウェア検出では、CLベースラインよりも20.2%から38.6%の保持スコアが大幅に向上し、新しいデータに対するオラクルの上限を超える。
論文 参考訳(メタデータ) (2025-11-14T16:07:03Z) - AdvKT: An Adversarial Multi-Step Training Framework for Knowledge Tracing [64.79967583649407]
知識追跡(KT)は、学生の知識状態を監視し、質問シーケンスに対する反応をシミュレートする。
既存のKTモデルは通常、単一ステップのトレーニングパラダイムに従っており、大きなエラーの蓄積につながる。
本稿では,多段階KTタスクに着目した新しい知識追跡のための多段階学習フレームワーク(AdvKT)を提案する。
論文 参考訳(メタデータ) (2025-04-07T03:31:57Z) - Specifying What You Know or Not for Multi-Label Class-Incremental Learning [26.607584252708868]
MLCIL(Multi-label class-incremental learning)の主な課題は、モデルが既知の知識と未知の知識を明確に区別できないことである。
この曖昧さは、モデルが歴史的知識を保持し、現在のクラスをマスターし、将来の学習に備える能力を妨げます。
論文 参考訳(メタデータ) (2025-03-21T10:26:32Z) - Low-Rank Mixture-of-Experts for Continual Medical Image Segmentation [18.984447545932706]
破滅的な忘れ」問題は、モデルが新しいカテゴリやタスクに拡張された際に、以前に学習した特徴を忘れたときに発生する。
本稿では,データ固有のMixture of Experts構造を導入して,新しいタスクやカテゴリを扱うネットワークを提案する。
クラスレベルおよびタスクレベルの連続学習課題に対して,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-06-19T14:19:50Z) - Adaptive Retention & Correction: Test-Time Training for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - Unsupervised Continual Anomaly Detection with Contrastively-learned
Prompt [80.43623986759691]
UCADと呼ばれる新しい非教師付き連続異常検出フレームワークを提案する。
このフレームワークは、対照的に学習したプロンプトを通じて、UDAに継続的な学習能力を持たせる。
我々は総合的な実験を行い、教師なし連続異常検出とセグメンテーションのベンチマークを設定した。
論文 参考訳(メタデータ) (2024-01-02T03:37:11Z) - COOLer: Class-Incremental Learning for Appearance-Based Multiple Object
Tracking [32.47215340215641]
本稿では,連続学習研究の範囲を,複数物体追跡(MOT)のためのクラス増分学習に拡張する。
オブジェクト検出器の連続学習のための従来のソリューションは、外見に基づくトラッカーのデータ関連ステージには対応していない。
我々は,Contrastive- and cOntinual-LearningベースのトラッカーであるCOOLerを紹介した。
論文 参考訳(メタデータ) (2023-10-04T17:49:48Z) - Continual Learning with Dirichlet Generative-based Rehearsal [22.314195832409755]
本稿では,タスク指向対話システムのための新しい生成型リハーサル戦略であるDirichlet Continual Learningを紹介する。
また,ロジットに基づく堅牢な知識蒸留法であるJensen-Shannon Knowledge Distillation (JSKD)についても紹介する。
本研究は,本手法の有効性を実証し,本手法の有効性を確認した。
論文 参考訳(メタデータ) (2023-09-13T12:30:03Z) - ORDisCo: Effective and Efficient Usage of Incremental Unlabeled Data for
Semi-supervised Continual Learning [52.831894583501395]
連続学習は、入力されたデータが完全にラベル付けされていると仮定し、実際のアプリケーションでは適用できないかもしれない。
我々は、条件付き生成逆数ネットワーク(GAN)を用いた分類器を相互に学習するために、識別器整合(ORDisCo)を用いたディープオンライン再生を提案する。
ORDisCo が SSCL の様々な半教師付き学習ベンチマークデータセットで大幅なパフォーマンス向上を達成していることを示します。
論文 参考訳(メタデータ) (2021-01-02T09:04:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。