論文の概要: Adaptive Split-MMD Training for Small-Sample Cross-Dataset P300 EEG Classification
- arxiv url: http://arxiv.org/abs/2510.21969v1
- Date: Fri, 24 Oct 2025 18:48:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:14.71707
- Title: Adaptive Split-MMD Training for Small-Sample Cross-Dataset P300 EEG Classification
- Title(参考訳): 小サンプルクロスデータセットP300脳波分類のための適応的スプリット-MMDトレーニング
- Authors: Weiyu Chen, Arnaud Delorme,
- Abstract要約: データセット間のシフトは、大きなソースデータセットで小さなターゲットセットを増やそうとするときに発生する。
適応分割最大値離散化学習(AS-MMD)を紹介する。
AS-MMDは、ターゲット重み付き損失とソース/ターゲットサイズ比の平方根に結びついたウォームアップを組み合わせる。
目標のみのトレーニングやプールトレーニングよりも優れています。
- 参考スコア(独自算出の注目度): 12.103074826558531
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detecting single-trial P300 from EEG is difficult when only a few labeled trials are available. When attempting to boost a small target set with a large source dataset through transfer learning, cross-dataset shift arises. To address this challenge, we study transfer between two public visual-oddball ERP datasets using five shared electrodes (Fz, Pz, P3, P4, Oz) under a strict small-sample regime (target: 10 trials/subject; source: 80 trials/subject). We introduce Adaptive Split Maximum Mean Discrepancy Training (AS-MMD), which combines (i) a target-weighted loss with warm-up tied to the square root of the source/target size ratio, (ii) Split Batch Normalization (Split-BN) with shared affine parameters and per-domain running statistics, and (iii) a parameter-free logit-level Radial Basis Function kernel Maximum Mean Discrepancy (RBF-MMD) term using the median-bandwidth heuristic. Implemented on an EEG Conformer, AS-MMD is backbone-agnostic and leaves the inference-time model unchanged. Across both transfer directions, it outperforms target-only and pooled training (Active Visual Oddball: accuracy/AUC 0.66/0.74; ERP CORE P3: 0.61/0.65), with gains over pooling significant under corrected paired t-tests. Ablations attribute improvements to all three components.
- Abstract(参考訳): 脳波からの単体P300の検出は、いくつかのラベル付き試験が利用可能である場合に困難である。
転送学習を通じて、大きなソースデータセットを持つ小さなターゲットセットを拡大しようとすると、データセット間のシフトが発生する。
この課題に対処するために,5つの共有電極(Fz,Pz,P3,P4,Oz)を厳密な小サンプル状態(ターゲット:10トライアル/サブジェクト,ソース:80トライアル/サブジェクト)下で使用した,2つのパブリックビジュアルオードボールERPデータセット間の転送について検討した。
適応的分割最大平均離散化学習(AS-MMD)を導入する。
(i)ソース/ターゲットサイズ比の平方根とウォームアップが結びついた目標重み付き損失。
(ii)共有アフィンパラメータとドメインごとのランニング統計を用いた分割バッチ正規化(Split-BN)
3) パラメータフリーなロジトレベルのラジアル基底関数カーネルの最大平均離散性 (RBF-MMD) を中央帯域ヒューリスティックを用いた。
EEG Conformerに実装されているAS-MMDはバックボーンに依存しない。
両方の転送方向で、ターゲットのみのトレーニングとプールドトレーニング(アクティベート・ビジュアル・オッドボール:精度/AUC 0.66/0.74; ERP CORE P3: 0.61/0.65)を上回り、修正されたペアのt-テストの下でのプールよりも向上した。
アブレーションは3つのコンポーネントすべてに改善がある。
関連論文リスト
- Ensemble Threshold Calibration for Stable Sensitivity Control [0.0]
本稿では,数千万組の幾何対もの幾何に対して,過度に分散した正確なリコールを実現するエンド・ツー・エンドのフレームワークを提案する。
我々のアプローチは、小さなエラーで常にリコールターゲットにヒットし、他のキャリブレーションと比較して冗長な検証を減らし、単一のTPU v3コア上でエンドツーエンドで実行します。
論文 参考訳(メタデータ) (2025-10-02T15:22:28Z) - Multidimensional Bayesian Active Machine Learning of Working Memory Task Performance [4.8878998002743606]
作業記憶再構築作業におけるベイズ的2軸能動的分類手法の有効性を示す。
若年者におけるGP駆動適応モード(AM)と従来の適応階段古典モード(CM)を比較した。
AM推定は他のサンプリング手法よりも早く収束し、完全なモデルの正確な適合には30のサンプルしか必要としないことを示した。
論文 参考訳(メタデータ) (2025-10-01T00:48:14Z) - APML: Adaptive Probabilistic Matching Loss for Robust 3D Point Cloud Reconstruction [16.82777427285544]
点クラウド予測タスクのためのディープラーニングモデルのトレーニングは、予測点と接地真実点の差を測定する損失関数に大きく依存する。
本稿では,一対一マッチングの完全微分可能近似である適応確率マッチング損失(APML)を提案する。
温度を解析的に計算して最小限の確率を保証し、手動チューニングを除去する。
論文 参考訳(メタデータ) (2025-09-09T19:31:06Z) - Efficient Federated Learning with Heterogeneous Data and Adaptive Dropout [62.73150122809138]
Federated Learning(FL)は、複数のエッジデバイスを使用したグローバルモデルの協調トレーニングを可能にする、有望な分散機械学習アプローチである。
動的不均一モデルアグリゲーション(FedDH)と適応ドロップアウト(FedAD)の2つの新しい手法を備えたFedDHAD FLフレームワークを提案する。
これら2つの手法を組み合わせることで、FedDHADは精度(最大6.7%)、効率(最大2.02倍高速)、コスト(最大15.0%小型)で最先端のソリューションを大幅に上回っている。
論文 参考訳(メタデータ) (2025-07-14T16:19:00Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z) - Inception Convolution with Efficient Dilation Search [121.41030859447487]
拡散畳み込みは、効果的な受容場を制御し、オブジェクトの大規模な分散を処理するための標準的な畳み込みニューラルネットワークの重要な変異体である。
そこで我々は,異なる軸,チャネル,層間の独立な拡散を有する拡張畳み込みの新たな変異体,すなわち開始(拡張)畳み込みを提案する。
本稿では,データに複雑なインセプション・コンボリューションを適合させる実用的な手法を探索し,統計的最適化に基づく簡易かつ効果的な拡張探索アルゴリズム(EDO)を開発した。
論文 参考訳(メタデータ) (2020-12-25T14:58:35Z) - Attentional-Biased Stochastic Gradient Descent [74.49926199036481]
深層学習におけるデータ不均衡やラベルノイズ問題に対処するための証明可能な手法(ABSGD)を提案する。
本手法は運動量SGDの簡易な修正であり,各試料に個別の重み付けを行う。
ABSGDは追加コストなしで他の堅牢な損失と組み合わせられるほど柔軟である。
論文 参考訳(メタデータ) (2020-12-13T03:41:52Z) - Learning to Match Distributions for Domain Adaptation [116.14838935146004]
本稿では,ドメイン間分布マッチングを自動的に学習する学習 to Match (L2M)を提案する。
L2Mは、メタネットワークを用いてデータ駆動方式で分布整合損失を学習することにより、誘導バイアスを低減する。
公開データセットの実験は、SOTA法よりもL2Mの方が優れていることを裏付けている。
論文 参考訳(メタデータ) (2020-07-17T03:26:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。