論文の概要: Data Normalization Strategies for EEG Deep Learning
- arxiv url: http://arxiv.org/abs/2506.22455v1
- Date: Sun, 15 Jun 2025 15:33:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-07 02:47:44.355008
- Title: Data Normalization Strategies for EEG Deep Learning
- Title(参考訳): 脳波深層学習のためのデータ正規化戦略
- Authors: Dung Truong, Arnaud Delorme,
- Abstract要約: トレーニングパラダイム間で最適な正規化戦略が著しく異なることを示す。
ウィンドウレベルのチャネル内正規化は、教師付きタスクにおいて最高のパフォーマンスをもたらす。
本研究は,一般正規化戦略が学習環境にまたがって一般化できるという仮定に挑戦する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Normalization is a critical yet often overlooked component in the preprocessing pipeline for EEG deep learning applications. The rise of large-scale pretraining paradigms such as self-supervised learning (SSL) introduces a new set of tasks whose nature is substantially different from supervised training common in EEG deep learning applications. This raises new questions about optimal normalization strategies for the applicable task. In this study, we systematically evaluate the impact of normalization granularity (recording vs. window level) and scope (cross-channel vs. within-channel) on both supervised (age and gender prediction) and self-supervised (Contrastive Predictive Coding) tasks. Using high-density resting-state EEG from 2,836 subjects in the Healthy Brain Network dataset, we show that optimal normalization strategies differ significantly between training paradigms. Window-level within-channel normalization yields the best performance in supervised tasks, while minimal or cross-channel normalization at the window level is more effective for SSL. These results underscore the necessity of task-specific normalization choices and challenge the assumption that a universal normalization strategy can generalize across learning settings. Our findings provide practical insights for developing robust EEG deep learning pipelines as the field shifts toward large-scale, foundation model training.
- Abstract(参考訳): 正規化は、EEGディープラーニングアプリケーションのための前処理パイプラインにおいて、重要だがしばしば見過ごされるコンポーネントである。
自己教師付き学習(SSL)のような大規模事前学習パラダイムの台頭は,脳波深層学習アプリケーションで一般的な教師付きトレーニングとは大きく異なる,新たなタスクセットを導入している。
これにより、適用可能なタスクに対して最適な正規化戦略に関する新たな疑問が提起される。
本研究では,正規化の粒度(窓面レベルと窓面レベル)とスコープ(チャンネル内対チャネル内)が,教師付き(年齢・性別予測)と自己監督型(コントラスト予測符号化)の両課題に与える影響を系統的に評価した。
健康脳ネットワークデータセットの2,836名の被験者の高密度安息状態脳波を用いて、最適な正規化戦略がトレーニングパラダイムによって大きく異なることを示す。
ウィンドウレベルのイントラチャネル正規化は教師付きタスクで最高のパフォーマンスを得るが、ウィンドウレベルの最小またはクロスチャネル正規化はSSLにとってより効果的である。
これらの結果は、タスク固有の正規化選択の必要性を浮き彫りにして、普遍正規化戦略が学習環境全体にわたって一般化できるという仮定に挑戦する。
本研究は,脳波深層学習パイプラインの開発において,大規模基礎モデルトレーニングへのフィールドシフトとして実践的な知見を提供する。
関連論文リスト
- Learn from Downstream and Be Yourself in Multimodal Large Language Model Fine-Tuning [104.27224674122313]
微調整MLLMは、特定の下流タスクのパフォーマンスを改善するための一般的なプラクティスとなっている。
一般化と特殊化のトレードオフのバランスをとるために,事前学習と微調整の両方におけるパラメータの重要度を測定することを提案する。
論文 参考訳(メタデータ) (2024-11-17T01:16:37Z) - NormAUG: Normalization-guided Augmentation for Domain Generalization [60.159546669021346]
ディープラーニングのためのNormAUG(Normalization-guided Augmentation)と呼ばれるシンプルで効果的な手法を提案する。
本手法は特徴レベルで多様な情報を導入し,主経路の一般化を改善する。
テスト段階では、アンサンブル戦略を利用して、モデルの補助経路からの予測を組み合わせ、さらなる性能向上を図る。
論文 参考訳(メタデータ) (2023-07-25T13:35:45Z) - PEAR: Primitive Enabled Adaptive Relabeling for Boosting Hierarchical Reinforcement Learning [25.84621883831624]
階層的強化学習(HRL)は、時間的抽象化と探索の増大により、複雑な長い地平線タスクを解く可能性がある。
プリミティブ・アダプティブ・アダプティブ・レバーベリング(PEAR)を提案する。
まず,いくつかの専門家による実験を適応的に実施し,効率的なサブゴール管理を実現する。
次に、強化学習(RL)と模倣学習(IL)を併用してHRLエージェントを共同最適化する。
論文 参考訳(メタデータ) (2023-06-10T09:41:30Z) - Scalable PAC-Bayesian Meta-Learning via the PAC-Optimal Hyper-Posterior:
From Theory to Practice [54.03076395748459]
メタラーニング文学の中心的な疑問は、目に見えないタスクへの一般化を保証するために、いかに正規化するかである。
本稿では,Rothfussらによって最初に導かれたメタラーニングの一般化について述べる。
PAC-Bayesian per-task 学習境界におけるメタラーニングの条件と程度について,理論的解析および実証事例研究を行った。
論文 参考訳(メタデータ) (2022-11-14T08:51:04Z) - Subquadratic Overparameterization for Shallow Neural Networks [60.721751363271146]
私たちは、標準的なニューラルトレーニング戦略を採用することができる分析フレームワークを提供しています。
我々は、Desiderata viaak-Lojasiewicz, smoothness, and standard assumptionsを達成する。
論文 参考訳(メタデータ) (2021-11-02T20:24:01Z) - Normalization Techniques in Training DNNs: Methodology, Analysis and
Application [111.82265258916397]
ディープニューラルネットワーク(DNN)のトレーニングを加速し、一般化を改善するためには、正規化技術が不可欠である
本稿では,トレーニングの文脈における正規化手法の過去,現在,未来に関するレビューとコメントを行う。
論文 参考訳(メタデータ) (2020-09-27T13:06:52Z) - Dynamics Generalization via Information Bottleneck in Deep Reinforcement
Learning [90.93035276307239]
本稿では,RLエージェントのより優れた一般化を実現するために,情報理論正則化目標とアニーリングに基づく最適化手法を提案する。
迷路ナビゲーションからロボットタスクまで、さまざまな領域において、我々のアプローチの極端な一般化の利点を実証する。
この研究は、タスク解決のために冗長な情報を徐々に取り除き、RLの一般化を改善するための原則化された方法を提供する。
論文 参考訳(メタデータ) (2020-08-03T02:24:20Z) - Exemplar Normalization for Learning Deep Representation [34.42934843556172]
本研究は、初等正規化(EN)を提案することによって、新しい動的学習-正規化(L2N)問題について検討する。
ENは、異なる畳み込み層とディープネットワークの画像サンプルの異なる正規化方法を学ぶことができる。
論文 参考訳(メタデータ) (2020-03-19T13:23:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。