論文の概要: SingLEM: Single-Channel Large EEG Model
- arxiv url: http://arxiv.org/abs/2509.17920v1
- Date: Mon, 22 Sep 2025 15:46:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.472384
- Title: SingLEM: Single-Channel Large EEG Model
- Title(参考訳): SingLEM:シングルチャネル大型脳波モデル
- Authors: Jamiyan Sukhbaatar, Satoshi Imamura, Ibuki Inoue, Shoya Murakami, Kazi Mahmudul Hassan, Seungwoo Han, Ingon Chanpornpakdi, Toshihisa Tanaka,
- Abstract要約: 単一チャネル脳波から堅牢で汎用的な表現を学習する自己教師型基礎モデルであるSingLEMを紹介する。
SingLEMは、9,200人以上の被験者と357,000人の単一チャネル時間からなる71のパブリックデータセットで事前訓練されている。
その結果、単一チャネルアプローチは、微細な神経生理学的解析と解釈可能性の向上を可能とし、最先端の一般化を実現することができることを示した。
- 参考スコア(独自算出の注目度): 3.8754070607387416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current deep learning models for electroencephalography (EEG) are often task-specific and depend on large labeled datasets, limiting their adaptability. Although emerging foundation models aim for broader applicability, their rigid dependence on fixed, high-density multi-channel montages restricts their use across heterogeneous datasets and in missing-channel or practical low-channel settings. To address these limitations, we introduce SingLEM, a self-supervised foundation model that learns robust, general-purpose representations from single-channel EEG, making it inherently hardware agnostic. The model employs a hybrid encoder architecture that combines convolutional layers to extract local features with a hierarchical transformer to model both short- and long-range temporal dependencies. SingLEM is pretrained on 71 public datasets comprising over 9,200 subjects and 357,000 single-channel hours of EEG. When evaluated as a fixed feature extractor across six motor imagery and cognitive tasks, aggregated single-channel representations consistently outperformed leading multi-channel foundation models and handcrafted baselines. These results demonstrate that a single-channel approach can achieve state-of-the-art generalization while enabling fine-grained neurophysiological analysis and enhancing interpretability. The source code and pretrained models are available at https://github.com/ttlabtuat/SingLEM.
- Abstract(参考訳): 現在の脳波深層学習モデルは、しばしばタスク固有であり、大きなラベル付きデータセットに依存し、適応性を制限する。
新たな基盤モデルは、より広範な適用性を目指しているが、固定された高密度のマルチチャネルモンタージュへの厳格な依存は、異種データセットや、不足チャネルや実用的な低チャネル設定における使用を制限する。
これらの制約に対処するため、単チャンネル脳波から堅牢で汎用的な表現を学習し、本質的にハードウェアに依存しない自己教師型基礎モデルであるSingLEMを導入する。
このモデルは、畳み込み層を組み合わせたハイブリッドエンコーダアーキテクチャを用いて、局所的な特徴を階層変換器で抽出し、短距離と長距離の時間的依存関係の両方をモデル化する。
SingLEMは、9,200人以上の被験者と357,000人の単一チャネル時間からなる71のパブリックデータセットで事前訓練されている。
6つの運動画像および認知タスクにまたがる固定特徴抽出器として評価すると、集約された単一チャネル表現は、主要なマルチチャネル基盤モデルや手作りベースラインよりも一貫して優れていた。
これらの結果から, 単一チャネルアプローチは, 微細な神経生理学的解析と解釈可能性の向上を実現しつつ, 最先端の一般化を達成できることが示唆された。
ソースコードと事前訓練されたモデルはhttps://github.com/ttlabtuat/SingLEM.comで入手できる。
関連論文リスト
- MoE-CE: Enhancing Generalization for Deep Learning based Channel Estimation via a Mixture-of-Experts Framework [34.580240531578106]
MoE-CEは、DLベースのCEメソッドの一般化能力を高めるために設計されたフレキシブル・オブ・エキスパート・フレームワークである。
我々は,MoE-CEが従来のDLアプローチより一貫して優れており,効率を保ちながら大きな性能向上を実現していることを示す。
論文 参考訳(メタデータ) (2025-09-19T13:23:08Z) - OneCAT: Decoder-Only Auto-Regressive Model for Unified Understanding and Generation [91.45421429922506]
OneCATは、理解、生成、編集をシームレスに統合する統合マルチモーダルモデルである。
我々のフレームワークは、推論中に視覚変換器(ViT)や視覚トークン化器などの外部コンポーネントを不要にする。
論文 参考訳(メタデータ) (2025-09-03T17:29:50Z) - Channel-Aware Low-Rank Adaptation in Time Series Forecasting [43.684035409535696]
2つの代表的なチャネル戦略は、モデル表現性とロバスト性に密接に関連している。
本稿では,チャネル対応の低ランク適応手法を,アイデンティティ対応の個別コンポーネント上での条件付きCDモデルに適用する。
論文 参考訳(メタデータ) (2024-07-24T13:05:17Z) - SOFTS: Efficient Multivariate Time Series Forecasting with Series-Core Fusion [59.96233305733875]
時系列予測は、金融、交通管理、エネルギー、医療など様々な分野で重要な役割を果たしている。
いくつかの方法は、注意やミキサーのようなメカニズムを利用して、チャネル相関をキャプチャすることでこの問題に対処する。
本稿では,効率的なモデルであるSOFTS(Series-cOre Fused Time Series forecaster)を提案する。
論文 参考訳(メタデータ) (2024-04-22T14:06:35Z) - Enhancing Automatic Modulation Recognition through Robust Global Feature
Extraction [12.868218616042292]
変調信号は長時間の時間依存性を示す。
人間の専門家は星座図のパターンを分析し、変調スキームを分類する。
古典的な畳み込みベースのネットワークは、局所的な特徴を抽出することに長けているが、グローバルな関係を捉えるのに苦労している。
論文 参考訳(メタデータ) (2024-01-02T06:31:24Z) - HierarchyFL: Heterogeneous Federated Learning via Hierarchical
Self-Distillation [12.409497615805797]
フェデレートラーニング(FL)は、プライバシ保護の分散機械学習パラダイムとして認識されている。
FLは、AIoTデバイスのモデル不均一性により、モデル不正確性と緩やかな収束に悩まされる。
我々は、少数の公開データを効率よくスケーラブルな知識に利用する、HierarchyFLという効率的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-05T03:32:10Z) - Subject-Independent Drowsiness Recognition from Single-Channel EEG with
an Interpretable CNN-LSTM model [0.8250892979520543]
単一チャネル脳波信号からの主観的非依存的眠気認識のための新しい畳み込みニューラルネットワーク(CNN)-Long Short-Term Memory(LSTM)モデルを提案する。
その結果, 公立データセット上での被写体独立性認識において, 11人の被写体の平均精度は72.97%であった。
論文 参考訳(メタデータ) (2021-11-21T10:37:35Z) - Deep transfer learning for improving single-EEG arousal detection [63.52264764099532]
2つのデータセットは、単一のEEGモデルでパフォーマンスが低下する原因となる、まったく同じ設定を含んでいない。
単チャンネル脳波データのためのアーキテクチャを構築するために,ベースラインモデルをトレーニングし,最初の2層を置き換える。
細調整戦略を用いて,本モデルはベースラインモデルと同等の性能を示し,同等の単一チャネルモデルよりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-04-10T16:51:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。