論文の概要: SingLEM: Single-Channel Large EEG Model
- arxiv url: http://arxiv.org/abs/2509.17920v1
- Date: Mon, 22 Sep 2025 15:46:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.472384
- Title: SingLEM: Single-Channel Large EEG Model
- Title(参考訳): SingLEM:シングルチャネル大型脳波モデル
- Authors: Jamiyan Sukhbaatar, Satoshi Imamura, Ibuki Inoue, Shoya Murakami, Kazi Mahmudul Hassan, Seungwoo Han, Ingon Chanpornpakdi, Toshihisa Tanaka,
- Abstract要約: 単一チャネル脳波から堅牢で汎用的な表現を学習する自己教師型基礎モデルであるSingLEMを紹介する。
SingLEMは、9,200人以上の被験者と357,000人の単一チャネル時間からなる71のパブリックデータセットで事前訓練されている。
その結果、単一チャネルアプローチは、微細な神経生理学的解析と解釈可能性の向上を可能とし、最先端の一般化を実現することができることを示した。
- 参考スコア(独自算出の注目度): 3.8754070607387416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current deep learning models for electroencephalography (EEG) are often task-specific and depend on large labeled datasets, limiting their adaptability. Although emerging foundation models aim for broader applicability, their rigid dependence on fixed, high-density multi-channel montages restricts their use across heterogeneous datasets and in missing-channel or practical low-channel settings. To address these limitations, we introduce SingLEM, a self-supervised foundation model that learns robust, general-purpose representations from single-channel EEG, making it inherently hardware agnostic. The model employs a hybrid encoder architecture that combines convolutional layers to extract local features with a hierarchical transformer to model both short- and long-range temporal dependencies. SingLEM is pretrained on 71 public datasets comprising over 9,200 subjects and 357,000 single-channel hours of EEG. When evaluated as a fixed feature extractor across six motor imagery and cognitive tasks, aggregated single-channel representations consistently outperformed leading multi-channel foundation models and handcrafted baselines. These results demonstrate that a single-channel approach can achieve state-of-the-art generalization while enabling fine-grained neurophysiological analysis and enhancing interpretability. The source code and pretrained models are available at https://github.com/ttlabtuat/SingLEM.
- Abstract(参考訳): 現在の脳波深層学習モデルは、しばしばタスク固有であり、大きなラベル付きデータセットに依存し、適応性を制限する。
新たな基盤モデルは、より広範な適用性を目指しているが、固定された高密度のマルチチャネルモンタージュへの厳格な依存は、異種データセットや、不足チャネルや実用的な低チャネル設定における使用を制限する。
これらの制約に対処するため、単チャンネル脳波から堅牢で汎用的な表現を学習し、本質的にハードウェアに依存しない自己教師型基礎モデルであるSingLEMを導入する。
このモデルは、畳み込み層を組み合わせたハイブリッドエンコーダアーキテクチャを用いて、局所的な特徴を階層変換器で抽出し、短距離と長距離の時間的依存関係の両方をモデル化する。
SingLEMは、9,200人以上の被験者と357,000人の単一チャネル時間からなる71のパブリックデータセットで事前訓練されている。
6つの運動画像および認知タスクにまたがる固定特徴抽出器として評価すると、集約された単一チャネル表現は、主要なマルチチャネル基盤モデルや手作りベースラインよりも一貫して優れていた。
これらの結果から, 単一チャネルアプローチは, 微細な神経生理学的解析と解釈可能性の向上を実現しつつ, 最先端の一般化を達成できることが示唆された。
ソースコードと事前訓練されたモデルはhttps://github.com/ttlabtuat/SingLEM.comで入手できる。
関連論文リスト
- Theoretical Foundations of Scaling Law in Familial Models [46.506708373314375]
モデルサイズ(N)とトレーニングトークン(D)とともに、基本的なスケーリング変数としてグラニュラリティ(G)を導入します。
この結果から, 極小指数の乗法則に準じる粒度ペナルティが明らかとなった。
のパラダイムを検証することで、デプロイメントの柔軟性が達成可能であることを実証しています。
論文 参考訳(メタデータ) (2025-12-29T12:01:58Z) - NExT-OMNI: Towards Any-to-Any Omnimodal Foundation Models with Discrete Flow Matching [64.10695425442164]
NExT-OMNI(英語版)は、離散フローパラダイムによる統一モデリングを実現するオープンソース・オムニモーダル・ファンデーション・モデルである。
NExT-OMNIは、大規模なインターリーブ付きテキスト、画像、ビデオ、オーディオデータに基づいて訓練され、マルチモーダル生成および理解ベンチマーク上で競合するパフォーマンスを提供する。
さらなる研究を進めるために、トレーニングの詳細、データプロトコル、およびコードとモデルチェックポイントの両方をオープンソース化する。
論文 参考訳(メタデータ) (2025-10-15T16:25:18Z) - ECHO: Toward Contextual Seq2Seq Paradigms in Large EEG Models [28.18721116424753]
大規模脳波モデル(LEM)は、エンコーダ中心のアーキテクチャを大規模未ラベルデータに事前訓練し、普遍的な表現を抽出することでこの問題に対処する。
脳波モデリングをシーケンス・ツー・シーケンス・ラーニングとして再構成する新しいデコーダ中心のLEMパラダイムであるECHOを導入する。
ECHOは、最先端のシングルタスクEMをマルチタスク設定で一貫して上回り、より優れた一般化と適応性を示す。
論文 参考訳(メタデータ) (2025-09-26T16:37:34Z) - MoE-CE: Enhancing Generalization for Deep Learning based Channel Estimation via a Mixture-of-Experts Framework [34.580240531578106]
MoE-CEは、DLベースのCEメソッドの一般化能力を高めるために設計されたフレキシブル・オブ・エキスパート・フレームワークである。
我々は,MoE-CEが従来のDLアプローチより一貫して優れており,効率を保ちながら大きな性能向上を実現していることを示す。
論文 参考訳(メタデータ) (2025-09-19T13:23:08Z) - OneCAT: Decoder-Only Auto-Regressive Model for Unified Understanding and Generation [91.45421429922506]
OneCATは、理解、生成、編集をシームレスに統合する統合マルチモーダルモデルである。
我々のフレームワークは、推論中に視覚変換器(ViT)や視覚トークン化器などの外部コンポーネントを不要にする。
論文 参考訳(メタデータ) (2025-09-03T17:29:50Z) - FreSca: Scaling in Frequency Space Enhances Diffusion Models [55.75504192166779]
本稿では,潜時拡散モデルにおける周波数制御について検討する。
本稿では,低周波成分と高周波成分にノイズ差を分解する新しいフレームワークFreScaを紹介する。
FreScaはモデルの再トレーニングやアーキテクチャの変更なしに動作し、モデルとタスクに依存しない制御を提供する。
論文 参考訳(メタデータ) (2025-04-02T22:03:11Z) - Large EEG-U-Transformer for Time-Step Level Detection Without Pre-Training [1.3254304182988286]
局所的特徴と大域的特徴の両方を捉えることで表現を効率的に学習する単純なU字モデルを提案する。
他のウィンドウレベルの分類モデルと比較して,本手法は時間段階の予測を直接出力する。
我々のモデルは、てんかんおよび他の神経疾患における人工知能に関する国際会議において、2025年の第1回「青信号検出チャレンジ」で優勝した。
論文 参考訳(メタデータ) (2025-04-01T01:33:42Z) - Stack Transformer Based Spatial-Temporal Attention Model for Dynamic Sign Language and Fingerspelling Recognition [1.949837893170278]
手話に基づく手話認識は、聴覚障害者と非聴覚障害者の間に重要な橋渡しとなる。
本稿では,新しいトランスフォーマーアーキテクチャであるSSTAN(Sequential Spatio-Temporal Attention Network)を提案する。
多様な大規模データセットに関する広範な実験を通じて、我々のモデルを検証した。
論文 参考訳(メタデータ) (2025-03-21T04:57:18Z) - Channel-Aware Low-Rank Adaptation in Time Series Forecasting [43.684035409535696]
2つの代表的なチャネル戦略は、モデル表現性とロバスト性に密接に関連している。
本稿では,チャネル対応の低ランク適応手法を,アイデンティティ対応の個別コンポーネント上での条件付きCDモデルに適用する。
論文 参考訳(メタデータ) (2024-07-24T13:05:17Z) - EMR-Merging: Tuning-Free High-Performance Model Merging [55.03509900949149]
Elect, Mask & Rescale-Merging (EMR-Merging) は既存のマージ手法と比較して優れた性能を示した。
EMR-Mergingはチューニング不要なので、データアベイラビリティや追加のトレーニングは必要ありません。
論文 参考訳(メタデータ) (2024-05-23T05:25:45Z) - SOFTS: Efficient Multivariate Time Series Forecasting with Series-Core Fusion [59.96233305733875]
時系列予測は、金融、交通管理、エネルギー、医療など様々な分野で重要な役割を果たしている。
いくつかの方法は、注意やミキサーのようなメカニズムを利用して、チャネル相関をキャプチャすることでこの問題に対処する。
本稿では,効率的なモデルであるSOFTS(Series-cOre Fused Time Series forecaster)を提案する。
論文 参考訳(メタデータ) (2024-04-22T14:06:35Z) - Enhancing Automatic Modulation Recognition through Robust Global Feature
Extraction [12.868218616042292]
変調信号は長時間の時間依存性を示す。
人間の専門家は星座図のパターンを分析し、変調スキームを分類する。
古典的な畳み込みベースのネットワークは、局所的な特徴を抽出することに長けているが、グローバルな関係を捉えるのに苦労している。
論文 参考訳(メタデータ) (2024-01-02T06:31:24Z) - HierarchyFL: Heterogeneous Federated Learning via Hierarchical
Self-Distillation [12.409497615805797]
フェデレートラーニング(FL)は、プライバシ保護の分散機械学習パラダイムとして認識されている。
FLは、AIoTデバイスのモデル不均一性により、モデル不正確性と緩やかな収束に悩まされる。
我々は、少数の公開データを効率よくスケーラブルな知識に利用する、HierarchyFLという効率的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-05T03:32:10Z) - Subject-Independent Drowsiness Recognition from Single-Channel EEG with
an Interpretable CNN-LSTM model [0.8250892979520543]
単一チャネル脳波信号からの主観的非依存的眠気認識のための新しい畳み込みニューラルネットワーク(CNN)-Long Short-Term Memory(LSTM)モデルを提案する。
その結果, 公立データセット上での被写体独立性認識において, 11人の被写体の平均精度は72.97%であった。
論文 参考訳(メタデータ) (2021-11-21T10:37:35Z) - Deep transfer learning for improving single-EEG arousal detection [63.52264764099532]
2つのデータセットは、単一のEEGモデルでパフォーマンスが低下する原因となる、まったく同じ設定を含んでいない。
単チャンネル脳波データのためのアーキテクチャを構築するために,ベースラインモデルをトレーニングし,最初の2層を置き換える。
細調整戦略を用いて,本モデルはベースラインモデルと同等の性能を示し,同等の単一チャネルモデルよりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-04-10T16:51:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。