論文の概要: LUNA: Efficient and Topology-Agnostic Foundation Model for EEG Signal Analysis
- arxiv url: http://arxiv.org/abs/2510.22257v1
- Date: Sat, 25 Oct 2025 11:31:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.005452
- Title: LUNA: Efficient and Topology-Agnostic Foundation Model for EEG Signal Analysis
- Title(参考訳): LUNA:脳波信号解析のための効率的かつトポロジーに依存しない基礎モデル
- Authors: Berkay Döner, Thorir Mar Ingolfsson, Luca Benini, Yawei Li,
- Abstract要約: 我々は、異なる電極ジオメトリを再構成する自己教師型基礎モデルLUNAを紹介する。
ルナは多チャンネルのEEGを固定サイズのトポロジーに依存しない潜在空間に圧縮する。
Lunaは、異常検出、アーティファクトの拒絶、分類の遅く、感情認識という4つの下流タスクに効果的に移行する。
- 参考スコア(独自算出の注目度): 16.431555478831143
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Electroencephalography (EEG) offers a non-invasive lens into human brain activity, but building large-scale models is hampered by topological heterogeneity: each public EEG data defines its own electrode layout, limiting generalization. We introduce LUNA (Latent Unified Network Architecture), a self-supervised foundation model that reconciles disparate electrode geometries while scaling linearly -- not quadratically -- with channel count. LUNA compresses multi-channel EEG into a fixed-size, topology-agnostic latent space via learned queries and cross-attention. Downstream transformer blocks then operate exclusively on this latent representation using patch-wise temporal self-attention, decoupling computation from electrode count. Pre-trained on TUEG and Siena (over 21,000 hours of raw EEG across diverse montages) using a masked-patch reconstruction objective, LUNA transfers effectively to four downstream tasks: abnormality detection, artifact rejection, slowing classification, and emotion recognition. It demonstrates highly competitive performance across several benchmarks, achieving state-of-the-art results on TUAR and TUSL, e.g., 0.921 AUROC on TUAR, while reducing FLOPs by 300x and trimming GPU memory use by up to 10x. Critically, these gains are consistent across all evaluated electrode configurations. Code is available at https://github.com/pulp-bio/BioFoundation
- Abstract(参考訳): 脳波検査(EEG)は人間の脳活動に非侵襲的なレンズを提供するが、大規模モデルの構築はトポロジカルな不均一性によって妨げられる。
LUNA(Latent Unified Network Architecture)は、異なる電極のジオメトリを2次ではなく線形にスケーリングしながら、チャネル数で分解する自己教師型基礎モデルである。
LUNAは、学習クエリとクロスアテンションを通じて、マルチチャネルのEEGを固定サイズのトポロジーに依存しない潜在空間に圧縮する。
下流トランスブロックは、パッチワイズ時間的自己アテンションを用いて、電極数から計算を分離して、この潜伏表現にのみ動作する。
TUEGとSiena(様々なモンタージュにまたがる生脳波の21,000時間以上)でマスク・パッチ再構成の目的を用いて事前訓練されたLUNAは、異常検出、人工拒絶、低速分類、感情認識の4つの下流タスクに効果的に移行する。
TUARとTUSLの最先端結果、TUARの0.921 AUROCを達成し、FLOPを300倍削減し、GPUメモリの使用量を最大10倍に削減した。
重要な点として、これらの利得は評価されたすべての電極構成に一貫性がある。
コードはhttps://github.com/pulp-bio/BioFoundationで入手できる。
関連論文リスト
- REVE: A Foundation Model for EEG -- Adapting to Any Setup with Large-Scale Pretraining on 25,000 Subjects [5.368295573908306]
REVE(Representation for EEG with Versatile Embeddings)は、様々な脳波信号にまたがる一般化を意図した事前訓練モデルである。
我々は25,000人の被験者にまたがる92のデータセットから6万時間以上の脳波データをプレトレーニングしました。
我々は、標準化された脳波研究を支援し、臨床神経科学の進歩を促進するためのコード、事前訓練された体重、チュートリアルをリリースする。
論文 参考訳(メタデータ) (2025-10-24T15:52:46Z) - Multi-Channel Differential Transformer for Cross-Domain Sleep Stage Classification with Heterogeneous EEG and EOG [1.422074091840573]
異種脳波-EOG表現学習のための多チャンネル差動変換フレームワークであるSleepDIFFormerを提案する。
SleepDIFFormerは複数のスリープステージデータセットでトレーニングされており、それぞれがソースドメインとして扱われる。
提案手法は,空間的および時間的注意雑音を緩和し,データセット間の特徴分布アライメントを通じて,領域不変なEEG-EOG表現を学習することにより,新しい領域への一般化を促進する。
論文 参考訳(メタデータ) (2025-08-21T03:59:10Z) - CodeBrain: Towards Decoupled Interpretability and Multi-Scale Architecture for EEG Foundation Model [52.466542039411515]
EEGファウンデーションモデル(EFM)は、タスク固有のモデルのスケーラビリティ問題に対処するために登場した。
このギャップを埋めるために設計された2段階のEMFであるCodeBrainを紹介します。
第1段階では、異種時間・周波数の脳波信号を離散トークンに分解するTFDual-Tokenizerを導入する。
第2段階では、構造化されたグローバル畳み込みとスライディングウインドウの注意を結合したマルチスケールEEGSSMアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-06-10T17:20:39Z) - BrainOmni: A Brain Foundation Model for Unified EEG and MEG Signals [46.121056431476156]
異種脳波とMEG記録を対象とする脳基礎モデルBrain Omniを提案する。
既存のアプローチは一般的に、パフォーマンスとクロスドメインのスケーラビリティを制限する、分離、モダリティ、データセット固有のモデルに依存します。
EEGの合計1,997時間、MEGデータの656時間は、事前トレーニングのために公開されているソースからキュレーションされ、標準化されている。
論文 参考訳(メタデータ) (2025-05-18T14:07:14Z) - CEReBrO: Compact Encoder for Representations of Brain Oscillations Using Efficient Alternating Attention [46.47343031985037]
交互注意(CEReBrO)を用いた脳振動の表現のための圧縮法について紹介する。
トークン化方式は、チャネルごとのパッチで脳波信号を表現します。
本研究では,チャネル内時間的ダイナミックスとチャネル間空間的相関を共同でモデル化し,通常の自己アテンションに比べて6倍少ないメモリで2倍の速度向上を実現するための注意機構を提案する。
論文 参考訳(メタデータ) (2025-01-18T21:44:38Z) - Large Brain Model for Learning Generic Representations with Tremendous EEG Data in BCI [6.926908480247951]
大型脳モデル(LaBraM)と呼ばれる脳波の統一基盤モデルを提案する。
LaBraMは、EEG信号をEEGチャネルパッチにセグメント化することで、データセット間の学習を可能にする。
次に、マスクされたEEGチャネルパッチの元のニューラルコードを予測することにより、ニューラルトランスフォーマーを事前訓練する。
論文 参考訳(メタデータ) (2024-05-29T05:08:16Z) - Physics-informed and Unsupervised Riemannian Domain Adaptation for Machine Learning on Heterogeneous EEG Datasets [53.367212596352324]
脳波信号物理を利用した教師なし手法を提案する。
脳波チャンネルをフィールド、ソースフリーなドメイン適応を用いて固定位置にマッピングする。
提案手法は脳-コンピュータインタフェース(BCI)タスクおよび潜在的なバイオマーカー応用におけるロバストな性能を示す。
論文 参考訳(メタデータ) (2024-03-07T16:17:33Z) - ARNN: Attentive Recurrent Neural Network for Multi-channel EEG Signals to Identify Epileptic Seizures [2.3907933297014927]
A Attention Recurrent Neural Network (ARNN) が提案され、大量のデータを効率的に正確に処理できる。
ARNN細胞は、配列に沿って注意層を繰り返し適用し、配列長と線形複雑である。
このフレームワークは、注意層と長い短期記憶(LSTM)細胞にインスパイアされているが、この典型的な細胞を複数の順序でスケールアップし、マルチチャネル脳波信号を並列化する。
論文 参考訳(メタデータ) (2024-03-05T19:15:17Z) - Decoding ECoG signal into 3D hand translation using deep learning [3.20238141000059]
運動脳-コンピュータインターフェース(Motor Brain-Computer Interface、BCI)は、運動障害者が環境と対話できる技術である。
連続手の動きを予測するために使用されるほとんどのECoG信号デコーダは線形モデルである。
多くの問題において最先端のディープラーニングモデルは、この関係をよりよく捉えるための解決策になり得る。
論文 参考訳(メタデータ) (2021-10-05T15:41:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。