論文の概要: Uni-NTFM: A Unified Foundation Model for EEG Signal Representation Learning
- arxiv url: http://arxiv.org/abs/2509.24222v1
- Date: Mon, 29 Sep 2025 03:03:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.710746
- Title: Uni-NTFM: A Unified Foundation Model for EEG Signal Representation Learning
- Title(参考訳): Uni-NTFM:脳波信号表現学習のための統一基盤モデル
- Authors: Zhisheng Chen, Yingwei Zhang, Qizhen Lan, Tianyu Liu, Huacan Wang, Yi Ding, Ziyu Jia, Ronghao Chen, Kun Wang, Xinliang Zhou,
- Abstract要約: 我々はUnified Neural Topological Foundation Model (Uni-NTFM)を紹介する。
Uni-NTFMは神経科学の原理に基づいて設計され、普遍的で解釈可能な表現を生成する。
最大のモデルであるUni-NTFM$_large$は記録破りの1.9Bパラメータを持ち、28,000時間以上の多様な脳波データを事前訓練した。
- 参考スコア(独自算出の注目度): 23.451954610423503
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Foundation models pretrained on various and unlabeled data have demonstrated significant success in natural language and vision, but their application to electroencephalography (EEG) remains challenged due to the signal's unique properties. Existing brain foundation models that inherit architectures designed for text or images lead to three limitations in pre-training: 1) conflating time-domain waveform patterns with frequency-domain rhythmic features in a single processing stream, 2) ignoring the critical spatial topology of electrodes with different standards, and 3) reliance on the inflexible, dense network to process functionally distinct EEG patterns. To address these challenges, we introduce the Unified Neural Topological Foundation Model (Uni-NTFM), which is designed based on neuroscience principles to produce universal and interpretable representations. Uni-NTFM integrates three core innovations: 1) a decoupled architecture parallelly encodes time, frequency, and raw signal representations before performing cross-domain feature integration; 2) a topological embedding mechanism to unify electrodes from different international standards and generate structured input sequences for brain regions; and 3) a Mixture-of-Experts neural Transformer that efficiently scales model capacity by routing signal patterns to specialized subnetworks. The largest model, Uni-NTFM$_{large}$, has a record-breaking 1.9B parameters and was pretrained on over 28,000 hours of diverse EEG data via a dual-domain masked reconstruction objective. Uni-NTFM significantly outperforms existing task-specific methods and foundation models across nine distinct downstream tasks under both linear probing and fine-tuning settings, demonstrating a superior ability to learn universal representations of brain activity.
- Abstract(参考訳): 様々なデータやラベルのないデータに基づいて事前訓練された基礎モデルは、自然言語や視覚において大きな成功を収めてきたが、脳波学(EEG)への応用は、信号の独特の性質のため、依然として困難である。
テキストや画像用に設計されたアーキテクチャを継承する既存の脳基盤モデルは、事前トレーニングの3つの制限をもたらします。
1)単一処理ストリームにおける周波数領域リズミカル特徴を持つ時間領域波形パターンの融合。
2 電極の臨界空間トポロジーを異なる基準で無視し、
3) 機能的に異なる脳波パターンを処理するためには, 柔軟で高密度なネットワークに依存する。
これらの課題に対処するために、神経科学の原理に基づいて設計され、普遍的で解釈可能な表現を生成するUnified Neural Topological Foundation Model (Uni-NTFM)を導入する。
Uni-NTFMは3つのコアイノベーションを統合している。
1) 分割されたアーキテクチャは,ドメイン間機能統合を行う前に,時間,頻度,生信号表現を並列に符号化する。
2 異なる国際基準から電極を統一し、脳領域の構造化入力シーケンスを生成するトポロジカル埋め込み機構
3)Mixture-of-Experts Neural Transformerは、信号パターンを特殊なサブネットにルーティングすることで、モデルのキャパシティを効率的にスケールする。
最大のモデルであるUni-NTFM$_{large}$は記録破りの1.9Bパラメータを持ち、二重ドメインマスクの再構成目的を通じて28,000時間以上の多様な脳波データを事前訓練した。
Uni-NTFMは、線形探索と微調整の両方の条件下で、9つの異なる下流タスクで既存のタスク固有の手法や基礎モデルよりも優れており、脳活動の普遍的な表現を学習する優れた能力を示している。
関連論文リスト
- Hierarchical Federated Foundation Models over Wireless Networks for Multi-Modal Multi-Task Intelligence: Integration of Edge Learning with D2D/P2P-Enabled Fog Learning Architectures [58.72593025539547]
本稿では,階層型フェデレーション基礎モデル(HF-FM)を提案することで,M3T FFMの探索されていないバリエーションを明らかにする。
HF-FMはM3T FMのモジュール構造を戦略的に整列させ、モダリティエンコーダ、プロンプト、ME(Mixy-of-Experts)、アダプタ、タスクヘッドから構成される。
その可能性を実証するため,無線ネットワーク環境におけるHF-FMの試作と,HF-FMの開発のためのオープンソースコードのリリースを行った。
論文 参考訳(メタデータ) (2025-09-03T20:23:19Z) - CodeBrain: Towards Decoupled Interpretability and Multi-Scale Architecture for EEG Foundation Model [52.466542039411515]
EEGファウンデーションモデル(EFM)は、タスク固有のモデルのスケーラビリティ問題に対処するために登場した。
このギャップを埋めるために設計された2段階のEMFであるCodeBrainを紹介します。
第1段階では、異種時間・周波数の脳波信号を離散トークンに分解するTFDual-Tokenizerを導入する。
第2段階では、構造化されたグローバル畳み込みとスライディングウインドウの注意を結合したマルチスケールEEGSSMアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-06-10T17:20:39Z) - BriLLM: Brain-inspired Large Language Model [40.47939901030644]
BriLLMは、機械学習の基礎を再定義する、脳にインスパイアされた大きな言語モデルである。
BriLLMは2つの重要な神経認知原理を取り入れている。(1) 静的な意味マッピング、(2) トークンは皮質領域に類似した特定のノードにマッピングされ、(2) 脳活動で観察される電気生理学的情報ダイナミクスをシミュレートする動的信号伝達である。
このアーキテクチャは、自然なマルチモーダル互換性、ノードレベルでの完全なモデル解釈可能性、コンテキスト長の独立スケーリング、言語タスクのための脳に似た情報処理のグローバルなシミュレーションなど、複数の革新的なブレークスルーを可能にする。
論文 参考訳(メタデータ) (2025-03-14T11:08:30Z) - Geometric Neural Process Fields [58.77241763774756]
幾何学的ニューラル・プロセス・フィールド(Geometric Neural Process Fields, G-NPF)は、ニューラル・ラディアンス・フィールドの確率的フレームワークである。
これらの基盤の上に構築された階層型潜在変数モデルにより、G-NPFは複数の空間レベルにまたがる構造情報を統合できる。
3次元シーンと2次元画像と1次元信号レグレッションの新規ビュー合成実験により,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2025-02-04T14:17:18Z) - GEFM: Graph-Enhanced EEG Foundation Model [16.335330142000657]
ファンデーションモデルは、事前トレーニングを通じて大規模なラベルなしデータを活用することで、有望なソリューションを提供する。
本稿では,時間情報とチャネル間情報を統合した新しい脳波基盤モデルであるグラフ拡張脳波基礎モデル(GEFM)を提案する。
我々のアーキテクチャはグラフニューラルネットワーク(GNN)とマスク付きオートエンコーダを組み合わせることで,効率的な事前学習を実現する。
論文 参考訳(メタデータ) (2024-11-29T06:57:50Z) - Topological Symmetry Enhanced Graph Convolution for Skeleton-Based Action Recognition [11.05325139231301]
骨格に基づく行動認識は, グラフ畳み込みネットワーク(GCN)の開発により, 目覚ましい性能を達成した。
本稿では,TSE-GC(Topological Symmetry Enhanced Graph Convolution)を提案する。
また,骨格に基づく動作認識のためのMulti-Branch Deformable Temporal Convolution (MBDTC)を構築した。
論文 参考訳(メタデータ) (2024-11-19T15:23:59Z) - ResFields: Residual Neural Fields for Spatiotemporal Signals [61.44420761752655]
ResFieldsは、複雑な時間的信号を効果的に表現するために設計された新しいネットワークのクラスである。
本稿では,ResFieldの特性を包括的に解析し,トレーニング可能なパラメータの数を減らすための行列分解手法を提案する。
スパースRGBDカメラからダイナミックな3Dシーンをキャプチャする効果を示すことで,ResFieldsの実用性を実証する。
論文 参考訳(メタデータ) (2023-09-06T16:59:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。