論文の概要: Brain-OF: An Omnifunctional Foundation Model for fMRI, EEG and MEG
- arxiv url: http://arxiv.org/abs/2602.23410v2
- Date: Mon, 02 Mar 2026 10:08:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 15:39:04.009405
- Title: Brain-OF: An Omnifunctional Foundation Model for fMRI, EEG and MEG
- Title(参考訳): Brain-OF:fMRI, EEG, MEGのための機能的基礎モデル
- Authors: Hanning Guo, Farah Abdellatif, Hanwen Bi, Andrei Galbenus, Jon. N. Shah, Abigail Morrison, Jürgen Dammers,
- Abstract要約: 本稿では,fMRI,MEG,EEG入力を統合した脳基礎モデルであるBrain-OFを提案する。
Brain-OFは40のデータセットからなる大規模なコーパスで事前トレーニングされており、さまざまな下流タスクで優れたパフォーマンスを示している。
- 参考スコア(独自算出の注目度): 2.783700146328046
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Brain foundation models have achieved remarkable advances across a wide range of neuroscience tasks. However, most existing models are limited to a single functional modality, restricting their ability to exploit complementary spatiotemporal dynamics and the collective data scale across imaging techniques. To address this limitation, we propose Brain-OF, the first omnifunctional brain foundation model jointly pretrained on fMRI, EEG and MEG, capable of handling both unimodal and multimodal inputs within a unified framework. To reconcile heterogeneous spatiotemporal resolutions, we introduce the Any-Resolution Neural Signal Sampler, which projects diverse brain signals into a shared semantic space. To further manage semantic shifts, the Brain-OF backbone integrates DINT attention with a Sparse Mixture of Experts, where shared experts capture modality-invariant representations and routed experts specialize in modality-specific semantics. Furthermore, we propose Masked Temporal-Frequency Modeling, a dual-domain pretraining objective that jointly reconstructs brain signals in both the time and frequency domains. Brain-OF is pretrained on a large-scale corpus comprising around 40 datasets and demonstrates superior performance across diverse downstream tasks, highlighting the benefits of joint multimodal integration and dual-domain pretraining.
- Abstract(参考訳): 脳基礎モデルは、幅広い神経科学のタスクで顕著な進歩を遂げた。
しかし、既存のモデルのほとんどは単一の機能的モダリティに制限されており、補完的な時空間力学と画像技術全体のデータスケールを利用する能力を制限する。
この制限に対処するために,fMRI,EEG,MEGを併用した最初の全機能脳基盤モデルであるBrain-OFを提案する。
不均一な時空間分解を再現するために,脳の様々な信号を共有意味空間に投影するAny-Resolution Neural Signal Samplerを導入する。
セマンティックシフトをさらに管理するために、Brain-OFのバックボーンはDINTの注意をエキスパートのスパースミックスと統合し、共有の専門家はモダリティの不変表現を捉え、ルーティング専門家はモダリティ固有のセマンティクスを専門とする。
さらに、時間領域と周波数領域の両方で脳信号を共同で再構成する二重領域事前訓練対象であるマスケ時間周波数モデリングを提案する。
Brain-OFは40のデータセットからなる大規模コーパスで事前トレーニングされ、さまざまな下流タスクにまたがる優れたパフォーマンスを示し、共同マルチモーダル統合とデュアルドメイン事前トレーニングのメリットを強調している。
関連論文リスト
- Bridging Foundation Models and Efficient Architectures: A Modular Brain Imaging Framework with Local Masking and Pretrained Representation Learning [7.591083752535149]
ファンデーションモデル(FM)の原則を効率よくドメイン固有のアーキテクチャと統合するモジュラーフレームワークを提案する。
平均絶対誤差は, 年齢予測では5.343, 流体知能では2.940, ピアソン相関係数は0.928, 0.887であった。
この研究は、LLMに基づくfMRI分析のアプローチに代わる堅牢で解釈可能な代替手段を提供し、脳の老化と認知機能に関する新たな洞察を提供する。
論文 参考訳(メタデータ) (2025-08-09T08:06:01Z) - CodeBrain: Towards Decoupled Interpretability and Multi-Scale Architecture for EEG Foundation Model [52.466542039411515]
EEGファウンデーションモデル(EFM)は、タスク固有のモデルのスケーラビリティ問題に対処するために登場した。
このギャップを埋めるために設計された2段階のEMFであるCodeBrainを紹介します。
第1段階では、異種時間・周波数の脳波信号を離散トークンに分解するTFDual-Tokenizerを導入する。
第2段階では、構造化されたグローバル畳み込みとスライディングウインドウの注意を結合したマルチスケールEEGSSMアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-06-10T17:20:39Z) - BrainOmni: A Brain Foundation Model for Unified EEG and MEG Signals [46.121056431476156]
異種脳波とMEG記録を対象とする脳基礎モデルBrain Omniを提案する。
既存のアプローチは一般的に、パフォーマンスとクロスドメインのスケーラビリティを制限する、分離、モダリティ、データセット固有のモデルに依存します。
EEGの合計1,997時間、MEGデータの656時間は、事前トレーニングのために公開されているソースからキュレーションされ、標準化されている。
論文 参考訳(メタデータ) (2025-05-18T14:07:14Z) - Brain Foundation Models with Hypergraph Dynamic Adapter for Brain Disease Analysis [18.02038938366483]
アルツハイマー病や脳腫瘍などの脳疾患は、その複雑さと社会的影響により深刻な課題を呈する。
脳基盤モデルの最近の進歩は、脳に関する様々な課題に対処する上で大きな可能性を示している。
SAM-Brain3Dは脳固有の基礎モデルで、66,000以上の脳画像-ラベルのペアをトレーニングする。
論文 参考訳(メタデータ) (2025-05-01T16:06:17Z) - Multi-modal Cross-domain Self-supervised Pre-training for fMRI and EEG Fusion [3.8153469790341084]
ドメイン間でのマルチモーダル情報の相乗化に自己教師付き学習を活用する新しい手法を提案する。
提案手法を利用した大規模事前学習データセットと事前学習MCSPモデルを構築した。
本研究は,fMRIと脳波の融合の著しい進展に寄与し,クロスドメイン機能の統合を図っている。
論文 参考訳(メタデータ) (2024-09-27T20:25:17Z) - BrainMAE: A Region-aware Self-supervised Learning Framework for Brain Signals [11.030708270737964]
本稿では,fMRI時系列データから直接表現を学習するBrain Masked Auto-Encoder(BrainMAE)を提案する。
BrainMAEは、4つの異なる下流タスクにおいて、確立されたベースラインメソッドをかなりのマージンで一貫して上回っている。
論文 参考訳(メタデータ) (2024-06-24T19:16:24Z) - MindFormer: Semantic Alignment of Multi-Subject fMRI for Brain Decoding [50.55024115943266]
本稿では,MindFormer を用いたマルチオブジェクト fMRI 信号のセマンティックアライメント手法を提案する。
このモデルは、fMRIから画像生成のための安定拡散モデルや、fMRIからテキスト生成のための大規模言語モデル(LLM)の条件付けに使用できるfMRI条件付き特徴ベクトルを生成するように設計されている。
実験の結果,MindFormerは意味的に一貫した画像とテキストを異なる主題にわたって生成することがわかった。
論文 参考訳(メタデータ) (2024-05-28T00:36:25Z) - Interpretable Spatio-Temporal Embedding for Brain Structural-Effective Network with Ordinary Differential Equation [56.34634121544929]
本研究では,まず動的因果モデルを用いて脳効果ネットワークを構築する。
次に、STE-ODE(Spatio-Temporal Embedding ODE)と呼ばれる解釈可能なグラフ学習フレームワークを導入する。
このフレームワークは、構造的および効果的なネットワーク間の動的相互作用を捉えることを目的とした、特異的に設計されたノード埋め込み層を含んでいる。
論文 参考訳(メタデータ) (2024-05-21T20:37:07Z) - MindBridge: A Cross-Subject Brain Decoding Framework [60.58552697067837]
脳の復号化は、獲得した脳信号から刺激を再構築することを目的としている。
現在、脳の復号化はモデルごとのオブジェクトごとのパラダイムに限られている。
我々は,1つのモデルのみを用いることで,オブジェクト間脳デコーディングを実現するMindBridgeを提案する。
論文 参考訳(メタデータ) (2024-04-11T15:46:42Z) - fMRI-PTE: A Large-scale fMRI Pretrained Transformer Encoder for
Multi-Subject Brain Activity Decoding [54.17776744076334]
本稿では,fMRI事前学習のための革新的オートエンコーダであるfMRI-PTEを提案する。
我々のアプローチでは、fMRI信号を統合された2次元表現に変換し、次元の整合性を確保し、脳の活動パターンを保存する。
コントリビューションには、fMRI-PTEの導入、革新的なデータ変換、効率的なトレーニング、新しい学習戦略、そして我々のアプローチの普遍的な適用性が含まれる。
論文 参考訳(メタデータ) (2023-11-01T07:24:22Z) - UniBrain: Universal Brain MRI Diagnosis with Hierarchical
Knowledge-enhanced Pre-training [66.16134293168535]
我々はUniBrainと呼ばれるユニバーサル脳MRI診断のための階層的知識強化事前訓練フレームワークを提案する。
具体的には、UniBrainは、定期的な診断から24,770のイメージレポートペアの大規模なデータセットを活用する。
論文 参考訳(メタデータ) (2023-09-13T09:22:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。