論文の概要: Diffusion-Guided Pretraining for Brain Graph Foundation Models
- arxiv url: http://arxiv.org/abs/2602.09437v1
- Date: Tue, 10 Feb 2026 06:03:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.396617
- Title: Diffusion-Guided Pretraining for Brain Graph Foundation Models
- Title(参考訳): 脳グラフ基礎モデルのための拡散誘導事前学習
- Authors: Xinxu Wei, Rong Zhou, Lifang He, Yu Zhang,
- Abstract要約: 両制約に対処する拡散型事前学習フレームワークを提案する。
まず、拡散は、構造を意識したドロップとマスキング戦略をガイドし、脳グラフのセマンティクスを保存するように設計されている。
第二に、拡散はトポロジを意識したグラフレベルの読み出しとノードレベルのグローバルな再構築を可能にする。
- 参考スコア(独自算出の注目度): 11.520820567690949
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the growing interest in foundation models for brain signals, graph-based pretraining has emerged as a promising paradigm for learning transferable representations from connectome data. However, existing contrastive and masked autoencoder methods typically rely on naive random dropping or masking for augmentation, which is ill-suited for brain graphs and hypergraphs as it disrupts semantically meaningful connectivity patterns. Moreover, commonly used graph-level readout and reconstruction schemes fail to capture global structural information, limiting the robustness of learned representations. In this work, we propose a unified diffusion-based pretraining framework that addresses both limitations. First, diffusion is designed to guide structure-aware dropping and masking strategies, preserving brain graph semantics while maintaining effective pretraining diversity. Second, diffusion enables topology-aware graph-level readout and node-level global reconstruction by allowing graph embeddings and masked nodes to aggregate information from globally related regions. Extensive experiments across multiple neuroimaging datasets with over 25,000 subjects and 60,000 scans involving various mental disorders and brain atlases demonstrate consistent performance improvements.
- Abstract(参考訳): 脳信号の基礎モデルへの関心が高まり、コネクトームデータから伝達可能な表現を学ぶための有望なパラダイムとしてグラフベースの事前学習が登場した。
しかし、既存のコントラストとマスク付きオートエンコーダ法は、通常、意味的に意味のある接続パターンを乱すため、脳グラフやハイパーグラフに不適な、無作為なランダムドロップやマスキングに頼っている。
さらに、一般的に使われているグラフレベルの読み出しと再構成スキームは、グローバルな構造情報の取得に失敗し、学習された表現の堅牢性を制限する。
本研究では,両制約に対処する拡散型事前学習フレームワークを提案する。
まず、拡散は構造を意識したドロップとマスキング戦略を導き、効果的な事前学習の多様性を維持しながら、脳グラフのセマンティクスを保存するように設計されている。
第二に、拡散により、グラフ埋め込みとマスクノードがグローバルな関連領域から情報を集約することで、トポロジ対応のグラフレベルの読み出しとノードレベルのグローバルな再構築が可能になる。
25,000人以上の被験者と6万件のスキャンを含む複数の神経画像データセットにわたる大規模な実験は、様々な精神疾患と脳のアトラスによる一貫したパフォーマンス改善を示している。
関連論文リスト
- CodeBrain: Towards Decoupled Interpretability and Multi-Scale Architecture for EEG Foundation Model [52.466542039411515]
EEGファウンデーションモデル(EFM)は、タスク固有のモデルのスケーラビリティ問題に対処するために登場した。
このギャップを埋めるために設計された2段階のEMFであるCodeBrainを紹介します。
第1段階では、異種時間・周波数の脳波信号を離散トークンに分解するTFDual-Tokenizerを導入する。
第2段階では、構造化されたグローバル畳み込みとスライディングウインドウの注意を結合したマルチスケールEEGSSMアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-06-10T17:20:39Z) - A Brain Graph Foundation Model: Pre-Training and Prompt-Tuning for Any Atlas and Disorder [9.83654608793608]
本稿では,脳グラフ基盤モデルを構築するための,グラフに基づく新しい事前学習パラダイムを提案する。
BrainGFMは、様々なパーセレーションと様々な脳のアトラスの混合物で事前訓練されている。
BrainGFMは、25の一般的な神経疾患と精神疾患にまたがる27のデータセットで事前訓練されている。
論文 参考訳(メタデータ) (2025-05-31T20:35:53Z) - Brain Network Classification Based on Graph Contrastive Learning and Graph Transformer [0.6906005491572401]
本稿では,グラフコントラスト学習をグラフ変換器と統合したPHGCL-DDGformerという新しいモデルを提案する。
実世界のデータセットによる実験結果から、PHGCL-DDGformerモデルは、脳ネットワーク分類タスクにおける既存の最先端のアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2025-04-01T13:26:03Z) - Classification of developmental and brain disorders via graph
convolutional aggregation [6.6356049194991815]
本稿では,グラフサンプリングにおける集約を利用したアグリゲータ正規化グラフ畳み込みネットワークを提案する。
提案モデルは,画像特徴と非画像特徴の両方をグラフノードとエッジに組み込むことで,識別グラフノード表現を学習する。
我々は、自閉症脳画像データ交換(ABIDE)とアルツハイマー病神経イメージングイニシアチブ(ADNI)という2つの大きなデータセット上の最近のベースライン手法と比較して、我々のモデルをベンチマークした。
論文 参考訳(メタデータ) (2023-11-13T14:36:29Z) - A Generic Shared Attention Mechanism for Various Backbone Neural Networks [53.36677373145012]
自己注意モジュール(SAM)は、異なる層にまたがる強い相関した注意マップを生成する。
Dense-and-Implicit Attention (DIA)はSAMをレイヤ間で共有し、長期間のメモリモジュールを使用する。
我々のシンプルで効果的なDIAは、様々なネットワークバックボーンを一貫して拡張できます。
論文 参考訳(メタデータ) (2022-10-27T13:24:08Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - MoCL: Contrastive Learning on Molecular Graphs with Multi-level Domain
Knowledge [28.386302970315736]
そこで我々は,表現学習を支援するために,地域レベルとグローバルレベルの両方でドメイン知識を利用するMoCLという新しいフレームワークを提案する。
我々は, 線形および半教師付き条件下で, 種々の分子データセット上でMoCLを評価する。
論文 参考訳(メタデータ) (2021-06-05T18:00:51Z) - Hyperbolic Graph Embedding with Enhanced Semi-Implicit Variational
Inference [48.63194907060615]
半単純グラフ変分自動エンコーダを用いて,低次元グラフ潜在表現における高次統計量を取得する。
我々は、階層構造を示すグラフを効率的に表現するために、ポインケア埋め込みを通して潜在空間に双曲幾何学を組み込む。
論文 参考訳(メタデータ) (2020-10-31T05:48:34Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - Graph Representation Learning via Graphical Mutual Information
Maximization [86.32278001019854]
本稿では,入力グラフとハイレベルな隠蔽表現との相関を測る新しい概念であるGMIを提案する。
我々は,グラフニューラルエンコーダの入力と出力の間でGMIを最大化することで訓練された教師なし学習モデルを開発する。
論文 参考訳(メタデータ) (2020-02-04T08:33:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。