論文の概要: Beyond Pairwise Connections: Extracting High-Order Functional Brain Network Structures under Global Constraints
- arxiv url: http://arxiv.org/abs/2510.09175v1
- Date: Fri, 10 Oct 2025 09:17:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 00:38:48.59127
- Title: Beyond Pairwise Connections: Extracting High-Order Functional Brain Network Structures under Global Constraints
- Title(参考訳): ペアワイズ接続を超えて:グローバル制約下での高次機能脳ネットワーク構造抽出
- Authors: Ling Zhan, Junjie Huang, Xiaoyao Yu, Wenyu Chen, Tao Jia,
- Abstract要約: 本稿では,GCM(Global Constraints-oriented Multi- resolution) FBN構造学習フレームワークを提案する。
4種類のグローバル制約(信号同期、被写体識別、予測エッジ数、データラベル)を組み込んで、4つの異なるレベルのFBN構造を学習できるようにする。
実験の結果、GCMは相対的精度を最大30.6%改善し、計算時間を96.3%削減した。
- 参考スコア(独自算出の注目度): 7.5706797473867065
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Functional brain network (FBN) modeling often relies on local pairwise interactions, whose limitation in capturing high-order dependencies is theoretically analyzed in this paper. Meanwhile, the computational burden and heuristic nature of current hypergraph modeling approaches hinder end-to-end learning of FBN structures directly from data distributions. To address this, we propose to extract high-order FBN structures under global constraints, and implement this as a Global Constraints oriented Multi-resolution (GCM) FBN structure learning framework. It incorporates 4 types of global constraint (signal synchronization, subject identity, expected edge numbers, and data labels) to enable learning FBN structures for 4 distinct levels (sample/subject/group/project) of modeling resolution. Experimental results demonstrate that GCM achieves up to a 30.6% improvement in relative accuracy and a 96.3% reduction in computational time across 5 datasets and 2 task settings, compared to 9 baselines and 10 state-of-the-art methods. Extensive experiments validate the contributions of individual components and highlight the interpretability of GCM. This work offers a novel perspective on FBN structure learning and provides a foundation for interdisciplinary applications in cognitive neuroscience. Code is publicly available on https://github.com/lzhan94swu/GCM.
- Abstract(参考訳): 関数型脳ネットワーク(FBN)モデリングは、高次依存を捉える際の制限を理論的に分析するローカルなペアワイズ相互作用に依存することが多い。
一方、現在のハイパーグラフモデリング手法の計算負担とヒューリスティックな性質は、データ分布から直接FBN構造のエンドツーエンド学習を妨げる。
そこで本稿では,グローバル制約下で高次FBN構造を抽出し,GCM(Global Constraints-oriented Multi- resolution) FBN構造学習フレームワークとして実装する。
モデリング解像度の4つの異なるレベル(サンプル/サブジェクト/グループ/プロジェクト)のFBN構造を学習するために、4種類のグローバル制約(信号同期、主題のアイデンティティ、予測エッジ番号、データラベル)を組み込んでいる。
実験の結果、GCMは5つのデータセットと2つのタスク設定にまたがる計算時間を、9つのベースラインと10の最先端メソッドと比較して最大30.6%改善し、96.3%削減した。
大規模な実験は、個々のコンポーネントの貢献を検証し、GCMの解釈可能性を強調します。
この研究は、FBN構造学習の新しい視点を提供し、認知神経科学における学際的応用の基礎を提供する。
コードはhttps://github.com/lzhan94swu/GCMで公開されている。
関連論文リスト
- Parameter-Free Structural-Diversity Message Passing for Graph Neural Networks [8.462209415744098]
グラフニューラルネットワーク(GNN)はノード分類などの構造化データモデリングタスクにおいて顕著な性能を示した。
本稿では,構造的多様性に基づくパラメータフリーグラフニューラルネットワークフレームワークを提案する。
このフレームワークは構造多様性理論にインスパイアされ、統一された構造多様性メッセージパッシング機構を設計する。
論文 参考訳(メタデータ) (2025-08-27T13:42:45Z) - Global Convergence and Rich Feature Learning in $L$-Layer Infinite-Width Neural Networks under $μ$P Parametrization [66.03821840425539]
本稿では, テンソル勾配プログラム(SGD)フレームワークを用いた$L$層ニューラルネットワークのトレーニング力学について検討する。
SGDにより、これらのネットワークが初期値から大きく逸脱する線形独立な特徴を学習できることを示す。
このリッチな特徴空間は、関連するデータ情報をキャプチャし、トレーニングプロセスの収束点が世界最小であることを保証する。
論文 参考訳(メタデータ) (2025-03-12T17:33:13Z) - RelGNN: Composite Message Passing for Relational Deep Learning [56.48834369525997]
RelGNNはリレーショナルデータベースから構築されたグラフのユニークな構造特性を活用するために特別に設計された新しいGNNフレームワークである。
RelGNNは、Relbench(Fey et al., 2024)から30の多様な実世界のタスクで評価され、ほとんどのタスクで最先端のパフォーマンスを実現し、最大25%の改善を実現している。
論文 参考訳(メタデータ) (2025-02-10T18:58:40Z) - Federated Learning over Hierarchical Wireless Networks: Training Latency Minimization via Submodel Partitioning [15.311309249848739]
階層型独立サブモデルトレーニング(Hierarchical independent submodel training、HIST)は、階層型クラウド-エッジ-クライアントネットワークにおけるこれらの問題に対処することを目的とした新しいFL方法論である。
本研究では,HISTを空気上計算(AirComp)で拡張することにより,エッジセル上でのモデルアグリゲーションの効率をより高めることができることを示す。
論文 参考訳(メタデータ) (2023-10-27T04:42:59Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - SpatioTemporal Focus for Skeleton-based Action Recognition [66.8571926307011]
グラフ畳み込みネットワーク(GCN)は骨格に基づく行動認識において広く採用されている。
近年提案されている骨格に基づく行動認識法の性能は以下の要因によって制限されていると論じる。
近年の注目機構に着想を得て,アクション関連関係情報を取得するためのマルチグラインド・コンテキスト集中モジュール MCF を提案する。
論文 参考訳(メタデータ) (2022-03-31T02:45:24Z) - GenURL: A General Framework for Unsupervised Representation Learning [58.59752389815001]
教師なし表現学習(URL)は、教師なしの高次元データのコンパクトな埋め込みを学習する。
本稿では,様々なURLタスクにスムーズに適応可能な類似性ベースの統合URLフレームワークGenURLを提案する。
実験により、GenURLは、自己教師付き視覚学習、無教師付き知識蒸留(KD)、グラフ埋め込み(GE)、次元縮小において、一貫した最先端性能を達成することが示された。
論文 参考訳(メタデータ) (2021-10-27T16:24:39Z) - Clustered Federated Learning via Generalized Total Variation
Minimization [83.26141667853057]
本研究では,分散ネットワーク構造を持つローカルデータセットの局所的(あるいはパーソナライズされた)モデルを学習するための最適化手法について検討する。
我々の主要な概念的貢献は、総変動最小化(GTV)としてフェデレーション学習を定式化することである。
私たちのアルゴリズムの主な貢献は、完全に分散化されたフェデレーション学習アルゴリズムです。
論文 参考訳(メタデータ) (2021-05-26T18:07:19Z) - LGD-GCN: Local and Global Disentangled Graph Convolutional Networks [35.71362724342354]
Disentangled Graph Convolutional Network (DisenGCN)は、現実世界のグラフで発生する潜伏要因を解消するための奨励的なフレームワークである。
本稿では,Global Disentangled Graph Convolutional Network (LGD-GCN) を導入する。
論文 参考訳(メタデータ) (2021-04-24T06:40:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。