論文の概要: Interpretable Sparsification of Brain Graphs: Better Practices and
Effective Designs for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2306.14375v1
- Date: Mon, 26 Jun 2023 01:37:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 15:14:29.533553
- Title: Interpretable Sparsification of Brain Graphs: Better Practices and
Effective Designs for Graph Neural Networks
- Title(参考訳): 脳グラフの解釈可能なスパーシフィケーション:グラフニューラルネットワークのより良い実践と効果的な設計
- Authors: Gaotang Li, Marlena Duda, Xiang Zhang, Danai Koutra, Yujun Yan
- Abstract要約: 密度の高い脳グラフは、高い実行時間とメモリ使用量、限定的な解釈可能性を含む計算上の課題を生じさせる。
55.0%のエッジでグラフ分類性能を最大5.1%向上させる新しいモデルであるInterpretable Graph Sparsificationを提案する。
- 参考スコア(独自算出の注目度): 15.101250958437038
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Brain graphs, which model the structural and functional relationships between
brain regions, are crucial in neuroscientific and clinical applications
involving graph classification. However, dense brain graphs pose computational
challenges including high runtime and memory usage and limited
interpretability. In this paper, we investigate effective designs in Graph
Neural Networks (GNNs) to sparsify brain graphs by eliminating noisy edges.
While prior works remove noisy edges based on explainability or task-irrelevant
properties, their effectiveness in enhancing performance with sparsified graphs
is not guaranteed. Moreover, existing approaches often overlook collective edge
removal across multiple graphs.
To address these issues, we introduce an iterative framework to analyze
different sparsification models. Our findings are as follows: (i) methods
prioritizing interpretability may not be suitable for graph sparsification as
they can degrade GNNs' performance in graph classification tasks; (ii)
simultaneously learning edge selection with GNN training is more beneficial
than post-training; (iii) a shared edge selection across graphs outperforms
separate selection for each graph; and (iv) task-relevant gradient information
aids in edge selection. Based on these insights, we propose a new model,
Interpretable Graph Sparsification (IGS), which enhances graph classification
performance by up to 5.1% with 55.0% fewer edges. The retained edges identified
by IGS provide neuroscientific interpretations and are supported by
well-established literature.
- Abstract(参考訳): 脳領域間の構造的および機能的関係をモデル化する脳グラフは、グラフ分類を含む神経科学および臨床応用において重要である。
しかし、高次脳グラフは、高い実行時間とメモリ使用量、限定的な解釈可能性を含む計算上の問題を引き起こす。
本稿では,ノイズの多いエッジを排除し,脳グラフを分散化するためのグラフニューラルネットワーク(GNN)の有効設計について検討する。
事前の作業は説明可能性やタスクに関係しない特性に基づいてノイズの多いエッジを取り除くが、スパーシファイドグラフによるパフォーマンス向上の効果は保証されていない。
さらに、既存のアプローチは、複数のグラフにまたがる集合的なエッジ削除をしばしば見落としている。
これらの問題に対処するために,様々なスパーシフィケーションモデルを分析するための反復フレームワークを提案する。
私たちの発見は以下の通りである。
i) グラフ分類タスクにおけるGNNの性能を劣化させるため,解釈可能性の優先順位付け手法はグラフスカラー化には適さないかもしれない。
(二)GNNトレーニングによるエッジ選択の同時学習は、ポストトレーニングよりも有益である。
(iii)グラフ間の共有エッジ選択は、各グラフの別選択よりも優れており、
(iv)エッジ選択におけるタスク関連勾配情報支援
これらの知見に基づいて, グラフ分類性能を最大5.1%向上し, エッジを55.0%削減する新しいモデル, Interpretable Graph Sparsification (IGS) を提案する。
IGSによって同定された保持エッジは神経科学的解釈を提供し、確立された文献によって支持される。
関連論文リスト
- Community-Centric Graph Unlearning [10.906555492206959]
我々は、新しいグラフ構造マッピング・アンラーニング・パラダイム(GSMU)と、それに基づく新しい手法CGE(Community-centric Graph Eraser)を提案する。
CGEは、コミュニティのサブグラフをノードにマッピングすることで、少ないマップ付きグラフ内でノードレベルの未学習操作の再構築を可能にする。
論文 参考訳(メタデータ) (2024-08-19T05:37:35Z) - Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - Hypergraph-enhanced Dual Semi-supervised Graph Classification [14.339207883093204]
半教師付きグラフ分類のためのハイパーグラフ拡張DuALフレームワークHEALを提案する。
ノード間の高次関係をよりよく探求するために,複雑なノード依存を適応的に学習するハイパーグラフ構造を設計する。
学習したハイパーグラフに基づいて,ハイパーエッジ間の相互作用を捉える線グラフを導入する。
論文 参考訳(メタデータ) (2024-05-08T02:44:13Z) - Two Heads Are Better Than One: Boosting Graph Sparse Training via
Semantic and Topological Awareness [80.87683145376305]
グラフニューラルネットワーク(GNN)は、様々なグラフ学習タスクに優れるが、大規模グラフに適用した場合、計算上の課題に直面している。
データレベルで空間を動的に操作するグラフスパーストレーニング(GST)を提案する。
GSTは、最大位相整合性と性能劣化のないスパースグラフを生成する。
論文 参考訳(メタデータ) (2024-02-02T09:10:35Z) - Balanced Graph Structure Information for Brain Disease Detection [6.799894169098717]
グラフ畳み込みネットワーク(GCN)を用いたフィルタ相関行列と最適サンプルグラフの2つのグラフ構造をモデル化したBargrainを提案する。
我々の広範な実験に基づいて、Bargrainは、平均的なF1スコアによって測定された脳疾患データセットの分類タスクにおいて、最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2023-12-30T06:50:52Z) - Self-supervision meets kernel graph neural models: From architecture to
augmentations [36.388069423383286]
カーネルグラフニューラルネットワーク(KGNN)の設計と学習の改善
我々はLGA(Latent graph augmentation)と呼ばれる新しい構造保存グラフデータ拡張法を開発した。
提案モデルは,最先端のグラフ表現学習フレームワークに匹敵する,あるいは時として優れる性能を実現する。
論文 参考訳(メタデータ) (2023-10-17T14:04:22Z) - An Empirical Study of Retrieval-enhanced Graph Neural Networks [48.99347386689936]
グラフニューラルネットワーク(GNN)は、グラフ表現学習に有効なツールである。
本稿では,グラフニューラルネットワークモデルの選択に非依存な GraphRETRIEVAL という検索強化方式を提案する。
我々は13のデータセットに対して包括的な実験を行い、GRAPHRETRIEVALが既存のGNNよりも大幅に改善されていることを観察した。
論文 参考訳(メタデータ) (2022-06-01T09:59:09Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。