論文の概要: Adaptive Graph Coarsening for Efficient GNN Training
- arxiv url: http://arxiv.org/abs/2509.25706v1
- Date: Tue, 30 Sep 2025 03:05:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 14:44:59.995492
- Title: Adaptive Graph Coarsening for Efficient GNN Training
- Title(参考訳): 効率的なGNN訓練のための適応的グラフ粗大化
- Authors: Rostyslav Olshevskyi, Madeline Navarro, Santiago Segarra,
- Abstract要約: 本稿では,学習中のK平均クラスタリングによるグラフニューラルネットワーク(GNN)パラメータとマージノードを協調学習するための適応的なグラフ粗大化手法を提案する。
我々は,同好性ノード分類データセットと異好性ノード分類データセットの両方にアプローチを検証した。
- 参考スコア(独自算出の注目度): 45.44339759125884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an adaptive graph coarsening method to jointly learn graph neural network (GNN) parameters and merge nodes via K-means clustering during training. As real-world graphs grow larger, processing them directly becomes increasingly challenging and sometimes infeasible. Tailoring algorithms to large-scale data may sacrifice performance, so we instead consider graph reduction to decrease the amount of data used during training. In particular, we propose a method to simultaneously train a GNN and coarsen its graph by partitioning nodes via K-means clustering based on their embeddings. Unlike past graph coarsening works, our approach allows us to merge nodes during training. Not only does this preclude coarsening as a preprocessing step, but our node clusters can adapt to the learning task instead of relying solely on graph connectivity and features. Thus, our method is amenable to scenarios that are challenging for other methods, such as heterophilic data. We validate our approach on both homophilic and heterophilic node classification datasets. We further visualize relationships between node embeddings and their corresponding clusters to illustrate that our coarsened graph adapts to the learning task during training.
- Abstract(参考訳): 本稿では,学習中のK平均クラスタリングによるグラフニューラルネットワーク(GNN)パラメータとマージノードを協調学習するための適応的なグラフ粗大化手法を提案する。
現実世界のグラフが大きくなるにつれて、直接処理することはますます難しくなり、時には不可能になる。
大規模データに対するアルゴリズムの調整はパフォーマンスを損なう可能性があるため、トレーニングで使用するデータ量を減らすためにグラフの削減を検討する。
特に,ノードをK平均クラスタリングで分割することで,GNNを同時に訓練し,グラフを粗くする手法を提案する。
過去のグラフの粗い処理とは異なり、我々のアプローチはトレーニング中にノードをマージすることを可能にする。
これは、前処理のステップとして粗い処理を妨げるだけでなく、ノードクラスタは、グラフ接続や機能のみに依存するのではなく、学習タスクに適応することができます。
したがって,本手法はヘテロ親和性データなどの他の手法では困難なシナリオに適応可能である。
我々は,同好性ノード分類データセットと異好性ノード分類データセットの両方にアプローチを検証した。
さらに、ノード埋め込みとそれに対応するクラスタの関係を可視化し、粗いグラフがトレーニング中に学習タスクに適応することを示す。
関連論文リスト
- FIT-GNN: Faster Inference Time for GNNs that 'FIT' in Memory Using Coarsening [1.1345413192078595]
本稿では,グラフ粗化を用いた推論フェーズにおける計算負担を軽減することにより,グラフニューラルネットワーク(GNN)のスケーラビリティを向上させる新しい手法を提案する。
本研究は,グラフ分類やグラフ回帰を含むグラフレベルのタスクに対するグラフ粗化の適用を拡大する。
その結果,提案手法は従来の手法に比べて単一ノード推定時間において桁違いに改善されていることがわかった。
論文 参考訳(メタデータ) (2024-10-19T06:27:24Z) - Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - You do not have to train Graph Neural Networks at all on text-attributed graphs [25.044734252779975]
我々は、同じクラスからのテキストエンコーディングがしばしば線形部分空間に集約されるという観察に乗じて、線形GNNモデルであるTrainlessGNNを紹介した。
実験の結果、私たちのトレインレスモデルは、従来の訓練済みのモデルにマッチするか、超えられることがわかった。
論文 参考訳(メタデータ) (2024-04-17T02:52:11Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Learnable Graph Matching: A Practical Paradigm for Data Association [74.28753343714858]
これらの問題に対処するための一般的な学習可能なグラフマッチング法を提案する。
提案手法は,複数のMOTデータセット上での最先端性能を実現する。
画像マッチングでは,一般的な屋内データセットであるScanNetで最先端の手法より優れている。
論文 参考訳(メタデータ) (2023-03-27T17:39:00Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - Shift-Robust Node Classification via Graph Adversarial Clustering [43.62586751992269]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのデファクトノード分類モデルである。
テスト期間中、これらのアルゴリズムはデータシフトを前提としない。
これらの制限に対処するために、シフト・ロバストノード分類(SRNC)を提案する。
論文 参考訳(メタデータ) (2022-03-07T18:13:21Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Graph Neural Network with Curriculum Learning for Imbalanced Node
Classification [21.085314408929058]
グラフニューラルネットワーク(GNN)は,ノード分類などのグラフベースの学習タスクの新興技術である。
本研究では,ノードラベルの不均衡に対するGNNの脆弱性を明らかにする。
本稿では,2つのモジュールからなるカリキュラム学習(GNN-CL)を備えたグラフニューラルネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-05T10:46:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。