論文の概要: RobGC: Towards Robust Graph Condensation
- arxiv url: http://arxiv.org/abs/2406.13200v1
- Date: Wed, 19 Jun 2024 04:14:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-21 23:19:11.916314
- Title: RobGC: Towards Robust Graph Condensation
- Title(参考訳): RobGC:ロバストなグラフ凝縮を目指して
- Authors: Xinyi Gao, Hongzhi Yin, Tong Chen, Guanhua Ye, Wentao Zhang, Bin Cui,
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ表現学習の目覚ましい能力によって広く注目を集めている。
しかし,大規模グラフの普及は,その計算要求により,GNNトレーニングにとって大きな課題となる。
本稿では,GNNを効率よく学習し,性能を保ちつつ,情報的コンパクトなグラフを生成するために,GC(Graph Condensation)を提案する。
- 参考スコア(独自算出の注目度): 61.259453496191696
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have attracted widespread attention for their impressive capability of graph representation learning. However, the increasing prevalence of large-scale graphs presents a significant challenge for GNN training due to their computational demands, limiting the applicability of GNNs in various scenarios. In response to this challenge, graph condensation (GC) is proposed as a promising acceleration solution, focusing on generating an informative compact graph that enables efficient training of GNNs while retaining performance. Despite the potential to accelerate GNN training, existing GC methods overlook the quality of large training graphs during both the training and inference stages. They indiscriminately emulate the training graph distributions, making the condensed graphs susceptible to noises within the training graph and significantly impeding the application of GC in intricate real-world scenarios. To address this issue, we propose robust graph condensation (RobGC), a plug-and-play approach for GC to extend the robustness and applicability of condensed graphs in noisy graph structure environments. Specifically, RobGC leverages the condensed graph as a feedback signal to guide the denoising process on the original training graph. A label propagation-based alternating optimization strategy is in place for the condensation and denoising processes, contributing to the mutual purification of the condensed graph and training graph. Additionally, as a GC method designed for inductive graph inference, RobGC facilitates test-time graph denoising by leveraging the noise-free condensed graph to calibrate the structure of the test graph. Extensive experiments show that RobGC is compatible with various GC methods, significantly boosting their robustness under different types and levels of graph structural noises.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ表現学習の目覚ましい能力によって広く注目を集めている。
しかし、大規模グラフの普及は、GNNの計算要求により、様々なシナリオにおけるGNNの適用性を制限し、GNNのトレーニングにとって大きな課題となる。
この課題に対するグラフ凝縮 (GC) は有望な加速法として提案され, 性能を維持しつつ, GNN の効率的な訓練を可能にする情報的コンパクトグラフの生成に重点を置いている。
GNNトレーニングを加速する可能性にもかかわらず、既存のGCメソッドはトレーニングと推論の段階で大きなトレーニンググラフの品質を見落としている。
彼らはトレーニンググラフの分布を無差別にエミュレートし、凝縮グラフをトレーニンググラフ内のノイズの影響を受けやすくし、複雑な実世界のシナリオにおけるGCの適用を著しく阻害する。
この問題に対処するため,我々は,雑音の多いグラフ構造環境における凝縮グラフの堅牢性と適用性を拡張するためのGCのプラグアンドプレイアプローチであるロブGCを提案する。
具体的には、RobGCは縮合されたグラフをフィードバック信号として利用して、元のトレーニンググラフのデノイングプロセスを導出する。
ラベル伝搬に基づく交互最適化戦略は、凝縮および復調過程に導入され、凝縮グラフとトレーニンググラフの相互浄化に寄与する。
さらに、インダクティブグラフ推論用に設計されたGC手法として、RobGCは、ノイズフリー凝縮グラフを利用してテストグラフの構造を校正することにより、テスト時間グラフの復調を容易にする。
大規模な実験により、RobGCは様々なGCメソッドと互換性があり、異なるタイプのグラフ構造ノイズのレベルにおいて、ロバスト性を大幅に向上することが示された。
関連論文リスト
- Contrastive Graph Condensation: Advancing Data Versatility through Self-Supervised Learning [47.74244053386216]
グラフ凝縮は、大規模原グラフのコンパクトで代替的なグラフを合成するための有望な解である。
本稿では、自己教師型代理タスクを取り入れたCTGC(Contrastive Graph Condensation)を導入し、元のグラフから批判的、因果的な情報を抽出する。
CTGCは、様々な下流タスクを限られたラベルで処理し、一貫して最先端のGCメソッドより優れている。
論文 参考訳(メタデータ) (2024-11-26T03:01:22Z) - GC-Bench: An Open and Unified Benchmark for Graph Condensation [54.70801435138878]
我々は,グラフ凝縮の性能を解析するための総合的なグラフ凝縮ベンチマーク (GC-Bench) を開発した。
GC-Benchは、グラフ凝縮の特徴を以下の次元で体系的に研究している。
我々は,再現性のある研究を容易にするために,異なるGC手法を訓練し,評価するための簡易ライブラリを開発した。
論文 参考訳(メタデータ) (2024-06-30T07:47:34Z) - GC4NC: A Benchmark Framework for Graph Condensation on Node Classification with New Insights [30.796414860754837]
グラフ凝縮(GC)は、元のグラフの本質的な情報を保持する、はるかに小さなグラフを学習するために設計された新興技術である。
本稿では,ノード分類における多様なGC手法を評価するための包括的フレームワークである textbfGC4NC を紹介する。
私たちの体系的な評価は、凝縮グラフがどのように振る舞うか、そしてその成功を導く重要な設計選択について、新しい洞察を与えます。
論文 参考訳(メタデータ) (2024-06-24T15:17:49Z) - Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - Graph Condensation for Open-World Graph Learning [48.38802327346445]
グラフ凝縮(GC)は、グラフニューラルネットワーク(GNN)を効率的に訓練するための有望な加速ソリューションとして登場した。
既存のGCメソッドは、単に観測された静的グラフ分布と凝縮グラフの整合性に制限される。
しかし、現実のシナリオでは、グラフは動的で常に進化しており、新しいノードとエッジが継続的に統合されている。
グラフパターンの進化をシミュレートするために構造対応分散シフトを統合する,堅牢なGCフレームワークであるOpenGCを提案する。
論文 参考訳(メタデータ) (2024-05-27T09:47:09Z) - Simple Graph Condensation [30.85754566420301]
グラフ凝縮(Graph condensation)は、グラフニューラルネットワーク(GNN)を小さな凝縮グラフにチューニングし、大規模なオリジナルグラフで使用する。
本稿では,SimGC(Simple Graph Condensation)フレームワークについて紹介する。
SimGCは既存のグラフ凝縮法に比べて最大10倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-03-22T05:04:48Z) - Structure-free Graph Condensation: From Large-scale Graphs to Condensed
Graph-free Data [91.27527985415007]
既存のグラフ凝縮法は、凝縮グラフ内のノードと構造の合同最適化に依存している。
我々は、大規模グラフを小さなグラフノード集合に蒸留する、SFGCと呼ばれる新しい構造自由グラフ凝縮パラダイムを提唱する。
論文 参考訳(メタデータ) (2023-06-05T07:53:52Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。