論文の概要: Efficient Graph Condensation via Gaussian Process
- arxiv url: http://arxiv.org/abs/2501.02565v1
- Date: Sun, 05 Jan 2025 14:43:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-07 17:06:38.417865
- Title: Efficient Graph Condensation via Gaussian Process
- Title(参考訳): ガウス過程による効率的なグラフ凝縮
- Authors: Lin Wang, Qing Li,
- Abstract要約: グラフ凝縮は、性能を維持しながら大きなグラフのサイズを減らす。
既存の手法はしばしば二段階最適化に依存しており、広範囲なGNNトレーニングとスケーラビリティの制限を必要とする。
本稿では,ガウス過程を用いたグラフ凝縮法(GCGP)を提案する。
- 参考スコア(独自算出の注目度): 11.304327316816561
- License:
- Abstract: Graph condensation reduces the size of large graphs while preserving performance, addressing the scalability challenges of Graph Neural Networks caused by computational inefficiencies on large datasets. Existing methods often rely on bi-level optimization, requiring extensive GNN training and limiting their scalability. To address these issues, this paper proposes Graph Condensation via Gaussian Process (GCGP), a novel and computationally efficient approach to graph condensation. GCGP utilizes a Gaussian Process (GP), with the condensed graph serving as observations, to estimate the posterior distribution of predictions. This approach eliminates the need for the iterative and resource-intensive training typically required by GNNs. To enhance the capability of the GCGP in capturing dependencies between function values, we derive a specialized covariance function that incorporates structural information. This covariance function broadens the receptive field of input nodes by local neighborhood aggregation, thereby facilitating the representation of intricate dependencies within the nodes. To address the challenge of optimizing binary structural information in condensed graphs, Concrete random variables are utilized to approximate the binary adjacency matrix in a continuous counterpart. This relaxation process allows the adjacency matrix to be represented in a differentiable form, enabling the application of gradient-based optimization techniques to discrete graph structures. Experimental results show that the proposed GCGP method efficiently condenses large-scale graph data while preserving predictive performance, addressing the scalability and efficiency challenges. The implementation of our method is publicly available at https://github.com/WANGLin0126/GCGP.
- Abstract(参考訳): グラフ凝縮は、大きなデータセットの計算不効率に起因するグラフニューラルネットワークのスケーラビリティ上の課題に対処しながら、パフォーマンスを維持しながら、大きなグラフのサイズを減らす。
既存の手法はしばしば二段階最適化に依存しており、広範囲なGNNトレーニングとスケーラビリティの制限を必要とする。
これらの問題に対処するため,我々はガウス過程によるグラフ凝縮法(GCGP)を提案する。
GCGPはガウス過程(GP)を用いて、凝縮グラフを観測として、予測の後方分布を推定する。
このアプローチは、一般的にGNNが必要とする反復的かつリソース集約的なトレーニングを不要にする。
関数値間の依存関係を捕捉するGCGPの能力を高めるために,構造情報を含む特殊共分散関数を導出する。
この共分散関数は、局所的な近傍アグリゲーションによって入力ノードの受容領域を広げ、ノード内の複雑な依存関係の表現を容易にする。
凝縮グラフにおける二項構造情報の最適化という課題に対処するため、連続グラフにおける二項隣接行列を近似するために具体的なランダム変数を用いる。
この緩和過程により、隣接行列を微分可能な形で表現することができ、勾配に基づく最適化手法を離散グラフ構造に適用することができる。
実験結果から,GCGP法は大規模グラフデータを効率よく凝縮し,予測性能を保ち,スケーラビリティと効率性の課題に対処できることが示唆された。
本手法の実装はhttps://github.com/WANGLin0126/GCGPで公開されている。
関連論文リスト
- Contrastive Graph Condensation: Advancing Data Versatility through Self-Supervised Learning [47.74244053386216]
グラフ凝縮は、大規模原グラフのコンパクトで代替的なグラフを合成するための有望な解である。
本稿では、自己教師型代理タスクを取り入れたCTGC(Contrastive Graph Condensation)を導入し、元のグラフから批判的、因果的な情報を抽出する。
CTGCは、様々な下流タスクを限られたラベルで処理し、一貫して最先端のGCメソッドより優れている。
論文 参考訳(メタデータ) (2024-11-26T03:01:22Z) - Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - Amplify Graph Learning for Recommendation via Sparsity Completion [16.32861024767423]
グラフ学習モデルは、協調フィルタリング(CF)ベースのレコメンデーションシステムに広くデプロイされている。
データ疎度の問題により、元の入力のグラフ構造は潜在的な肯定的な嗜好エッジを欠いている。
AGL-SC(Amplify Graph Learning framework)を提案する。
論文 参考訳(メタデータ) (2024-06-27T08:26:20Z) - Efficient Graph Similarity Computation with Alignment Regularization [7.143879014059894]
グラフ類似性計算(GSC)は、グラフニューラルネットワーク(GNN)を用いた学習に基づく予測タスクである。
適応正規化(AReg)と呼ばれる,シンプルながら強力な正規化技術によって,高品質な学習が達成可能であることを示す。
推論段階では、GNNエンコーダによって学習されたグラフレベル表現は、ARegを再度使用せずに直接類似度スコアを計算するために使用される。
論文 参考訳(メタデータ) (2024-06-21T07:37:28Z) - Rethinking and Accelerating Graph Condensation: A Training-Free Approach with Class Partition [49.41718583061147]
グラフ凝縮(Graph condensation)は、大きなグラフを小さいが情報的な凝縮グラフに置き換えるための、データ中心のソリューションである。
既存のGCメソッドは、複雑な最適化プロセス、過剰なコンピューティングリソースとトレーニング時間を必要とする。
我々は、CGC(Class-partitioned Graph Condensation)と呼ばれるトレーニング不要なGCフレームワークを提案する。
CGCはOgbn-productsグラフを30秒以内に凝縮し、102$Xから104$Xまでのスピードアップを実現し、精度は4.2%まで向上した。
論文 参考訳(メタデータ) (2024-05-22T14:57:09Z) - Fast Graph Condensation with Structure-based Neural Tangent Kernel [30.098666399404287]
グラフ構造化データのための新しいデータセット凝縮フレームワーク(GC-SNTK)を提案する。
構造ベースのニューラルタンジェントカーネル(SNTK)はグラフのトポロジを捉えるために開発され、KRRパラダイムのカーネル関数として機能する。
高い予測性能を維持しつつ,グラフ凝縮の高速化における提案モデルの有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-10-17T07:25:59Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z) - Block-Approximated Exponential Random Graphs [77.4792558024487]
指数乱グラフ(ERG)の分野における重要な課題は、大きなグラフ上の非自明なERGの適合である。
本稿では,非自明なERGに対する近似フレームワークを提案する。
我々の手法は、数百万のノードからなるスパースグラフにスケーラブルである。
論文 参考訳(メタデータ) (2020-02-14T11:42:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。