論文の概要: Inference-friendly Graph Compression for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2504.13034v1
- Date: Thu, 17 Apr 2025 15:42:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 14:36:00.448672
- Title: Inference-friendly Graph Compression for Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークのための推論フレンドリなグラフ圧縮
- Authors: Yangxin Fan, Haolai Che, Yinghui Wu,
- Abstract要約: グラフニューラルネットワーク(GNN)は,グラフ解析において有望な性能を示した。
本稿では、GNNの推論を高速化するために、IFGC(inference- friendly graph compression)を提案する。
- 参考スコア(独自算出の注目度): 7.7087371011817
- License:
- Abstract: Graph Neural Networks (GNNs) have demonstrated promising performance in graph analysis. Nevertheless, the inference process of GNNs remains costly, hindering their applications for large graphs. This paper proposes inference-friendly graph compression (IFGC), a graph compression scheme to accelerate GNNs inference. Given a graph $G$ and a GNN $M$, an IFGC computes a small compressed graph $G_c$, to best preserve the inference results of $M$ over $G$, such that the result can be directly inferred by accessing $G_c$ with no or little decompression cost. (1) We characterize IFGC with a class of inference equivalence relation. The relation captures the node pairs in $G$ that are not distinguishable for GNN inference. (2) We introduce three practical specifications of IFGC for representative GNNs: structural preserving compression (SPGC), which computes $G_c$ that can be directly processed by GNN inference without decompression; ($\alpha$, $r$)-compression, that allows for a configurable trade-off between compression ratio and inference quality, and anchored compression that preserves inference results for specific nodes of interest. For each scheme, we introduce compression and inference algorithms with guarantees of efficiency and quality of the inferred results. We conduct extensive experiments on diverse sets of large-scale graphs, which verifies the effectiveness and efficiency of our graph compression approaches.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,グラフ解析において有望な性能を示した。
それでも、GNNの推論プロセスはコストがかかり、大きなグラフへの適用を妨げている。
本稿では,GNNの推論を高速化するグラフ圧縮方式であるIFGCを提案する。
IFGCは、グラフ$G$とGNN$M$を与えられたとき、圧縮された小さなグラフ$G_c$を計算し、$M$ over $G$の推論結果を最もよく保存し、その結果は、圧縮コストが全くまたはほとんどない$G_c$にアクセスできる。
1) IFGCを推論同値関係のクラスで特徴づける。
この関係はGNN推論では区別できない$G$でノードペアをキャプチャする。
2) 代表的GNNに対してIFGCの実用的な3つの仕様を紹介する: 構造保存圧縮 (SPGC) は、GNNの推論で直接処理できる$G_c$ を計算し、圧縮比と推論品質のトレードオフを設定可能とし、興味のある特定のノードの推論結果を保存するアンカー圧縮である。
各スキームに対して,推定結果の効率と品質を保証した圧縮と推論アルゴリズムを導入する。
大規模グラフの多種多様な集合に関する広範な実験を行い、グラフ圧縮手法の有効性と効率を検証した。
関連論文リスト
- Efficient Graph Condensation via Gaussian Process [11.304327316816561]
グラフ凝縮は、性能を維持しながら大きなグラフのサイズを減らす。
既存の手法はしばしば二段階最適化に依存しており、広範囲なGNNトレーニングとスケーラビリティの制限を必要とする。
本稿では,ガウス過程を用いたグラフ凝縮法(GCGP)を提案する。
論文 参考訳(メタデータ) (2025-01-05T14:43:07Z) - Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - Graph Sparsification via Mixture of Graphs [67.40204130771967]
そこで我々はMixture-of-Graphs (MoG)を導入し、各ノードに対して動的に調整されたプルーニングソリューションを選択する。
MoGには複数のスパシファイアの専門家が組み込まれており、それぞれが独自のスパーシリティレベルとプルーニング基準によって特徴付けられ、各ノードに対して適切な専門家を選択する。
5つのGNNを備えた4つの大規模OGBデータセットと2つのスーパーピクセルデータセットの実験により、MoGはより高い空間レベルのサブグラフを識別することを示した。
論文 参考訳(メタデータ) (2024-05-23T07:40:21Z) - Robust Graph Clustering via Meta Weighting for Noisy Graphs [26.24435553586214]
グラフクラスタリングは、様々な分野のアプリケーションによるグラフ解析の基本的な問題である。
近年の研究では、グラフニューラルネットワーク(GNN)に基づくアプローチがグラフクラスタリングに有望な結果をもたらすことが示されている。
堅牢なGNNグラフクラスタリングのためのMetaGCを提案する。
論文 参考訳(メタデータ) (2023-11-01T06:12:34Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - InferTurbo: A Scalable System for Boosting Full-graph Inference of Graph
Neural Network over Huge Graphs [14.97743380650934]
本稿では,産業シナリオにおけるGNN推論タスクの促進を目的としたInferというシステムを提案する。
シンク・ライク・ア・頂点の哲学に触発されたGASのようなスキーマは、GNN推論の計算パラダイムとデータフローを記述するために提案される。
本システムは,エッジが多数あるいくつかのハブノードを含むグラフ上の推論タスクに対して,堅牢かつ効率的である。
論文 参考訳(メタデータ) (2023-07-01T05:23:28Z) - Training Free Graph Neural Networks for Graph Matching [103.45755859119035]
TFGMは、グラフニューラルネットワーク(GNN)ベースのグラフマッチングのパフォーマンスをトレーニングなしで向上するフレームワークである。
TFGMをさまざまなGNNに適用することは、ベースラインよりも有望な改善を示している。
論文 参考訳(メタデータ) (2022-01-14T09:04:46Z) - Imbalanced Graph Classification via Graph-of-Graph Neural Networks [16.589373163769853]
グラフニューラルネットワーク(GNN)は、グラフの分類ラベルを識別するグラフ表現の学習において、前例のない成功を収めている。
本稿では,グラフ不均衡問題を軽減する新しいフレームワークであるグラフ・オブ・グラフニューラルネットワーク(G$2$GNN)を提案する。
提案したG$2$GNNは,F1-macroとF1-microのスコアにおいて,多くのベースラインを約5%上回る性能を示した。
論文 参考訳(メタデータ) (2021-12-01T02:25:47Z) - $p$-Laplacian Based Graph Neural Networks [27.747195341003263]
グラフネットワーク(GNN)は、グラフ上の半教師付きノード分類において優れた性能を示す。
我々は、離散正規化フレームワークからメッセージパッシング機構を導出する$p$GNNと呼ばれる新しい$p$LaplacianベースのGNNモデルを提案する。
新たなメッセージパッシング機構は低域通過フィルタと高域通過フィルタを同時に動作させることで,ホモ親和性グラフとヘテロ親和性グラフの両方に対して$p$GNNを有効にすることができることを示す。
論文 参考訳(メタデータ) (2021-11-14T13:16:28Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。