論文の概要: Graph Condensation for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2110.07580v1
- Date: Thu, 14 Oct 2021 17:42:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-15 12:50:25.937694
- Title: Graph Condensation for Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークのためのグラフ凝縮
- Authors: Wei Jin, Lingxiao Zhao, Shichang Zhang, Yozen Liu, Jiliang Tang, Neil
Shah
- Abstract要約: グラフニューラルネットワーク(GNN)におけるグラフ凝縮の問題点について検討する。
我々は、この大きなオリジナルグラフを、小さく、合成され、高度にインフォームティブなグラフに凝縮することを目指している。
私たちはオリジナルのテスト精度をRedditで95.3%、Flickrで99.8%、Citeseerで99.0%と近似することができる。
- 参考スコア(独自算出の注目度): 34.4899280207043
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given the prevalence of large-scale graphs in real-world applications, the
storage and time for training neural models have raised increasing concerns. To
alleviate the concerns, we propose and study the problem of graph condensation
for graph neural networks (GNNs). Specifically, we aim to condense the large,
original graph into a small, synthetic and highly-informative graph, such that
GNNs trained on the small graph and large graph have comparable performance. We
approach the condensation problem by imitating the GNN training trajectory on
the original graph through the optimization of a gradient matching loss and
design a strategy to condense node futures and structural information
simultaneously. Extensive experiments have demonstrated the effectiveness of
the proposed framework in condensing different graph datasets into informative
smaller graphs. In particular, we are able to approximate the original test
accuracy by 95.3% on Reddit, 99.8% on Flickr and 99.0% on Citeseer, while
reducing their graph size by more than 99.9%, and the condensed graphs can be
used to train various GNN architectures.
- Abstract(参考訳): 現実世界のアプリケーションにおける大規模グラフの普及を考えると、ニューラルネットワークのトレーニングのためのストレージと時間の増大が懸念されている。
これらの問題を軽減するため,グラフニューラルネットワーク(GNN)におけるグラフ凝縮問題を提案し,検討する。
具体的には、GNNが小さなグラフで訓練し、大きなグラフが同等の性能を持つような、巨大で合成的で高インフォーマティブなグラフにまとめることを目的としている。
勾配整合損失の最適化による元のグラフ上のgnn学習軌跡を模倣し,ノード未来と構造情報を同時に凝縮する戦略を設計することにより,凝縮問題にアプローチする。
大規模な実験では、異なるグラフデータセットをより小さなグラフに凝縮する際のフレームワークの有効性が実証されている。
特に、元のテスト精度をredditで95.3%、flickrで99.8%、citeseerで99.0%、グラフサイズを99.9%以上削減でき、凝縮グラフを様々なgnnアーキテクチャのトレーニングに使うことができる。
関連論文リスト
- TinyGraph: Joint Feature and Node Condensation for Graph Neural Networks [14.8325651280105]
大規模グラフ上でのグラフニューラルネットワーク(GNN)のトレーニングは、高い計算コストのために困難である。
既存のグラフ凝縮の研究は、グラフ内のノード数を減少させることによってのみこの問題に取り組む。
グラフで特徴とノードを同時に結集する新しいフレームワークであるTinyGraphを提案する。
論文 参考訳(メタデータ) (2024-07-10T21:54:12Z) - A Topology-aware Graph Coarsening Framework for Continual Graph Learning [8.136809136959302]
グラフに関する継続的な学習は、グラフデータがストリーミング形式で到着するグラフニューラルネットワーク(GNN)のトレーニングに対処する。
Experience Replayのような従来の継続的学習戦略は、ストリーミンググラフに適応することができる。
本稿では, TA$mathbbCO$, a (t)opology-(a)ware graph (co)arsening and (co)ntinual learning frameworkを提案する。
論文 参考訳(メタデータ) (2024-01-05T22:22:13Z) - Fast Graph Condensation with Structure-based Neural Tangent Kernel [30.098666399404287]
グラフ構造化データのための新しいデータセット凝縮フレームワーク(GC-SNTK)を提案する。
構造ベースのニューラルタンジェントカーネル(SNTK)はグラフのトポロジを捉えるために開発され、KRRパラダイムのカーネル関数として機能する。
高い予測性能を維持しつつ,グラフ凝縮の高速化における提案モデルの有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-10-17T07:25:59Z) - Graph Condensation for Inductive Node Representation Learning [59.76374128436873]
マッピング対応グラフ凝縮法(MCond)を提案する。
MCondは、帰納的表現学習のための合成グラフに新しいノードを統合する。
Redditデータセットでは、最大121.5倍の推論スピードアップと55.9倍のストレージ要求の削減を実現している。
論文 参考訳(メタデータ) (2023-07-29T12:11:14Z) - Structure-free Graph Condensation: From Large-scale Graphs to Condensed
Graph-free Data [91.27527985415007]
既存のグラフ凝縮法は、凝縮グラフ内のノードと構造の合同最適化に依存している。
我々は、大規模グラフを小さなグラフノード集合に蒸留する、SFGCと呼ばれる新しい構造自由グラフ凝縮パラダイムを提唱する。
論文 参考訳(メタデータ) (2023-06-05T07:53:52Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Scaling R-GCN Training with Graph Summarization [71.06855946732296]
リレーショナルグラフ畳み込みネットワーク(R-GCN)のトレーニングは、グラフのサイズに合わない。
本研究では,グラフの要約手法を用いてグラフを圧縮する実験を行った。
AIFB, MUTAG, AMデータセットについて妥当な結果を得た。
論文 参考訳(メタデータ) (2022-03-05T00:28:43Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - Graph Coarsening with Neural Networks [8.407217618651536]
本稿では、粗いアルゴリズムの品質を測定するためのフレームワークを提案し、目標に応じて、粗いグラフ上のLaplace演算子を慎重に選択する必要があることを示す。
粗いグラフに対する現在のエッジウェイト選択が準最適である可能性が示唆され、グラフニューラルネットワークを用いて重み付けマップをパラメータ化し、教師なし方法で粗い品質を改善するよう訓練する。
論文 参考訳(メタデータ) (2021-02-02T06:50:07Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。