論文の概要: Scaling R-GCN Training with Graph Summarization
- arxiv url: http://arxiv.org/abs/2203.02622v1
- Date: Sat, 5 Mar 2022 00:28:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 14:31:23.114528
- Title: Scaling R-GCN Training with Graph Summarization
- Title(参考訳): グラフ要約によるR-GCNのスケーリングトレーニング
- Authors: Alessandro Generale and Till Blume and Michael Cochez
- Abstract要約: リレーショナルグラフ畳み込みネットワーク(R-GCN)のトレーニングは、グラフのサイズに合わない。
本研究では,グラフの要約手法を用いてグラフを圧縮する実験を行った。
AIFB, MUTAG, AMデータセットについて妥当な結果を得た。
- 参考スコア(独自算出の注目度): 71.06855946732296
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training of Relation Graph Convolutional Networks (R-GCN) does not scale well
with the size of the graph. The amount of gradient information that needs to be
stored during training for real-world graphs is often too large for the amount
of memory available on most GPUs. In this work, we experiment with the use of
graph summarization techniques to compress the graph and hence reduce the
amount of memory needed. After training the R-GCN on the graph summary, we
transfer the weights back to the original graph and attempt to perform
inference on it. We obtain reasonable results on the AIFB, MUTAG and AM
datasets. This supports the importance and relevancy of graph summarization
methods, whose smaller graph representations scale and reduce the computational
overhead involved with novel machine learning models dealing with large
Knowledge Graphs. However, further experiments are needed to evaluate whether
this also holds true for very large graphs.
- Abstract(参考訳): 関係グラフ畳み込みネットワーク(r-gcn)のトレーニングは、グラフのサイズに合わせてうまくスケールしない。
実世界のグラフのトレーニング中に格納する必要がある勾配情報の量は、ほとんどのGPUで利用可能なメモリ量には大きすぎることが多い。
本研究では,グラフを圧縮し,必要なメモリ量を削減するために,グラフ要約手法を用いて実験を行った。
グラフ要約に基づいてR-GCNを訓練した後、重みを元のグラフに戻し、それを推論しようとする。
AIFB, MUTAG, AMデータセットについて妥当な結果を得た。
これは、グラフ表現が小さくなり、大きな知識グラフを扱う新しい機械学習モデルに関わる計算オーバーヘッドが削減されるグラフ要約手法の重要性と関連性をサポートする。
しかし、これは非常に大きなグラフにも当てはまるかどうかを評価するためにはさらなる実験が必要である。
関連論文リスト
- Learning on Large Graphs using Intersecting Communities [13.053266613831447]
MPNNは、各ノードの隣人からのメッセージを集約することで、入力グラフ内の各ノードの表現を反復的に更新する。
MPNNは、あまりスパースではないため、すぐに大きなグラフの禁止になるかもしれない。
本稿では,入力グラフを交差するコミュニティグラフ (ICG) として近似することを提案する。
論文 参考訳(メタデータ) (2024-05-31T09:26:26Z) - A Topology-aware Graph Coarsening Framework for Continual Graph Learning [8.136809136959302]
グラフに関する継続的な学習は、グラフデータがストリーミング形式で到着するグラフニューラルネットワーク(GNN)のトレーニングに対処する。
Experience Replayのような従来の継続的学習戦略は、ストリーミンググラフに適応することができる。
本稿では, TA$mathbbCO$, a (t)opology-(a)ware graph (co)arsening and (co)ntinual learning frameworkを提案する。
論文 参考訳(メタデータ) (2024-01-05T22:22:13Z) - Structure-free Graph Condensation: From Large-scale Graphs to Condensed
Graph-free Data [91.27527985415007]
既存のグラフ凝縮法は、凝縮グラフ内のノードと構造の合同最適化に依存している。
我々は、大規模グラフを小さなグラフノード集合に蒸留する、SFGCと呼ばれる新しい構造自由グラフ凝縮パラダイムを提唱する。
論文 参考訳(メタデータ) (2023-06-05T07:53:52Z) - Scalable Graph Convolutional Network Training on Distributed-Memory
Systems [5.169989177779801]
グラフ畳み込みネットワーク(GCN)はグラフの深層学習に広く利用されている。
グラフ上の畳み込み操作は不規則なメモリアクセスパターンを誘導するので、GCNトレーニングのためのメモリと通信効率の並列アルゴリズムを設計することはユニークな課題である。
本稿では,大規模プロセッサ数にスケールする並列トレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-09T17:51:13Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Graph Condensation for Graph Neural Networks [34.4899280207043]
グラフニューラルネットワーク(GNN)におけるグラフ凝縮の問題点について検討する。
我々は、この大きなオリジナルグラフを、小さく、合成され、高度にインフォームティブなグラフに凝縮することを目指している。
私たちはオリジナルのテスト精度をRedditで95.3%、Flickrで99.8%、Citeseerで99.0%と近似することができる。
論文 参考訳(メタデータ) (2021-10-14T17:42:14Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - Graph Coarsening with Neural Networks [8.407217618651536]
本稿では、粗いアルゴリズムの品質を測定するためのフレームワークを提案し、目標に応じて、粗いグラフ上のLaplace演算子を慎重に選択する必要があることを示す。
粗いグラフに対する現在のエッジウェイト選択が準最適である可能性が示唆され、グラフニューラルネットワークを用いて重み付けマップをパラメータ化し、教師なし方法で粗い品質を改善するよう訓練する。
論文 参考訳(メタデータ) (2021-02-02T06:50:07Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。