論文の概要: Simplifying Subgraph Representation Learning for Scalable Link Prediction
- arxiv url: http://arxiv.org/abs/2301.12562v4
- Date: Thu, 17 Oct 2024 19:13:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-21 14:21:58.112715
- Title: Simplifying Subgraph Representation Learning for Scalable Link Prediction
- Title(参考訳): スケーラブルリンク予測のための部分グラフ表現学習の簡易化
- Authors: Paul Louis, Shweta Ann Jacob, Amirali Salehi-Abari,
- Abstract要約: 部分グラフ表現学習アプローチ (SGRL) はリンク周辺のグラフ分類にリンク予測を変換する。
SGRLは計算コストが高く、高価なサブグラフレベルの演算のために大規模グラフには拡張性がない。
スケーラブルSGRL(Scalable Simplified SGRL)と呼ばれる新しいSGRLのクラスを提案する。
S3GRLは、各リンクのサブグラフにおけるメッセージパッシングとアグリゲーション操作を単純化する。
- 参考スコア(独自算出の注目度): 2.2940141855172036
- License:
- Abstract: Link prediction on graphs is a fundamental problem. Subgraph representation learning approaches (SGRLs), by transforming link prediction to graph classification on the subgraphs around the links, have achieved state-of-the-art performance in link prediction. However, SGRLs are computationally expensive, and not scalable to large-scale graphs due to expensive subgraph-level operations. To unlock the scalability of SGRLs, we propose a new class of SGRLs, that we call Scalable Simplified SGRL (S3GRL). Aimed at faster training and inference, S3GRL simplifies the message passing and aggregation operations in each link's subgraph. S3GRL, as a scalability framework, accommodates various subgraph sampling strategies and diffusion operators to emulate computationally-expensive SGRLs. We propose multiple instances of S3GRL and empirically study them on small to large-scale graphs. Our extensive experiments demonstrate that the proposed S3GRL models scale up SGRLs without significant performance compromise (even with considerable gains in some cases), while offering substantially lower computational footprints (e.g., multi-fold inference and training speedup).
- Abstract(参考訳): グラフ上のリンク予測は根本的な問題である。
サブグラフ表現学習手法(SGRL)はリンク予測からリンク周辺のグラフ分類への変換によって,リンク予測における最先端性能を実現している。
しかし、SGRLは計算コストが高く、高価なサブグラフレベルの演算のため、大規模グラフには拡張性がない。
SGRLのスケーラビリティを解放するために,SGRLの新たなクラスを提案し,SGRL (Scalable Simplified SGRL) と呼ぶ。
高速なトレーニングと推論を目的としたS3GRLは、各リンクのサブグラフにおけるメッセージパッシングとアグリゲーション操作を単純化する。
S3GRLは、拡張性のあるフレームワークとして、様々なサブグラフサンプリング戦略と拡散演算子に対応し、計算的なSGRLをエミュレートする。
本稿では、S3GRLの複数の例を提案し、それらを小規模・大規模グラフ上で実証的に研究する。
提案したS3GRLモデルでは,計算フットプリントが大幅に小さく(例えば,マルチフォールド推論やトレーニングスピードアップなど),性能上の大きな損なわれることなくSGRLをスケールアップすることを示した。
関連論文リスト
- GES: Generalized Exponential Splatting for Efficient Radiance Field Rendering [112.16239342037714]
GES(Generalized Exponential Splatting)は、GEF(Generalized Exponential Function)を用いて3Dシーンをモデル化する斬新な表現である。
周波数変調損失の助けを借りて、GESは新規なビュー合成ベンチマークにおいて競合性能を達成する。
論文 参考訳(メタデータ) (2024-02-15T17:32:50Z) - Graph Transformers for Large Graphs [57.19338459218758]
この研究は、モデルの特徴と重要な設計制約を識別することに焦点を当てた、単一の大規模グラフでの表現学習を前進させる。
この研究の重要な革新は、局所的な注意機構と組み合わされた高速な近傍サンプリング技術の作成である。
ogbn-products と snap-patents の3倍の高速化と16.8%の性能向上を報告し、ogbn-100M で LargeGT を5.9% の性能改善で拡張した。
論文 参考訳(メタデータ) (2023-12-18T11:19:23Z) - Rethinking and Simplifying Bootstrapped Graph Latents [48.76934123429186]
グラフ・コントラッシブ・ラーニング(GCL)はグラフ自己教師型ラーニングにおいて代表的なパラダイムとして登場した。
SGCLは2つの繰り返しの出力を正のペアとして利用するシンプルで効果的なGCLフレームワークである。
我々は,SGCLがより少ないパラメータ,少ない時間と空間コスト,およびかなりの収束速度で競合性能を達成可能であることを示す。
論文 参考訳(メタデータ) (2023-12-05T09:49:50Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - RLIPv2: Fast Scaling of Relational Language-Image Pre-training [53.21796397618875]
本稿では,大規模な擬似ラベル付きシーングラフデータに対する事前学習のリレーショナルスケーリングを可能にする高速収束モデルRLIPv2を提案する。
非対称言語画像融合 (ALIF) は、より早く、より深く分岐したクロスモーダル融合と、スパシファイド言語による符号化を容易にする。
RLIPv2は、3つのベンチマークで、完全な微調整、少数ショット、ゼロショット設定で、最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-08-18T07:17:09Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Algorithm and System Co-design for Efficient Subgraph-based Graph
Representation Learning [16.170895692951]
グラフ表現学習(SGRL)は、最近、標準グラフニューラルネットワーク(GNN)が直面するいくつかの根本的な課題に対処するために提案されている。
本稿では,学習アルゴリズムとそのシステムサポートを共同設計し,スケーラブルなSGRLのための新しいフレームワークSURELを提案する。
論文 参考訳(メタデータ) (2022-02-28T04:29:22Z) - Distributed Multi-Agent Reinforcement Learning Based on Graph-Induced Local Value Functions [7.6860514640178]
協調型マルチエージェント強化学習(MARL)のための計算効率の良い分散フレームワークを提案する。
MARLにおける3種類のエージェント間カップリングを記述した3つのカップリンググラフを導入する。
結合グラフから導出した局所値関数に基づく2つの分散RL手法を提案する。
論文 参考訳(メタデータ) (2022-02-26T03:01:51Z) - GIST: Distributed Training for Large-Scale Graph Convolutional Networks [18.964079367668262]
GISTはハイブリッド層とグラフサンプリング手法であり、グローバルモデルをいくつかの小さなサブGCNに分割する。
この分散フレームワークはモデルのパフォーマンスを改善し、ウォールクロックのトレーニング時間を大幅に短縮します。
GISTは、グラフ機械学習とディープラーニングの既存のギャップを埋めることを目的として、大規模なGCN実験を可能にすることを目指している。
論文 参考訳(メタデータ) (2021-02-20T19:25:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。