論文の概要: Simplifying Subgraph Representation Learning for Scalable Link
Prediction
- arxiv url: http://arxiv.org/abs/2301.12562v1
- Date: Sun, 29 Jan 2023 22:20:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 16:20:38.861390
- Title: Simplifying Subgraph Representation Learning for Scalable Link
Prediction
- Title(参考訳): スケーラブルリンク予測のための部分グラフ表現学習の簡略化
- Authors: Paul Louis, Shweta Ann Jacob and Amirali Salehi-Abari
- Abstract要約: グラフ表現学習手法(SGRL)は,対象リンク周辺のグラフ分類にリンク予測を変換する。
最先端の性能にもかかわらず、SGRLは計算コストが高く、ターゲットリンクごとに高価なサブグラフレベルの演算を行うため、大規模グラフには拡張性がない。
スケーラブルSGRL(Scalable Simplified SGRL)と呼ばれる新しいSGRLのクラスを提案する。
- 参考スコア(独自算出の注目度): 2.1270496914042996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Link prediction on graphs is a fundamental problem in graph representation
learning. Subgraph representation learning approaches (SGRLs), by transforming
link prediction to graph classification on the subgraphs around the target
links, have advanced the learning capability of Graph Neural Networks (GNNs)
for link prediction. Despite their state-of-the-art performance, SGRLs are
computationally expensive, and not scalable to large-scale graphs due to their
expensive subgraph-level operations for each target link. To unlock the
scalability of SGRLs, we propose a new class of SGRLs, that we call Scalable
Simplified SGRL (S3GRL). Aimed at faster training and inference, S3GRL
simplifies the message passing and aggregation operations in each link's
subgraph. S3GRL, as a scalability framework, flexibly accommodates various
subgraph sampling strategies and diffusion operators to emulate
computationally-expensive SGRLs. We further propose and empirically study
multiple instances of S3GRL. Our extensive experiments demonstrate that the
proposed S3GRL models scale up SGRLs without any significant performance
compromise (even with considerable gains in some cases), while offering
substantially lower computational footprints (e.g., multi-fold inference and
training speedup).
- Abstract(参考訳): グラフ上のリンク予測は、グラフ表現学習の基本的な問題である。
グラフ表現学習手法(SGRL)は,リンク予測を対象リンク周辺のグラフ分類に変換することで,リンク予測のためのグラフニューラルネットワーク(GNN)の学習能力を向上した。
最先端の性能にもかかわらず、SGRLは計算コストが高く、ターゲットリンクごとに高価なサブグラフレベルの演算を行うため、大規模グラフには拡張性がない。
SGRLのスケーラビリティを解放するために,SGRLの新たなクラスを提案し,SGRL(Scalable Simplified SGRL)と呼ぶ。
高速なトレーニングと推論を目的としたS3GRLは、各リンクのサブグラフにおけるメッセージパッシングとアグリゲーション操作を単純化する。
拡張性フレームワークであるS3GRLは、様々なサブグラフサンプリング戦略や拡散演算子に柔軟に対応し、計算的に拡張可能なSGRLをエミュレートする。
さらに,S3GRLの複数事例について実験的に検討した。
広範な実験により,提案するs3grlモデルがsgrlを大幅な性能上の妥協なくスケールアップできることが示され,計算量を大幅に削減した(マルチフォールド推論やトレーニングスピードアップなど)。
関連論文リスト
- Variational Graph Contrastive Learning [1.9950682531209158]
グラフ表現学習(GRL)は、高次元グラフ構造化データを低次元ベクトルに符号化することを目的とした機械学習の基本課題である。
本研究では,SGEC(Subgraph Gaussian Embedding Contrast)法を提案する。
論文 参考訳(メタデータ) (2024-11-11T17:23:07Z) - GES: Generalized Exponential Splatting for Efficient Radiance Field Rendering [112.16239342037714]
GES(Generalized Exponential Splatting)は、GEF(Generalized Exponential Function)を用いて3Dシーンをモデル化する斬新な表現である。
周波数変調損失の助けを借りて、GESは新規なビュー合成ベンチマークにおいて競合性能を達成する。
論文 参考訳(メタデータ) (2024-02-15T17:32:50Z) - Graph Transformers for Large Graphs [57.19338459218758]
この研究は、モデルの特徴と重要な設計制約を識別することに焦点を当てた、単一の大規模グラフでの表現学習を前進させる。
この研究の重要な革新は、局所的な注意機構と組み合わされた高速な近傍サンプリング技術の作成である。
ogbn-products と snap-patents の3倍の高速化と16.8%の性能向上を報告し、ogbn-100M で LargeGT を5.9% の性能改善で拡張した。
論文 参考訳(メタデータ) (2023-12-18T11:19:23Z) - Rethinking and Simplifying Bootstrapped Graph Latents [48.76934123429186]
グラフ・コントラッシブ・ラーニング(GCL)はグラフ自己教師型ラーニングにおいて代表的なパラダイムとして登場した。
SGCLは2つの繰り返しの出力を正のペアとして利用するシンプルで効果的なGCLフレームワークである。
我々は,SGCLがより少ないパラメータ,少ない時間と空間コスト,およびかなりの収束速度で競合性能を達成可能であることを示す。
論文 参考訳(メタデータ) (2023-12-05T09:49:50Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - RLIPv2: Fast Scaling of Relational Language-Image Pre-training [53.21796397618875]
本稿では,大規模な擬似ラベル付きシーングラフデータに対する事前学習のリレーショナルスケーリングを可能にする高速収束モデルRLIPv2を提案する。
非対称言語画像融合 (ALIF) は、より早く、より深く分岐したクロスモーダル融合と、スパシファイド言語による符号化を容易にする。
RLIPv2は、3つのベンチマークで、完全な微調整、少数ショット、ゼロショット設定で、最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-08-18T07:17:09Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Algorithm and System Co-design for Efficient Subgraph-based Graph
Representation Learning [16.170895692951]
グラフ表現学習(SGRL)は、最近、標準グラフニューラルネットワーク(GNN)が直面するいくつかの根本的な課題に対処するために提案されている。
本稿では,学習アルゴリズムとそのシステムサポートを共同設計し,スケーラブルなSGRLのための新しいフレームワークSURELを提案する。
論文 参考訳(メタデータ) (2022-02-28T04:29:22Z) - Distributed Multi-Agent Reinforcement Learning Based on Graph-Induced Local Value Functions [7.6860514640178]
協調型マルチエージェント強化学習(MARL)のための計算効率の良い分散フレームワークを提案する。
MARLにおける3種類のエージェント間カップリングを記述した3つのカップリンググラフを導入する。
結合グラフから導出した局所値関数に基づく2つの分散RL手法を提案する。
論文 参考訳(メタデータ) (2022-02-26T03:01:51Z) - GIST: Distributed Training for Large-Scale Graph Convolutional Networks [18.964079367668262]
GISTはハイブリッド層とグラフサンプリング手法であり、グローバルモデルをいくつかの小さなサブGCNに分割する。
この分散フレームワークはモデルのパフォーマンスを改善し、ウォールクロックのトレーニング時間を大幅に短縮します。
GISTは、グラフ機械学習とディープラーニングの既存のギャップを埋めることを目的として、大規模なGCN実験を可能にすることを目指している。
論文 参考訳(メタデータ) (2021-02-20T19:25:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。