論文の概要: DSSLP: A Distributed Framework for Semi-supervised Link Prediction
- arxiv url: http://arxiv.org/abs/2002.12056v2
- Date: Tue, 10 Mar 2020 14:45:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 09:24:36.600900
- Title: DSSLP: A Distributed Framework for Semi-supervised Link Prediction
- Title(参考訳): DSSLP: 半教師付きリンク予測のための分散フレームワーク
- Authors: Dalong Zhang, Xianzheng Song, Ziqi Liu, Zhiqiang Zhang, Xin Huang, Lin
Wang, Jun Zhou
- Abstract要約: リンク予測は、商人の推薦、不正取引検出など、様々な産業用途で広く利用されている。
数十億のノードとエッジを持つ産業規模のグラフ上でリンク予測モデルをトレーニングし、デプロイすることは、非常に難しいことです。
本稿では,産業規模のグラフを処理可能な半教師付きリンク予測問題(DSSLP)に対して,スケーラブルで分散的なフレームワークを提案する。
- 参考スコア(独自算出の注目度): 18.046307969791858
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Link prediction is widely used in a variety of industrial applications, such
as merchant recommendation, fraudulent transaction detection, and so on.
However, it's a great challenge to train and deploy a link prediction model on
industrial-scale graphs with billions of nodes and edges. In this work, we
present a scalable and distributed framework for semi-supervised link
prediction problem (named DSSLP), which is able to handle industrial-scale
graphs. Instead of training model on the whole graph, DSSLP is proposed to
train on the \emph{$k$-hops neighborhood} of nodes in a mini-batch setting,
which helps reduce the scale of the input graph and distribute the training
procedure. In order to generate negative examples effectively, DSSLP contains a
distributed batched runtime sampling module. It implements uniform and dynamic
sampling approaches, and is able to adaptively construct positive and negative
examples to guide the training process. Moreover, DSSLP proposes a model-split
strategy to accelerate the speed of inference process of the link prediction
task. Experimental results demonstrate that the effectiveness and efficiency of
DSSLP in serval public datasets as well as real-world datasets of
industrial-scale graphs.
- Abstract(参考訳): リンク予測は、商人の推薦、不正取引検出など、様々な産業用途で広く利用されている。
しかし、数十億のノードとエッジを持つ産業規模のグラフ上でリンク予測モデルをトレーニングし、デプロイすることは大きな課題です。
本研究では,産業規模のグラフを扱える半教師付きリンク予測問題(DSSLP)のためのスケーラブルで分散的なフレームワークを提案する。
DSSLPは、グラフ全体のトレーニングモデルではなく、ミニバッチ設定でノードの「emph{$k$-hops neighborhood}」でトレーニングすることを提案しており、入力グラフのスケールを小さくし、トレーニング手順を分散するのに役立つ。
負の例を効果的に生成するために、DSSLPは分散バッチ実行時サンプリングモジュールを含んでいる。
均一および動的サンプリングアプローチを実装し、トレーニングプロセスのガイドとして、正および負のサンプルを適応的に構築することができる。
さらにdsslpはリンク予測タスクの推論処理速度を高速化するためのモデル分割戦略を提案する。
実験により,産業規模グラフのリアルタイムデータセットだけでなく,サービス公開データセットにおけるDSSLPの有効性と効率が示された。
関連論文リスト
- Scalable and Effective Negative Sample Generation for Hyperedge Prediction [55.9298019975967]
ハイパーエッジ予測は、Webベースのアプリケーションにおける複雑なマルチエンタリティ相互作用を理解するために不可欠である。
従来の手法では、正と負のインスタンスの不均衡により、高品質な負のサンプルを生成するのが困難であることが多い。
本稿では,これらの課題に対処するために拡散モデルを利用するハイパーエッジ予測(SEHP)フレームワークのスケーラブルで効果的な負のサンプル生成について述べる。
論文 参考訳(メタデータ) (2024-11-19T09:16:25Z) - MassiveGNN: Efficient Training via Prefetching for Massively Connected Distributed Graphs [11.026326555186333]
本稿では,現在最先端のAmazon DistDGL分散GNNフレームワーク上に,パラメータ化された連続プリフェッチと消去方式を提案する。
NERSC(National Energy Research Scientific Computing Center)のPerlmutterスーパーコンピュータでは、エンドツーエンドのトレーニング性能が15~40%向上している。
論文 参考訳(メタデータ) (2024-10-30T05:10:38Z) - Graph Out-of-Distribution Generalization with Controllable Data
Augmentation [51.17476258673232]
グラフニューラルネットワーク(GNN)は,グラフ特性の分類において異常な性能を示した。
トレーニングとテストデータの選択バイアスが原因で、分散偏差が広まっています。
仮想サンプルの分布偏差を測定するためのOODキャリブレーションを提案する。
論文 参考訳(メタデータ) (2023-08-16T13:10:27Z) - Analyzing the Effect of Sampling in GNNs on Individual Fairness [79.28449844690566]
グラフニューラルネットワーク(GNN)ベースの手法は、レコメンダシステムの分野を飽和させた。
我々は,GNNの学習を支援するために,グラフ上で個別の公平性を促進させる既存手法を拡張した。
本研究では,局所ニュアンスが表現学習における公平化促進の過程を導くことによって,ミニバッチトレーニングが個人の公正化を促進することを示す。
論文 参考訳(メタデータ) (2022-09-08T16:20:25Z) - Scaling Knowledge Graph Embedding Models [12.757685697180946]
本稿では,リンク予測のための知識グラフ埋め込みモデルの学習方法を提案する。
GNNベースの知識グラフ埋め込みモデルのスケーリングソリューションは、ベンチマークデータセットの16倍のスピードアップを実現しています。
論文 参考訳(メタデータ) (2022-01-08T08:34:52Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - OOD-GNN: Out-of-Distribution Generalized Graph Neural Network [73.67049248445277]
グラフニューラルネットワーク(GNN)は、グラフデータのテストとトレーニングを同一の分布から行うことで、優れたパフォーマンスを実現している。
既存のGNNでは、テストとグラフデータのトレーニングの間に分散シフトが存在する場合、その性能が著しく低下する。
本稿では,学習グラフと異なる分布を持つ未確認試験グラフに対して,満足な性能を実現するために,アウト・オブ・ディストリビューション一般化グラフニューラルネットワーク(OOD-GNN)を提案する。
論文 参考訳(メタデータ) (2021-12-07T16:29:10Z) - Bandit Data-Driven Optimization [62.01362535014316]
機械学習パイプラインが設定で有用になるためには、克服しなければならない大きな問題点が4つある。
これらの問題点に対処する最初の反復予測記述フレームワークであるBanditデータ駆動最適化を導入する。
本稿では,このフレームワークの新しいアルゴリズム PROOF を提案する。
論文 参考訳(メタデータ) (2020-08-26T17:50:49Z) - Hop Sampling: A Simple Regularized Graph Learning for Non-Stationary
Environments [12.251253742049437]
グラフ表現学習は、ソーシャルネットワーク分析など、幅広いアプリケーションで人気を集めている。
グラフニューラルネットワーク(GNN)を現実のアプリケーションに適用することは、静止しない環境のため、依然として難しい。
ホップサンプリング(Hop Smpling)は,GNNの過剰漁を効果的に防止できる簡単な正規化手法である。
論文 参考訳(メタデータ) (2020-06-26T10:22:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。