論文の概要: Scaling Knowledge Graph Embedding Models
- arxiv url: http://arxiv.org/abs/2201.02791v1
- Date: Sat, 8 Jan 2022 08:34:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-11 14:39:36.482964
- Title: Scaling Knowledge Graph Embedding Models
- Title(参考訳): 知識グラフ埋め込みモデルのスケーリング
- Authors: Nasrullah Sheikh, Xiao Qin, Berthold Reinwald, Chuan Lei
- Abstract要約: 本稿では,リンク予測のための知識グラフ埋め込みモデルの学習方法を提案する。
GNNベースの知識グラフ埋め込みモデルのスケーリングソリューションは、ベンチマークデータセットの16倍のスピードアップを実現しています。
- 参考スコア(独自算出の注目度): 12.757685697180946
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Developing scalable solutions for training Graph Neural Networks (GNNs) for
link prediction tasks is challenging due to the high data dependencies which
entail high computational cost and huge memory footprint. We propose a new
method for scaling training of knowledge graph embedding models for link
prediction to address these challenges. Towards this end, we propose the
following algorithmic strategies: self-sufficient partitions, constraint-based
negative sampling, and edge mini-batch training. Both, partitioning strategy
and constraint-based negative sampling, avoid cross partition data transfer
during training. In our experimental evaluation, we show that our scaling
solution for GNN-based knowledge graph embedding models achieves a 16x speed up
on benchmark datasets while maintaining a comparable model performance as
non-distributed methods on standard metrics.
- Abstract(参考訳): リンク予測タスクのためのグラフニューラルネットワーク(GNN)をトレーニングするためのスケーラブルなソリューションの開発は、高い計算コストと巨大なメモリフットプリントを必要とする高いデータ依存関係のため、難しい。
本稿では,これらの課題に対処するためのリンク予測のための知識グラフ埋め込みモデルの学習方法を提案する。
この目的に向けて,自己充足分割,制約に基づく負サンプリング,エッジミニバッチトレーニングというアルゴリズム戦略を提案する。
分割戦略と制約に基づく負のサンプリングはどちらも、トレーニング中のクロスパーティションデータ転送を避ける。
実験の結果,GNNベースの知識グラフ埋め込みモデルのスケーリングソリューションは,ベンチマークデータセットの16倍の高速化を実現し,標準メトリクスの非分散手法と同等の性能を維持した。
関連論文リスト
- FIT-GNN: Faster Inference Time for GNNs Using Coarsening [1.323700980948722]
粗大化に基づく手法は、グラフをより小さなグラフに減らし、より高速な計算をもたらす。
従来の研究は、推論フェーズにおける計算コストに十分な対処を行っていなかった。
本稿では,GNNの学習と推論の両段階における計算負担を軽減することにより,GNNのスケーラビリティを向上させる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-19T06:27:24Z) - Novel Representation Learning Technique using Graphs for Performance
Analytics [0.0]
本稿では,グラフニューラルネットワーク(GNN)技術の進歩を活用するために,パフォーマンスデータをグラフに変換する新しいアイデアを提案する。
ソーシャルネットワークのような他の機械学習アプリケーションドメインとは対照的に、グラフは提供されない。
我々は,GNNから生成された埋め込みの有効性を,単純なフィードフォワードニューラルネットワークによる回帰処理の性能評価に基づいて評価した。
論文 参考訳(メタデータ) (2024-01-19T16:34:37Z) - Addressing the Impact of Localized Training Data in Graph Neural
Networks [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習において顕著な成功を収めた。
本稿では,グラフの局所化部分集合に対するGNNのトレーニングの影響を評価することを目的とする。
本稿では,局所化学習データとグラフ推論との分散不一致を最小化する正規化手法を提案する。
論文 参考訳(メタデータ) (2023-07-24T11:04:22Z) - Towards a Better Theoretical Understanding of Independent Subnetwork Training [56.24689348875711]
独立サブネットワークトレーニング(IST)の理論的考察
ISTは、上記の問題を解決するための、最近提案され、非常に効果的である。
圧縮通信を用いた分散手法など,ISTと代替手法の基本的な違いを同定する。
論文 参考訳(メタデータ) (2023-06-28T18:14:22Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - Deep Manifold Learning with Graph Mining [80.84145791017968]
グラフマイニングのための非段階的決定層を持つ新しいグラフ深層モデルを提案する。
提案モデルでは,現行モデルと比較して最先端性能を実現している。
論文 参考訳(メタデータ) (2022-07-18T04:34:08Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Distributionally Robust Semi-Supervised Learning Over Graphs [68.29280230284712]
グラフ構造化データに対する半教師付き学習(SSL)は、多くのネットワークサイエンスアプリケーションに現れる。
グラフ上の学習を効率的に管理するために,近年,グラフニューラルネットワーク(GNN)の変種が開発されている。
実際に成功したにも拘わらず、既存の手法のほとんどは、不確実な結節属性を持つグラフを扱うことができない。
ノイズ測定によって得られたデータに関連する分布の不確実性によっても問題が発生する。
分散ロバストな学習フレームワークを開発し,摂動に対する定量的ロバスト性を示すモデルを訓練する。
論文 参考訳(メタデータ) (2021-10-20T14:23:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。