論文の概要: River of No Return: Graph Percolation Embeddings for Efficient Knowledge
Graph Reasoning
- arxiv url: http://arxiv.org/abs/2305.09974v1
- Date: Wed, 17 May 2023 06:13:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-18 17:24:35.196901
- Title: River of No Return: Graph Percolation Embeddings for Efficient Knowledge
Graph Reasoning
- Title(参考訳): River of No Return: 効率的な知識グラフ推論のためのグラフパーコレーション埋め込み
- Authors: Kai Wang and Siqiang Luo and Dan Lin
- Abstract要約: 知識グラフ推論のためのグラフニューラルネットワーク(GNN)に基づく埋め込み技術について検討する。
モデルトレーニングにおいて,パスエンコーディングとメッセージパッシングに基づく最先端KG推論モデルにおけるパス冗長性の問題と,変換エラーへのメッセージパッシングを初めてリンクする。
流体力学におけるパーコレーションモデルによる効率的なグラフパーコレーションプロセスを提案し,グラフパーコレーション埋め込み(GraPE)と呼ばれる軽量なGNNベースのKG推論フレームワークを設計する。
- 参考スコア(独自算出の注目度): 16.143817898963785
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study Graph Neural Networks (GNNs)-based embedding techniques for
knowledge graph (KG) reasoning. For the first time, we link the path redundancy
issue in the state-of-the-art KG reasoning models based on path encoding and
message passing to the transformation error in model training, which brings us
new theoretical insights into KG reasoning, as well as high efficacy in
practice. On the theoretical side, we analyze the entropy of transformation
error in KG paths and point out query-specific redundant paths causing entropy
increases. These findings guide us to maintain the shortest paths and remove
redundant paths for minimized-entropy message passing. To achieve this goal, on
the practical side, we propose an efficient Graph Percolation Process motivated
by the percolation model in Fluid Mechanics, and design a lightweight GNN-based
KG reasoning framework called Graph Percolation Embeddings (GraPE). GraPE
outperforms previous state-of-the-art methods in both transductive and
inductive reasoning tasks while requiring fewer training parameters and less
inference time.
- Abstract(参考訳): 知識グラフ推論のためのグラフニューラルネットワーク(GNN)に基づく埋め込み技術について検討する。
モデルトレーニングにおいて,パスエンコーディングとメッセージパッシングに基づく最先端KG推論モデルにおけるパス冗長性の問題と,変換エラーに対するメッセージパッシングをリンクすることで,KG推論に対する新たな理論的洞察と,実際に高い有効性を実現する。
理論的には、KG経路における変換誤差のエントロピーを分析し、エントロピーの増加を引き起こすクエリ固有の冗長パスを指摘する。
これらの知見は,最短経路の維持と,最小エントロピーメッセージパッシングのための冗長経路の除去を導く。
この目的を達成するために,本研究では,流体力学におけるパーコレーションモデルに基づく効率的なグラフパーコレーションプロセスを提案し,グラフパーコレーション埋め込み(GraPE)と呼ばれる軽量なGNNベースのKG推論フレームワークを設計する。
GraPEは、トランスダクティブな推論タスクとインダクティブな推論タスクの両方において、従来の最先端メソッドよりも優れ、トレーニングパラメータが少なく、推論時間も少ない。
関連論文リスト
- Towards Faster Graph Partitioning via Pre-training and Inductive Inference [7.962080448174845]
本稿では, PR-GPT (Pre-trained and Refined Graph ParTitioning) を提案する。
PR-GPTは、スクラッチから精錬法を実行する場合と比較して、大幅な品質劣化を伴わずに、大規模グラフ上でGPを高速化することができる。
論文 参考訳(メタデータ) (2024-09-01T09:11:34Z) - Do We Really Need Graph Convolution During Training? Light Post-Training Graph-ODE for Efficient Recommendation [34.93725892725111]
トレーニングレコメンデータシステム(RecSys)におけるグラフ畳み込みネットワーク(GCNs)は、絶え間なく懸念されてきた。
本稿では,学習段階におけるグラフ畳み込みの必要性を批判的に考察する。
光後学習グラフ正規分方程式(LightGODE)という革新的な方法を導入する。
論文 参考訳(メタデータ) (2024-07-26T17:59:32Z) - Revealing Decurve Flows for Generalized Graph Propagation [108.80758541147418]
本研究は,有向グラフと重み付きグラフを用いて,m文を一般化した伝播を定義することによって,従来のメッセージパッシング(中心からグラフ学習)の限界に対処する。
この分野ではじめて、データセットにおける学習された伝播パターンの予備的な探索を含む。
論文 参考訳(メタデータ) (2024-02-13T14:13:17Z) - Rethinking Dimensional Rationale in Graph Contrastive Learning from Causal Perspective [15.162584339143239]
グラフコントラスト学習(Graph contrastive learning)は、グラフの様々な摂動から不変情報を捉えるのに優れた一般的な学習パラダイムである。
最近の研究は、グラフから構造的理性を探究することに集中し、不変情報の識別可能性を高める。
本稿では,学習可能な次元理性獲得ネットワークと冗長性低減制約を導入した,次元理性対応グラフコントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2023-12-16T10:05:18Z) - Graph Condensation for Inductive Node Representation Learning [59.76374128436873]
マッピング対応グラフ凝縮法(MCond)を提案する。
MCondは、帰納的表現学習のための合成グラフに新しいノードを統合する。
Redditデータセットでは、最大121.5倍の推論スピードアップと55.9倍のストレージ要求の削減を実現している。
論文 参考訳(メタデータ) (2023-07-29T12:11:14Z) - Exploring & Exploiting High-Order Graph Structure for Sparse Knowledge
Graph Completion [20.45256490854869]
本稿では,エンティティ間の価値ある長距離依存性を自動的にキャプチャできる新しいフレームワークLR-GCNを提案する。
提案手法は、GNNベースの予測器と推論経路蒸留器の2つの主成分からなる。
論文 参考訳(メタデータ) (2023-06-29T15:35:34Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - Generalization Guarantee of Training Graph Convolutional Networks with
Graph Topology Sampling [83.77955213766896]
グラフ畳み込みネットワーク(GCN)は近年,グラフ構造化データの学習において大きな成功を収めている。
スケーラビリティ問題に対処するため、Gsの学習におけるメモリと計算コストを削減するため、グラフトポロジサンプリングが提案されている。
本稿では,3層GCNのトレーニング(最大)におけるグラフトポロジサンプリングの最初の理論的正当性について述べる。
論文 参考訳(メタデータ) (2022-07-07T21:25:55Z) - RelWalk A Latent Variable Model Approach to Knowledge Graph Embedding [50.010601631982425]
本稿では,単語埋め込みのランダムウォークモデル(Arora et al., 2016a)を知識グラフ埋め込み(KGE)に拡張する。
二つの実体 h (head) と t (tail) の間の関係 R の強さを評価するスコア関数を導出する。
理論的解析によって動機付けられた学習目標を提案し,知識グラフからKGEを学習する。
論文 参考訳(メタデータ) (2021-01-25T13:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。