論文の概要: Exploring & Exploiting High-Order Graph Structure for Sparse Knowledge
Graph Completion
- arxiv url: http://arxiv.org/abs/2306.17034v1
- Date: Thu, 29 Jun 2023 15:35:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 12:49:45.224973
- Title: Exploring & Exploiting High-Order Graph Structure for Sparse Knowledge
Graph Completion
- Title(参考訳): スパース知識グラフ補完のための高次グラフ構造探索と展開
- Authors: Tao He, Ming Liu, Yixin Cao, Zekun Wang, Zihao Zheng, Zheng Chu, and
Bing Qin
- Abstract要約: 本稿では,エンティティ間の価値ある長距離依存性を自動的にキャプチャできる新しいフレームワークLR-GCNを提案する。
提案手法は、GNNベースの予測器と推論経路蒸留器の2つの主成分からなる。
- 参考スコア(独自算出の注目度): 20.45256490854869
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sparse knowledge graph (KG) scenarios pose a challenge for previous Knowledge
Graph Completion (KGC) methods, that is, the completion performance decreases
rapidly with the increase of graph sparsity. This problem is also exacerbated
because of the widespread existence of sparse KGs in practical applications. To
alleviate this challenge, we present a novel framework, LR-GCN, that is able to
automatically capture valuable long-range dependency among entities to
supplement insufficient structure features and distill logical reasoning
knowledge for sparse KGC. The proposed approach comprises two main components:
a GNN-based predictor and a reasoning path distiller. The reasoning path
distiller explores high-order graph structures such as reasoning paths and
encodes them as rich-semantic edges, explicitly compositing long-range
dependencies into the predictor. This step also plays an essential role in
densifying KGs, effectively alleviating the sparse issue. Furthermore, the path
distiller further distills logical reasoning knowledge from these mined
reasoning paths into the predictor. These two components are jointly optimized
using a well-designed variational EM algorithm. Extensive experiments and
analyses on four sparse benchmarks demonstrate the effectiveness of our
proposed method.
- Abstract(参考訳): スパースナレッジグラフ(KG)のシナリオは、従来の知識グラフ補完(KGC)手法の課題であり、グラフのスパーシティの増加に伴い、完了性能が急速に低下する。
この問題は、実用用途にスパースKGが広く存在するため、さらに悪化している。
この課題を解決するために、我々は、エンティティ間の価値ある長距離依存性を自動的に捕捉し、不十分な構造特徴を補い、スパースKGCの論理的推論知識を蒸留する新しいフレームワークLR-GCNを提案する。
提案手法はgnnベースの予測器と推論経路蒸留器の2つの主成分からなる。
推論経路蒸留器は、推論経路のような高次グラフ構造を探索し、それらをリッチ・セマンティックエッジとしてエンコードし、予測器に長距離依存を明示的に構成する。
このステップはKGを密度化するのにも重要な役割を担い、スパース問題を効果的に緩和する。
さらに、経路蒸留器は、これらの採掘された推論経路から論理推論知識を予測器にさらに蒸留する。
これら2つのコンポーネントは、よく設計された変分EMアルゴリズムを用いて共同最適化される。
4つのスパースベンチマークの大規模な実験と解析により,提案手法の有効性が示された。
関連論文リスト
- Amplify Graph Learning for Recommendation via Sparsity Completion [16.32861024767423]
グラフ学習モデルは、協調フィルタリング(CF)ベースのレコメンデーションシステムに広くデプロイされている。
データ疎度の問題により、元の入力のグラフ構造は潜在的な肯定的な嗜好エッジを欠いている。
AGL-SC(Amplify Graph Learning framework)を提案する。
論文 参考訳(メタデータ) (2024-06-27T08:26:20Z) - Preserving Node Distinctness in Graph Autoencoders via Similarity Distillation [9.395697548237333]
グラフオートエンコーダ(GAE)は、平均二乗誤差(MSE)のような距離ベースの基準に依存して入力グラフを再構築する。
単一の再構築基準にのみ依存すると 再建されたグラフの 特徴が失われる可能性がある
我々は,再構成されたグラフにおいて,必要な相違性を維持するための簡易かつ効果的な戦略を開発した。
論文 参考訳(メタデータ) (2024-06-25T12:54:35Z) - RobGC: Towards Robust Graph Condensation [61.259453496191696]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の目覚ましい能力によって広く注目を集めている。
しかし,大規模グラフの普及は,その計算要求により,GNNトレーニングにとって大きな課題となる。
本稿では,GNNを効率よく学習し,性能を保ちつつ,情報的コンパクトなグラフを生成するために,GC(Graph Condensation)を提案する。
論文 参考訳(メタデータ) (2024-06-19T04:14:57Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - River of No Return: Graph Percolation Embeddings for Efficient Knowledge
Graph Reasoning [16.143817898963785]
知識グラフ推論のためのグラフニューラルネットワーク(GNN)に基づく埋め込み技術について検討する。
モデルトレーニングにおいて,パスエンコーディングとメッセージパッシングに基づく最先端KG推論モデルにおけるパス冗長性の問題と,変換エラーへのメッセージパッシングを初めてリンクする。
流体力学におけるパーコレーションモデルによる効率的なグラフパーコレーションプロセスを提案し,グラフパーコレーション埋め込み(GraPE)と呼ばれる軽量なGNNベースのKG推論フレームワークを設計する。
論文 参考訳(メタデータ) (2023-05-17T06:13:28Z) - Cardinality Estimation over Knowledge Graphs with Embeddings and Graph Neural Networks [0.552480439325792]
KG(Cardinality Estimation over Knowledge Graphs)は、クエリ最適化において重要である。
本稿では,知識グラフ埋め込みとグラフニューラルネットワーク(GNN)を活用して,結合クエリの濃度を正確に予測する新しい手法であるGNCEを提案する。
論文 参考訳(メタデータ) (2023-03-02T10:39:13Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - Explainable Sparse Knowledge Graph Completion via High-order Graph
Reasoning Network [111.67744771462873]
本稿では,スパース知識グラフ(KG)のための新しい説明可能なモデルを提案する。
高次推論をグラフ畳み込みネットワーク、すなわちHoGRNに結合する。
情報不足を緩和する一般化能力を向上させるだけでなく、解釈可能性も向上する。
論文 参考訳(メタデータ) (2022-07-14T10:16:56Z) - RelWalk A Latent Variable Model Approach to Knowledge Graph Embedding [50.010601631982425]
本稿では,単語埋め込みのランダムウォークモデル(Arora et al., 2016a)を知識グラフ埋め込み(KGE)に拡張する。
二つの実体 h (head) と t (tail) の間の関係 R の強さを評価するスコア関数を導出する。
理論的解析によって動機付けられた学習目標を提案し,知識グラフからKGEを学習する。
論文 参考訳(メタデータ) (2021-01-25T13:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。