論文の概要: Augmenting Knowledge Graphs for Better Link Prediction
- arxiv url: http://arxiv.org/abs/2203.13965v1
- Date: Sat, 26 Mar 2022 02:06:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 14:45:17.277529
- Title: Augmenting Knowledge Graphs for Better Link Prediction
- Title(参考訳): リンク予測の改善のための知識グラフの拡張
- Authors: Jiang Wang, Filip Ilievski, Pedro Szekely, Ke-Thia Yao
- Abstract要約: KGA: 損失関数を変更することなく,リテラルを埋め込みモデルに組み込む知識グラフ拡張手法。
KGAは、量と年値をビンに識別し、これらのビンを水平と垂直の両方に鎖する。
レガシーベンチマークと新しい大規模ベンチマークであるDWDの実験は、知識グラフを量と年数で拡張することは、エンティティと数値の両方を予測するのに有益であることを示している。
- 参考スコア(独自算出の注目度): 6.471748561079419
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Embedding methods have demonstrated robust performance on the task of link
prediction in knowledge graphs, by mostly encoding entity relationships. Recent
methods propose to enhance the loss function with a literal-aware term. In this
paper, we propose KGA: a knowledge graph augmentation method that incorporates
literals in an embedding model without modifying its loss function. KGA
discretizes quantity and year values into bins, and chains these bins both
horizontally, modeling neighboring values, and vertically, modeling multiple
levels of granularity. KGA is scalable and can be used as a pre-processing step
for any existing knowledge graph embedding model. Experiments on legacy
benchmarks and a new large benchmark, DWD, show that augmenting the knowledge
graph with quantities and years is beneficial for predicting both entities and
numbers, as KGA outperforms the vanilla models and other relevant baselines.
Our ablation studies confirm that both quantities and years contribute to KGA's
performance, and that its performance depends on the discretization and binning
settings. We make the code, models, and the DWD benchmark publicly available to
facilitate reproducibility and future research.
- Abstract(参考訳): 埋め込み手法は、主にエンティティ関係を符号化することにより、知識グラフにおけるリンク予測のタスクにおいて堅牢な性能を示す。
近年,リテラル認識項による損失関数の強化が提案されている。
本稿では,損失関数を変更することなく,リテラルを埋め込みモデルに組み込む知識グラフ拡張手法KGAを提案する。
kgaは量と年値をビンに分類し、これらのビンを水平にチェーンし、隣接する値をモデル化し、垂直に複数の粒度をモデル化する。
KGAはスケーラブルで、既存の知識グラフ埋め込みモデルの事前処理ステップとして使用できる。
レガシーベンチマークと新しい大規模ベンチマークであるDWDの実験は、KGAがバニラモデルやその他の関連するベースラインを上回っているため、知識グラフを量と年数で拡張することは、エンティティと数値の両方を予測するのに有益であることを示している。
我々のアブレーション研究は、量と年がKGAの性能に寄与し、その性能が離散化とバイナリ設定に依存することを確認した。
再現性と今後の研究を容易にするために、コード、モデル、DWDベンチマークを公開しています。
関連論文リスト
- Community-Invariant Graph Contrastive Learning [21.72222875193335]
本研究では,グラフ強化におけるグラフコミュニティの役割について検討する。
本稿では,学習可能なグラフ拡張時のグラフコミュニティ構造を維持するための,コミュニティ不変なGCLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-02T14:59:58Z) - Challenging the Myth of Graph Collaborative Filtering: a Reasoned and Reproducibility-driven Analysis [50.972595036856035]
本稿では,6つの人気グラフと最近のグラフ推薦モデルの結果を再現するコードを提案する。
これらのグラフモデルと従来の協調フィルタリングモデルを比較する。
ユーザの近所からの情報フローを調べることにより,データセット構造における内在的特徴にどのようなモデルが影響するかを同定することを目的とする。
論文 参考訳(メタデータ) (2023-08-01T09:31:44Z) - LightGCL: Simple Yet Effective Graph Contrastive Learning for
Recommendation [9.181689366185038]
グラフニューラルクラスタリングネットワーク(GNN)は、グラフベースのレコメンデータシステムのための強力な学習手法である。
本稿では,単純なグラフコントラスト学習パラダイムであるLightGCLを提案する。
論文 参考訳(メタデータ) (2023-02-16T10:16:21Z) - New Frontiers in Graph Autoencoders: Joint Community Detection and Link
Prediction [27.570978996576503]
リンク予測(LP)の強力な方法として,グラフオートエンコーダ(GAE)と変分グラフオートエンコーダ(VGAE)が登場した。
特にノード機能がない場合、GAEとVGAEでCDをどの程度改善できるかは不明である。
これら2つのタスクを高い精度で共同で処理することは可能であることを示す。
論文 参考訳(メタデータ) (2022-11-16T15:26:56Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - COSTA: Covariance-Preserving Feature Augmentation for Graph Contrastive
Learning [64.78221638149276]
グラフ拡張によって得られるノードの埋め込みは、非常に偏りが強いことを示す。
入力空間におけるグラフの増大を調査する代わりに,隠れた特徴の増大を提案する。
COSTAによる機能拡張は,グラフ拡張に基づくモデルに比べて,同等/ベターな結果が得られることを示す。
論文 参考訳(メタデータ) (2022-06-09T18:46:38Z) - Contributions to Representation Learning with Graph Autoencoders and
Applications to Music Recommendation [1.2691047660244335]
グラフオートエンコーダ(GAE)と変分グラフオートエンコーダ(VGAE)は、教師なしノード埋め込みの強力なグループとして登場した。
このPh.D.プロジェクトの初期には、GAEとVGAEのモデルも重要な制限に悩まされ、業界で採用されるのを防いだ。
我々はこれらのモデルを改善するためにいくつかの貢献を行い、グラフ表現を含む産業レベルの問題に対処するためにそれらの利用を促進することを目的としている。
論文 参考訳(メタデータ) (2022-05-29T13:14:53Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Causal Incremental Graph Convolution for Recommender System Retraining [89.25922726558875]
実世界のレコメンデーションシステムは、新しいデータを維持するために定期的に再トレーニングする必要がある。
本研究では,GCNに基づくレコメンデータモデルを用いて,グラフ畳み込みネットワーク(GCN)を効率的に再学習する方法を検討する。
論文 参考訳(メタデータ) (2021-08-16T04:20:09Z) - Heuristic Semi-Supervised Learning for Graph Generation Inspired by
Electoral College [80.67842220664231]
本稿では,新たなノードやエッジを自動的に拡張して,高密度サブグラフ内のラベル類似性を向上する,新しい前処理手法であるElectoral College(ELCO)を提案する。
テストされたすべての設定において、我々の手法はベースモデルの平均スコアを4.7ポイントの広いマージンで引き上げるとともに、常に最先端のモデルよりも優れています。
論文 参考訳(メタデータ) (2020-06-10T14:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。