論文の概要: KRACL: Contrastive Learning with Graph Context Modeling for Sparse
Knowledge Graph Completion
- arxiv url: http://arxiv.org/abs/2208.07622v1
- Date: Tue, 16 Aug 2022 09:17:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-17 12:24:59.102678
- Title: KRACL: Contrastive Learning with Graph Context Modeling for Sparse
Knowledge Graph Completion
- Title(参考訳): KRACL: Sparse Knowledge Graph Completionのためのグラフコンテキストモデリングによるコントラスト学習
- Authors: Zhaoxuan Tan, Zilong Chen, Shangbin Feng, Qingyue Zhang, Qinghua
Zheng, Jundong Li, Minnan Luo
- Abstract要約: 知識グラフ埋め込み (KGE) は、エンティティと関係を低次元空間にマッピングすることを目的としており、知識グラフ補完のためのテキストファクト標準となっている。
既存のKGE手法の多くは、知識グラフの頻度が低いエンティティを予測しにくいため、スパーシティの課題に悩まされている。
グラフコンテキストとコントラスト学習を用いて,KGの広がりを緩和する新しい枠組みを提案する。
- 参考スコア(独自算出の注目度): 37.92814873958519
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge Graph Embeddings (KGE) aim to map entities and relations to low
dimensional spaces and have become the \textit{de-facto} standard for knowledge
graph completion. Most existing KGE methods suffer from the sparsity challenge,
where it is harder to predict entities that appear less frequently in knowledge
graphs. In this work, we propose a novel framework KRACL to alleviate the
widespread sparsity in KGs with graph context and contrastive learning.
Firstly, we propose the Knowledge Relational Attention Network (KRAT) to
leverage the graph context by simultaneously projecting neighboring triples to
different latent spaces and jointly aggregating messages with the attention
mechanism. KRAT is capable of capturing the subtle semantic information and
importance of different context triples as well as leveraging multi-hop
information in knowledge graphs. Secondly, we propose the knowledge contrastive
loss by combining the contrastive loss with cross entropy loss, which
introduces more negative samples and thus enriches the feedback to sparse
entities. Our experiments demonstrate that KRACL achieves superior results
across various standard knowledge graph benchmarks, especially on WN18RR and
NELL-995 which have large numbers of low in-degree entities. Extensive
experiments also bear out KRACL's effectiveness in handling sparse knowledge
graphs and robustness against noisy triples.
- Abstract(参考訳): 知識グラフ埋め込み(KGE)は、エンティティと関係を低次元空間にマッピングすることを目的としており、知識グラフ補完の標準であるtextit{de-facto} となっている。
既存のKGE手法の多くは、知識グラフの頻度が低いエンティティを予測しにくいため、スパーシティの課題に悩まされている。
そこで本研究では,グラフコンテキストとコントラスト学習によるKGの広がりを緩和する新しいフレームワークKRACLを提案する。
まず,近隣の3つ組を異なる潜在空間に同時に投影し,アテンション機構でメッセージを協調的に集約することで,グラフコンテキストを活用する知識関係注意ネットワーク(KRAT)を提案する。
kratは、異なるコンテキストトリプルの微妙な意味情報と重要性を捉え、知識グラフでマルチホップ情報を活用することができる。
第2に,コントラスト損失とクロスエントロピー損失を組み合わせ,よりネガティブなサンプルを導入し,スパースエンティティに対するフィードバックを充実させることにより,知識の相反損失を提案する。
実験により、KRACLは様々な標準知識グラフベンチマーク、特に多数の低次エンティティを持つ WN18RR と NELL-995 において、優れた結果が得られることが示された。
広汎な実験は、KRACLがスパース知識グラフと雑音三重項に対する頑健性を扱うことにも耐える。
関連論文リスト
- CausE: Towards Causal Knowledge Graph Embedding [13.016173217017597]
知識グラフ埋め込み(KGE)は、知識グラフ(KG)の連続ベクトル空間への実体と関係を表現することに焦点を当てている。
我々はKGEの新しいパラダイムを因果関係と非絡み込みの文脈で構築する。
本稿では,CausE(Causality Enhanced Knowledge Graph Embedding)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-21T14:25:39Z) - Efficient Relation-aware Neighborhood Aggregation in Graph Neural Networks via Tensor Decomposition [4.041834517339835]
グラフ畳み込みネットワーク(R-GCN)の集約関数にテンソル分解を組み込んだ新しい知識グラフを提案する。
我々のモデルは、関係型によって定義される低ランクテンソルの射影行列を用いて、隣り合う実体の表現を強化する。
我々は,グラフ処理に固有の1-k-kエンコーダ法のトレーニング制限を緩和するために,コントラスト学習にインスパイアされたトレーニング戦略を採用する。
論文 参考訳(メタデータ) (2022-12-11T19:07:34Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - Simple and Effective Relation-based Embedding Propagation for Knowledge
Representation Learning [15.881121633396832]
本稿では,事前学習したグラフ埋め込みを文脈に適応させるために,Relation-based Embedding Propagation (REP)法を提案する。
我々は,REPがOGBL-WikiKG2上の三重項埋め込み法に対して10%の相対的な改善をもたらすことを示した。
最先端のGC-OTEと同等の結果を得るには5%-83%の時間を要する。
論文 参考訳(メタデータ) (2022-05-13T06:02:13Z) - Knowledge Graph Contrastive Learning for Recommendation [32.918864602360884]
我々は、知識グラフ強化レコメンデータシステムのための情報ノイズを軽減するために、一般的な知識グラフ比較学習フレームワークを設計する。
具体的には,情報集約におけるKGノイズを抑制する知識グラフ拡張スキーマを提案する。
我々は、KG拡張プロセスから追加の監視信号を利用して、クロスビューコントラスト学習パラダイムを導出する。
論文 参考訳(メタデータ) (2022-05-02T15:24:53Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - KGE-CL: Contrastive Learning of Knowledge Graph Embeddings [64.67579344758214]
本稿では,知識グラフ埋め込みのための簡易かつ効率的な学習フレームワークを提案する。
これは、関連するエンティティと異なる三重項におけるエンティティ-リレーションのカップルのセマンティック距離を短縮することができる。
WN18RRデータセットで51.2% MRR、46.8% Hits@1、59.1% MRR、51.8% Hits@1、YAGO3-10データセットで達成できる。
論文 参考訳(メタデータ) (2021-12-09T12:45:33Z) - DisenKGAT: Knowledge Graph Embedding with Disentangled Graph Attention
Network [48.38954651216983]
本稿では,知識グラフのための新しいDistangled Knowledge Graph Attention Network (DisenKGAT)を提案する。
DisenKGATは、マイクロディケンジメントとマクロディケンジメントの両方を使用して、知識グラフの背後にある表現を利用する。
私たちの仕事は、様々なスコア関数に適応する強力な堅牢性と柔軟性を持っています。
論文 参考訳(メタデータ) (2021-08-22T04:10:35Z) - RelWalk A Latent Variable Model Approach to Knowledge Graph Embedding [50.010601631982425]
本稿では,単語埋め込みのランダムウォークモデル(Arora et al., 2016a)を知識グラフ埋め込み(KGE)に拡張する。
二つの実体 h (head) と t (tail) の間の関係 R の強さを評価するスコア関数を導出する。
理論的解析によって動機付けられた学習目標を提案し,知識グラフからKGEを学習する。
論文 参考訳(メタデータ) (2021-01-25T13:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。