論文の概要: Link-Intensive Alignment for Incomplete Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2112.09266v1
- Date: Fri, 17 Dec 2021 00:41:28 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-21 04:05:55.660195
- Title: Link-Intensive Alignment for Incomplete Knowledge Graphs
- Title(参考訳): 不完全知識グラフに対するリンク集約アライメント
- Authors: Vinh Van Tong, Thanh Trung Huynh, Thanh Tam Nguyen, Hongzhi Yin, Quoc
Viet Hung Nguyen and Quyet Thang Huynh
- Abstract要約: 本研究では,不完全KGと表現学習の整合性の問題に対処する。
我々のフレームワークは、推移性に基づく2つの特徴チャネルと近接性に基づく2つの特徴チャネルを利用する。
2つの特徴チャネルは、入力KG間で重要な特徴を交換するために共同で学習される。
また,学習過程中に欠落したリンクを検出し,回復するリンク検出装置も開発した。
- 参考スコア(独自算出の注目度): 28.213397255810936
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge graph (KG) alignment - the task of recognizing entities referring
to the same thing in different KGs - is recognized as one of the most important
operations in the field of KG construction and completion. However, existing
alignment techniques often assume that the input KGs are complete and
isomorphic, which is not true due to the real-world heterogeneity in the
domain, size, and sparsity. In this work, we address the problem of aligning
incomplete KGs with representation learning. Our KG embedding framework
exploits two feature channels: transitivity-based and proximity-based. The
former captures the consistency constraints between entities via translation
paths, while the latter captures the neighbourhood structure of KGs via
attention guided relation-aware graph neural network. The two feature channels
are jointly learned to exchange important features between the input KGs while
enforcing the output representations of the input KGs in the same embedding
space. Also, we develop a missing links detector that discovers and recovers
the missing links in the input KGs during the training process, which helps
mitigate the incompleteness issue and thus improve the compatibility of the
learned representations. The embeddings then are fused to generate the
alignment result, and the high-confidence matched node pairs are updated to the
pre-aligned supervision data to improve the embeddings gradually. Empirical
results show that our model is up to 15.2\% more accurate than the SOTA and is
robust against different levels of incompleteness. We also demonstrate that the
knowledge exchanging between the KGs helps reveal the unseen facts from
knowledge graphs (a.k.a. knowledge completion), with the result being 3.5\%
higher than the SOTA knowledge graph completion techniques.
- Abstract(参考訳): 知識グラフ(KG)アライメント - 同じことを異なるKGで参照するエンティティを認識するタスクは、KGの構築と完了の分野で最も重要な操作の1つとして認識されている。
しかし、既存のアライメント手法は入力KGsが完全で同型であると仮定することが多く、これは領域、サイズ、空間の実際の異質性のために正しくない。
本研究では,不完全KGと表現学習の整合性の問題に対処する。
我々のKG埋め込みフレームワークは2つの特徴チャンネルを利用する。
前者は翻訳経路を介してエンティティ間の一貫性の制約をキャプチャし、後者は注意誘導関係対応グラフニューラルネットワークを介してKGの近傍構造をキャプチャする。
2つの特徴チャネルは、入力KG間の重要な特徴を同一の埋め込み空間において入力KGの出力表現を強制しながら、共同で学習する。
また,入力kgs内の欠落リンクを学習中に検出・回収する欠落リンク検出器を開発し,不完全性問題を軽減するとともに,学習表現の互換性を向上させる。
そして、埋め込みを融合してアライメント結果を生成し、高信頼の一致したノードペアを予め整列された監視データに更新し、徐々に埋め込みを改善する。
実験の結果、我々のモデルはSOTAよりも最大15.2\%正確であり、異なるレベルの不完全性に対して堅牢であることが示された。
また,KG間の知識交換は,知識グラフの未確認事実(すなわち知識完備化)を明らかにするのに役立ち,結果がSOTA知識グラフ完成技術よりも3.5倍高いことを示す。
関連論文リスト
- EntailE: Introducing Textual Entailment in Commonsense Knowledge Graph
Completion [54.12709176438264]
Commonsense knowledge graph(CSKG)は、名前付きエンティティ、短いフレーズ、イベントをノードとして表現するために自由形式のテキストを使用する。
現在の手法では意味的類似性を利用してグラフ密度を増大させるが、ノードとその関係のセマンティックな妥当性は未探索である。
そこで本研究では,CSKGノード間の暗黙的な包絡関係を見つけるために,テキストエンテーメントを導入し,同じ概念クラス内のサブグラフ接続ノードを効果的に密度化することを提案する。
論文 参考訳(メタデータ) (2024-02-15T02:27:23Z) - On the Sweet Spot of Contrastive Views for Knowledge-enhanced
Recommendation [49.18304766331156]
KG強化推薦のための新しいコントラスト学習フレームワークを提案する。
我々は、KGとIGのための2つの異なるコントラストビューを構築し、それらの相互情報を最大化する。
実世界の3つのデータセットに対する大規模な実験結果から,本手法の有効性と有効性が確認された。
論文 参考訳(メタデータ) (2023-09-23T14:05:55Z) - i-Align: an interpretable knowledge graph alignment model [35.13345855672941]
知識グラフ(KG)は多くの下流アプリケーションにとって重要なリソースになりつつある。
この問題に対処する戦略の1つはKGアライメントであり、2つ以上のKGをマージすることでより完全なKGを形成する。
本稿では,解釈可能なKGアライメントモデルであるi-Alignを提案する。
論文 参考訳(メタデータ) (2023-08-26T03:48:52Z) - Collective Knowledge Graph Completion with Mutual Knowledge Distillation [11.922522192224145]
我々は,異なるKGからの集合的知識の最大化に焦点をあてるマルチKG完備化の問題について検討する。
CKGC-CKDと呼ばれる,個々のKGと大きな融合KGの両方で,関係対応グラフ畳み込みネットワークエンコーダモデルを用いる新しい手法を提案する。
複数言語データセットによる実験結果から,本手法はKGCタスクにおけるすべての最先端モデルより優れていることが示された。
論文 参考訳(メタデータ) (2023-05-25T09:49:40Z) - Pre-training Transformers for Knowledge Graph Completion [81.4078733132239]
知識グラフの伝達可能な表現を学習するための新しい帰納的KG表現モデル(iHT)を提案する。
iHT はエンティティエンコーダ (BERT など) と、Transformer によってパラメータ化される隣り合うリレーショナルスコアリング関数からなる。
提案手法は,従来のSOTAモデルに比べて25%以上の相対的相互ランクの改善が得られた。
論文 参考訳(メタデータ) (2023-03-28T02:10:37Z) - Mitigating Relational Bias on Knowledge Graphs [51.346018842327865]
マルチホップバイアスを同時に緩和し,知識グラフにおけるエンティティとリレーションの近接情報を保存するフレームワークであるFair-KGNNを提案する。
ジェンダー占有とナショナリティ・サリーバイアスを軽減するために,2つの最先端KGNNモデル(RCCNとCompGCN)を組み込んだFair-KGNNの2例を開発した。
論文 参考訳(メタデータ) (2022-11-26T05:55:34Z) - Explainable Sparse Knowledge Graph Completion via High-order Graph
Reasoning Network [111.67744771462873]
本稿では,スパース知識グラフ(KG)のための新しい説明可能なモデルを提案する。
高次推論をグラフ畳み込みネットワーク、すなわちHoGRNに結合する。
情報不足を緩和する一般化能力を向上させるだけでなく、解釈可能性も向上する。
論文 参考訳(メタデータ) (2022-07-14T10:16:56Z) - KGNN: Distributed Framework for Graph Neural Knowledge Representation [38.080926752998586]
我々は,分散学習システムにおける表現学習のための知識データを完全に活用するために,KGNNと呼ばれる新しいフレームワークを開発した。
KGNNは、高次構造と属性情報を共同で探索することを目的とした、GNNベースのエンコーダと知識認識デコーダを備えている。
論文 参考訳(メタデータ) (2022-05-17T12:32:02Z) - Multilingual Knowledge Graph Completion with Self-Supervised Adaptive
Graph Alignment [69.41986652911143]
知識グラフ(KG)における行方不明事象を予測するための,新たな自己教師付き適応グラフアライメント(SS-AGA)手法を提案する。
SS-AGAはすべてのKGをグラフ全体として新しいエッジタイプとしてアライメントする。
パブリック多言語DBPedia KGおよび新たに開発された産業多言語EコマースKGの実験は、SS-AGAの有効性を実証的に実証している。
論文 参考訳(メタデータ) (2022-03-28T18:00:51Z) - Towards Robust Knowledge Graph Embedding via Multi-task Reinforcement
Learning [44.38215560989223]
既存の知識グラフ埋め込み法の多くは、KGの3つの事実はすべて正しいと仮定する。
これはKGの低品質かつ信頼性の低い表現につながる。
本稿では,ノイズの多いデータ問題を大幅に軽減できる汎用マルチタスク強化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-11T08:51:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。