論文の概要: Towards Robust Knowledge Graph Embedding via Multi-task Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2111.06103v1
- Date: Thu, 11 Nov 2021 08:51:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-12 13:33:35.735440
- Title: Towards Robust Knowledge Graph Embedding via Multi-task Reinforcement
Learning
- Title(参考訳): マルチタスク強化学習によるロバスト知識グラフ埋め込みに向けて
- Authors: Zhao Zhang, Fuzhen Zhuang, Hengshu Zhu, Chao Li, Hui Xiong, Qing He
and Yongjun Xu
- Abstract要約: 既存の知識グラフ埋め込み法の多くは、KGの3つの事実はすべて正しいと仮定する。
これはKGの低品質かつ信頼性の低い表現につながる。
本稿では,ノイズの多いデータ問題を大幅に軽減できる汎用マルチタスク強化学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 44.38215560989223
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays, Knowledge graphs (KGs) have been playing a pivotal role in
AI-related applications. Despite the large sizes, existing KGs are far from
complete and comprehensive. In order to continuously enrich KGs, automatic
knowledge construction and update mechanisms are usually utilized, which
inevitably bring in plenty of noise. However, most existing knowledge graph
embedding (KGE) methods assume that all the triple facts in KGs are correct,
and project both entities and relations into a low-dimensional space without
considering noise and knowledge conflicts. This will lead to low-quality and
unreliable representations of KGs. To this end, in this paper, we propose a
general multi-task reinforcement learning framework, which can greatly
alleviate the noisy data problem. In our framework, we exploit reinforcement
learning for choosing high-quality knowledge triples while filtering out the
noisy ones. Also, in order to take full advantage of the correlations among
semantically similar relations, the triple selection processes of similar
relations are trained in a collective way with multi-task learning. Moreover,
we extend popular KGE models TransE, DistMult, ConvE and RotatE with the
proposed framework. Finally, the experimental validation shows that our
approach is able to enhance existing KGE models and can provide more robust
representations of KGs in noisy scenarios.
- Abstract(参考訳): 近年、知識グラフ(KG)はAI関連のアプリケーションにおいて重要な役割を演じている。
大きなサイズにもかかわらず、既存のKGは完全で包括的ではない。
KGを継続的に強化するためには、自動知識構築と更新機構が通常利用され、必然的に多くのノイズをもたらす。
しかし、既存の知識グラフ埋め込み(KGE)法の多くは、KGの3つの事実はすべて正しいと仮定し、ノイズや知識の矛盾を考慮せずに実体と関係を低次元空間に投影する。
これはKGの低品質かつ信頼性の低い表現につながる。
そこで本稿では,ノイズの多いデータ問題を大幅に軽減できる汎用マルチタスク強化学習フレームワークを提案する。
提案手法では,高質な知識トリプルの選択に強化学習を活用し,ノイズの多い知識をフィルタリングする。
また、意味論的に類似した関係間の相関を最大限に活用するために、類似関係の3重選択過程をマルチタスク学習の集合的な方法で訓練する。
さらに,提案フレームワークにより,一般的なKGEモデルであるTransE,DistMult,ConvE,RotatEを拡張した。
最後に,本手法が既存のKGEモデルを拡張し,ノイズのあるシナリオでKGのより堅牢な表現を提供できることを示す。
関連論文リスト
- Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - Improving the Robustness of Knowledge-Grounded Dialogue via Contrastive
Learning [71.8876256714229]
本稿では,知識ベース対話システムの堅牢性向上を目的とした,エンティティベースのコントラスト学習フレームワークを提案する。
提案手法は,自動評価スコアの点から,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2024-01-09T05:16:52Z) - Collective Knowledge Graph Completion with Mutual Knowledge Distillation [11.922522192224145]
我々は,異なるKGからの集合的知識の最大化に焦点をあてるマルチKG完備化の問題について検討する。
CKGC-CKDと呼ばれる,個々のKGと大きな融合KGの両方で,関係対応グラフ畳み込みネットワークエンコーダモデルを用いる新しい手法を提案する。
複数言語データセットによる実験結果から,本手法はKGCタスクにおけるすべての最先端モデルより優れていることが示された。
論文 参考訳(メタデータ) (2023-05-25T09:49:40Z) - Hierarchical Relational Learning for Few-Shot Knowledge Graph Completion [25.905974480733562]
数ショットのKG完了のための階層的関係学習法(HiRe)を提案する。
3つのレベルの関係情報を共同で取得することで、HiReは、少数の関係のメタ表現を効果的に学習し、洗練することができる。
2つのベンチマークデータセットの実験は、HiReの他の最先端メソッドに対する優位性を検証する。
論文 参考訳(メタデータ) (2022-09-02T17:57:03Z) - BertNet: Harvesting Knowledge Graphs with Arbitrary Relations from
Pretrained Language Models [65.51390418485207]
本稿では,事前学習したLMから任意の関係を持つ大規模KGを抽出する手法を提案する。
関係定義の最小限の入力により、アプローチは膨大な実体対空間を効率的に探索し、多様な正確な知識を抽出する。
我々は、異なるLMから400以上の新しい関係を持つKGを収穫するためのアプローチを展開している。
論文 参考訳(メタデータ) (2022-06-28T19:46:29Z) - Knowledge Graph Contrastive Learning for Recommendation [32.918864602360884]
我々は、知識グラフ強化レコメンデータシステムのための情報ノイズを軽減するために、一般的な知識グラフ比較学習フレームワークを設計する。
具体的には,情報集約におけるKGノイズを抑制する知識グラフ拡張スキーマを提案する。
我々は、KG拡張プロセスから追加の監視信号を利用して、クロスビューコントラスト学習パラダイムを導出する。
論文 参考訳(メタデータ) (2022-05-02T15:24:53Z) - Link-Intensive Alignment for Incomplete Knowledge Graphs [28.213397255810936]
本研究では,不完全KGと表現学習の整合性の問題に対処する。
我々のフレームワークは、推移性に基づく2つの特徴チャネルと近接性に基づく2つの特徴チャネルを利用する。
2つの特徴チャネルは、入力KG間で重要な特徴を交換するために共同で学習される。
また,学習過程中に欠落したリンクを検出し,回復するリンク検出装置も開発した。
論文 参考訳(メタデータ) (2021-12-17T00:41:28Z) - EngineKGI: Closed-Loop Knowledge Graph Inference [37.15381932994768]
EngineKGIは、新しいクローズドループKG推論フレームワークである。
KGEとルール学習を組み合わせて、クローズドループパターンで相互に補完する。
我々のモデルはリンク予測タスクにおいて、他のベースラインよりも優れています。
論文 参考訳(メタデータ) (2021-12-02T08:02:59Z) - DisenKGAT: Knowledge Graph Embedding with Disentangled Graph Attention
Network [48.38954651216983]
本稿では,知識グラフのための新しいDistangled Knowledge Graph Attention Network (DisenKGAT)を提案する。
DisenKGATは、マイクロディケンジメントとマクロディケンジメントの両方を使用して、知識グラフの背後にある表現を利用する。
私たちの仕事は、様々なスコア関数に適応する強力な堅牢性と柔軟性を持っています。
論文 参考訳(メタデータ) (2021-08-22T04:10:35Z) - Learning Intents behind Interactions with Knowledge Graph for
Recommendation [93.08709357435991]
知識グラフ(KG)は、推薦システムにおいてますます重要な役割を果たす。
既存のGNNベースのモデルは、きめ細かいインテントレベルでのユーザ項目関係の特定に失敗します。
本稿では,新しいモデルである知識グラフベースインテントネットワーク(kgin)を提案する。
論文 参考訳(メタデータ) (2021-02-14T03:21:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。