論文の概要: Few-Shot Inductive Learning on Temporal Knowledge Graphs using
Concept-Aware Information
- arxiv url: http://arxiv.org/abs/2211.08169v1
- Date: Tue, 15 Nov 2022 14:23:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 13:32:14.671515
- Title: Few-Shot Inductive Learning on Temporal Knowledge Graphs using
Concept-Aware Information
- Title(参考訳): 概念認識情報を用いた時間的知識グラフの少ない帰納学習
- Authors: Zifeng Ding, Jingpei Wu, Bailan He, Yunpu Ma, Zhen Han, Volker Tresp
- Abstract要約: 時間的知識グラフ(TKG)のための数発のアウト・オブ・グラフ(OOG)リンク予測タスクを提案する。
メタラーニングフレームワークを用いて、未知のエンティティに関するリンクから、欠落したエンティティを予測する。
我々のモデルは3つのデータセットすべてにおいて優れた性能を達成する。
- 参考スコア(独自算出の注目度): 31.10140298420744
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graph completion (KGC) aims to predict the missing links among
knowledge graph (KG) entities. Though various methods have been developed for
KGC, most of them can only deal with the KG entities seen in the training set
and cannot perform well in predicting links concerning novel entities in the
test set. Similar problem exists in temporal knowledge graphs (TKGs), and no
previous temporal knowledge graph completion (TKGC) method is developed for
modeling newly-emerged entities. Compared to KGs, TKGs require temporal
reasoning techniques for modeling, which naturally increases the difficulty in
dealing with novel, yet unseen entities. In this work, we focus on the
inductive learning of unseen entities' representations on TKGs. We propose a
few-shot out-of-graph (OOG) link prediction task for TKGs, where we predict the
missing entities from the links concerning unseen entities by employing a
meta-learning framework and utilizing the meta-information provided by only few
edges associated with each unseen entity. We construct three new datasets for
TKG few-shot OOG link prediction, and we propose a model that mines the
concept-aware information among entities. Experimental results show that our
model achieves superior performance on all three datasets and our concept-aware
modeling component demonstrates a strong effect.
- Abstract(参考訳): 知識グラフ補完(KGC)は、知識グラフ(KG)エンティティ間のリンク不足を予測することを目的としている。
KGCのための様々な手法が開発されているが、そのほとんどはトレーニングセットに見られるKGエンティティにしか対応できず、テストセットの新規エンティティに関するリンクを予測するのにうまく機能しない。
同様の問題は時間知識グラフ (TKG) にも存在し、新しい実体をモデル化するための従来の時間知識グラフ補完 (TKGC) 法は開発されていない。
KGと比較すると、TKGはモデリングに時間的推論技術を必要とするため、新規で未知のエンティティを扱うのが自然に困難になる。
本研究では,TKGにおける未知の実体表現の帰納的学習に着目した。
メタラーニングフレームワークを用いて,各未知のエンティティに関連付けられた少数のエッジのみによって提供されるメタ情報を活用することにより,未知のエンティティに関するリンクから欠落したエンティティを予測できる,TKGのための数発のアウトオブグラフリンク予測タスクを提案する。
我々は,TKGの複数ショットOOGリンク予測のための3つの新しいデータセットを構築し,エンティティ間の概念認識情報をマイニングするモデルを提案する。
実験結果から,本モデルは3つのデータセットに対して優れた性能を示し,概念認識モデリングコンポーネントは強い効果を示した。
関連論文リスト
- Distill-SynthKG: Distilling Knowledge Graph Synthesis Workflow for Improved Coverage and Efficiency [59.6772484292295]
大規模言語モデル(LLM)によって生成される知識グラフ(KG)は、検索・拡張生成(RAG)アプリケーションにとってますます価値が増している。
既存のKG抽出法は、大規模コーパスの処理に非効率なプロンプトベースのアプローチに依存している。
LLMに基づく多段階文書レベルのKGワークフローであるSynthKGを提案する。
我々はまた、RAGのための新しいグラフベースの検索フレームワークを設計する。
論文 参考訳(メタデータ) (2024-10-22T00:47:54Z) - Knowledge Graph Embedding: An Overview [42.16033541753744]
本稿では,知識グラフの完成に関する現在の研究状況について概観する。
我々は,KG埋め込み(KGE)設計の2つの主要分野に焦点を当てた:1)距離ベース手法と2)意味マッチング方式である。
次に,2次元および3次元アフィン操作からインスピレーションを得る複合Eと複合E3Dを探索する。
論文 参考訳(メタデータ) (2023-09-21T21:52:42Z) - Normalizing Flow-based Neural Process for Few-Shot Knowledge Graph
Completion [69.55700751102376]
FKGC (Few-shot Knowledge Graph completion) は、失明した事実を、無意味な関連のある事実で予測することを目的としている。
既存のFKGC手法はメートル法学習やメタラーニングに基づいており、しばしば分布外や過度に適合する問題に悩まされる。
本稿では,数ショット知識グラフ補完(NP-FKGC)のためのフローベースニューラルプロセスの正規化を提案する。
論文 参考訳(メタデータ) (2023-04-17T11:42:28Z) - Improving Few-Shot Inductive Learning on Temporal Knowledge Graphs using
Confidence-Augmented Reinforcement Learning [24.338098716004485]
TKGCは、時間的knwoledge graph(TKG)におけるエンティティ間の欠落リンクを予測することを目的としている。
近年,TKG数発アウトオブグラフ(OOG)リンク予測という新たなタスクが提案されている。
本稿では,この課題を解決するために,少数ショット学習と強化学習を組み合わせたTKGC法FITCARLを提案する。
論文 参考訳(メタデータ) (2023-04-02T20:05:20Z) - Meta-Learning Based Knowledge Extrapolation for Temporal Knowledge Graph [4.103806361930888]
時間的KG(TKG)は、静的トリプルとタイムスタンプを関連付けることで従来の知識グラフを拡張する。
本稿では,メタラーニングに基づく時間知識グラフ外挿法(MTKGE)モデルを提案する。
MTKGEは知識グラフ外挿法において既存の最先端モデルよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-02-11T09:52:26Z) - A Survey of Knowledge Graph Reasoning on Graph Types: Static, Dynamic,
and Multimodal [57.8455911689554]
知識グラフ推論(KGR)は、知識グラフに基づくマイニング論理則に基づいて、既存の事実から新しい事実を推論することを目的としている。
質問応答やレコメンデーションシステムなど、多くのAIアプリケーションでKGを使うことに大きなメリットがあることが証明されている。
論文 参考訳(メタデータ) (2022-12-12T08:40:04Z) - Search to Pass Messages for Temporal Knowledge Graph Completion [97.40256786473516]
我々は、時間知識グラフ(TKG)の補完のために、NAS(Neural Architecture Search)を用いて、データ固有のメッセージパッシングアーキテクチャを設計することを提案する。
特に,TKGにおけるトポロジカルおよび時間的情報を探るための一般化されたフレームワークを開発する。
より低コストで効率的な探索のために単一経路をサンプリングし,スーパーネット構造を訓練する探索アルゴリズムを採用する。
論文 参考訳(メタデータ) (2022-10-30T04:05:06Z) - Disconnected Emerging Knowledge Graph Oriented Inductive Link Prediction [0.0]
我々はDECG-ILP(Disconnect Emerging Knowledge Graph Oriented Inductive Link Prediction)という新しいモデルを提案する。
CLRMは、元のKGとDECG間で共有されるグローバルな関係に基づく意味的特徴を抽出するために開発された。
モジュールGSMは、各リンク周辺の局所部分グラフトポロジ情報をKGで抽出するために提案される。
論文 参考訳(メタデータ) (2022-09-03T10:58:24Z) - Learning Meta Representations of One-shot Relations for Temporal
Knowledge Graph Link Prediction [33.36701435886095]
近年,静的知識グラフ(KG)のリレーショナル学習が注目されている。
TKGには豊富な時間情報が含まれており、モデリングには時間的推論技術が必要である。
これは、時間的文脈で少数のショットの関係を学ぶ上で大きな課題となる。
論文 参考訳(メタデータ) (2022-05-21T15:17:52Z) - Learning Intents behind Interactions with Knowledge Graph for
Recommendation [93.08709357435991]
知識グラフ(KG)は、推薦システムにおいてますます重要な役割を果たす。
既存のGNNベースのモデルは、きめ細かいインテントレベルでのユーザ項目関係の特定に失敗します。
本稿では,新しいモデルである知識グラフベースインテントネットワーク(kgin)を提案する。
論文 参考訳(メタデータ) (2021-02-14T03:21:36Z) - Inductive Learning on Commonsense Knowledge Graph Completion [89.72388313527296]
コモンセンス知識グラフ(英: Commonsense Knowledge graph、CKG)は、知識グラフ(英: knowledge graph、CKG)の一種。
本稿では,未確認のエンティティがテスト時に現れるCKG完了のための帰納学習環境について検討する。
InductivEは、ATOMICとConceptNetベンチマークの標準設定とインダクティブ設定の両方において、最先端のベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2020-09-19T16:10:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。