論文の概要: Standing on the Shoulders of Predecessors: Meta-Knowledge Transfer for
Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2110.14170v1
- Date: Wed, 27 Oct 2021 04:57:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-28 12:32:11.701098
- Title: Standing on the Shoulders of Predecessors: Meta-Knowledge Transfer for
Knowledge Graphs
- Title(参考訳): 先駆者の肩に立つ:知識グラフのためのメタ知識伝達
- Authors: Mingyang Chen, Wen Zhang, Yushan Zhu, Hongting Zhou, Zonggang Yuan,
Changliang Xu, Huajun Chen
- Abstract要約: このような知識をメタ知識と呼び、構築された(ソース)KGから新しい(ターゲット)KGへメタ知識を転送する問題を参照する。
MorsEは知識グラフ埋め込みを通じてメタ知識を表現し、メタ学習によってメタ知識を学ぶ。
MorsEはKG間のメタ知識を効果的に学習し、伝達することができ、既存の最先端モデルより優れている。
- 参考スコア(独自算出の注目度): 8.815143812846392
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graphs (KGs) have become widespread, and various knowledge graphs
are constructed incessantly to support many in-KG and out-of-KG applications.
During the construction of KGs, although new KGs may contain new entities with
respect to constructed KGs, some entity-independent knowledge can be
transferred from constructed KGs to new KGs. We call such knowledge
meta-knowledge, and refer to the problem of transferring meta-knowledge from
constructed (source) KGs to new (target) KGs to improve the performance of
tasks on target KGs as meta-knowledge transfer for knowledge graphs. However,
there is no available general framework that can tackle meta-knowledge transfer
for both in-KG and out-of-KG tasks uniformly. Therefore, in this paper, we
propose a framework, MorsE, which means conducting Meta-Learning for
Meta-Knowledge Transfer via Knowledge Graph Embedding. MorsE represents the
meta-knowledge via Knowledge Graph Embedding and learns the meta-knowledge by
Meta-Learning. Specifically, MorsE uses an entity initializer and a Graph
Neural Network (GNN) modulator to entity-independently obtain entity embeddings
given a KG and is trained following the meta-learning setting to gain the
ability of effectively obtaining embeddings. Experimental results on
meta-knowledge transfer for both in-KG and out-of-KG tasks show that MorsE is
able to learn and transfer meta-knowledge between KGs effectively, and
outperforms existing state-of-the-art models.
- Abstract(参考訳): 知識グラフ(KG)は広く普及しており、多くのKGアプリケーションと外部KGアプリケーションをサポートするために、様々な知識グラフが必須に構築されている。
KGs の構築中、新しい KGs は構築された KGs に関する新しい実体を含むかもしれないが、構成された KGs から新しい KGs へいくつかの実体に依存しない知識を移すことができる。
このような知識をメタ知識と呼び、構築された(ソース)KGから新しい(ターゲット)KGへのメタ知識の転送の問題を参照して、ターゲットKG上のタスクのパフォーマンスを知識グラフのメタ知識の転送として改善する。
しかし、KG内タスクと外タスクのメタ知識転送に一様に対応できる汎用フレームワークは存在しない。
そこで本稿では,知識グラフ埋め込みによるメタ知識伝達のためのメタ学習を行うためのフレームワーク MorsE を提案する。
MorsEは知識グラフ埋め込みを通じてメタ知識を表し、メタ学習によってメタ知識を学ぶ。
具体的には、MorsEはエンティティイニシャライザとグラフニューラルネットワーク(GNN)変調器を使用して、KGが与えられたエンティティ埋め込みを独立に取得し、メタラーニング設定に従ってトレーニングし、効果的に埋め込みを得る能力を得る。
KG内およびKG外両方のメタ知識伝達の実験結果から、MorsEはKG間のメタ知識を効果的に学習し、伝達することができ、既存の最先端モデルより優れていることが示された。
関連論文リスト
- Decoding on Graphs: Faithful and Sound Reasoning on Knowledge Graphs through Generation of Well-Formed Chains [66.55612528039894]
知識グラフ(KG)は質問応答(QA)のための信頼できる知識ソースとして機能する。
我々は、LLMとKGの深い相乗効果を促進する新しいフレームワークであるDoG(Decoding on Graphs)を提案する。
様々なKGQAタスクに対して異なるバックグラウンドKGを用いた実験により、DoGが優れた、堅牢なパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-24T04:01:40Z) - KG-FIT: Knowledge Graph Fine-Tuning Upon Open-World Knowledge [63.19837262782962]
知識グラフ埋め込み(KGE)技術は、知識グラフ内の実体と関係のコンパクトな表現を学習するために重要である。
本研究では、エンティティクラスタのセマンティックコヒーレントな階層構造を構築するKG-FITを紹介する。
ベンチマークデータセットFB15K-237、YAGO3-10、PrimeKGの実験は、最先端の訓練済み言語モデルに基づく手法よりもKG-FITの方が優れていることを示した。
論文 参考訳(メタデータ) (2024-05-26T03:04:26Z) - Generate-on-Graph: Treat LLM as both Agent and KG in Incomplete Knowledge Graph Question Answering [87.67177556994525]
我々は、知識グラフ(KG)を探索しながら、新しい実写トリプルを生成する、Generate-on-Graph(GoG)と呼ばれる学習自由な手法を提案する。
GoGはIKGQAでLLMをエージェントとKGの両方として扱うThinking-Searching-Generatingフレームワークを通じて推論を行う。
論文 参考訳(メタデータ) (2024-04-23T04:47:22Z) - Knowledge Graphs Meet Multi-Modal Learning: A Comprehensive Survey [61.8716670402084]
本調査は,KG-driven Multi-Modal Learning(KG4MM)とMulti-Modal Knowledge Graph(MM4KG)の2つの主要な側面におけるKG認識研究に焦点を当てる。
KG対応マルチモーダル学習タスクと本質的MMKGタスクの2つの主要なタスクカテゴリについて検討した。
これらのタスクの多くに対して、定義、評価ベンチマークを提供し、関連する研究を行うための重要な洞察を概説する。
論文 参考訳(メタデータ) (2024-02-08T04:04:36Z) - Unifying Large Language Models and Knowledge Graphs: A Roadmap [61.824618473293725]
大規模言語モデル(LLM)は、自然言語処理と人工知能の分野で新たな波を発生させている。
知識グラフ(KG)、ウィキペディア、フアプ(英語版)は、豊富な事実知識を明示的に記憶する構造化された知識モデルである。
論文 参考訳(メタデータ) (2023-06-14T07:15:26Z) - Joint Pre-training and Local Re-training: Transferable Representation
Learning on Multi-source Knowledge Graphs [17.78174810566248]
我々は、リンクされたマルチソースKG上で大規模な教師KG埋め込みモデルを事前訓練し、課題固有のKGのための学生モデルを学ぶための知識を蒸留する。
フレームワークの有効性と効率を実証するために、広範な実験を行う。
論文 参考訳(メタデータ) (2023-06-05T08:11:59Z) - Collective Knowledge Graph Completion with Mutual Knowledge Distillation [11.922522192224145]
我々は,異なるKGからの集合的知識の最大化に焦点をあてるマルチKG完備化の問題について検討する。
CKGC-CKDと呼ばれる,個々のKGと大きな融合KGの両方で,関係対応グラフ畳み込みネットワークエンコーダモデルを用いる新しい手法を提案する。
複数言語データセットによる実験結果から,本手法はKGCタスクにおけるすべての最先端モデルより優れていることが示された。
論文 参考訳(メタデータ) (2023-05-25T09:49:40Z) - Lifelong Embedding Learning and Transfer for Growing Knowledge Graphs [22.88552158340435]
既存の知識グラフ埋め込みモデルは、主に静的KGに焦点を当てている。
新たな事実やそれまで目に見えない存在や関係が絶えず現れ、成長を通じて新しい知識を素早く学び、伝達できる埋め込みモデルが必要になります。
我々は,KGのスナップショットをスクラッチから学習することなく,学習の知識伝達と保持を考察する。
提案モデルでは,学習と更新のマスク付きKGオートエンコーダと,学習知識を新たなエンティティや関係埋め込みに注入するための埋め込み転送戦略と,破滅的忘れを避けるための埋め込み正規化手法を備える。
論文 参考訳(メタデータ) (2022-11-29T00:43:44Z) - Meta-Learning Based Knowledge Extrapolation for Knowledge Graphs in the
Federated Setting [43.85991094675398]
本稿では,新たな知識グラフ(KG)をフェデレートした環境に組み込むための知識補間問題について検討する。
この問題では、既存のKGでトレーニングされたモデルが、未知の実体と関係を持つ新しいKGを組み込む必要がある。
メタラーニング設定では、既存のKG上に一連のタスクをサンプリングし、新興KG上のリンク予測タスクを模倣する。
サンプルタスクに基づいてグラフニューラルネットワークフレームワークをメタトレーニングし,構造情報に基づく未知のコンポーネントの機能の構築と,それらに対する出力埋め込みを実現する。
論文 参考訳(メタデータ) (2022-05-10T06:27:32Z) - Multilingual Knowledge Graph Completion via Ensemble Knowledge Transfer [43.453915033312114]
知識グラフ(KG)に欠けている事実を予測することは、知識ベースの構築と推論において重要なタスクである。
KEnSは、学習と知識のアンサンブルを複数の言語固有のKGに組み込むための新しいフレームワークである。
5つの実世界の言語固有のKGの実験により、KEnSはKG完了に関する最先端の手法を一貫して改善していることが示された。
論文 参考訳(メタデータ) (2020-10-07T04:54:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。