論文の概要: IterefinE: Iterative KG Refinement Embeddings using Symbolic Knowledge
- arxiv url: http://arxiv.org/abs/2006.04509v1
- Date: Wed, 3 Jun 2020 14:05:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 17:09:32.306850
- Title: IterefinE: Iterative KG Refinement Embeddings using Symbolic Knowledge
- Title(参考訳): IterefinE:シンボリック知識を用いた反復的KGリファインメント埋め込み
- Authors: Siddhant Arora, Srikanta Bedathur, Maya Ramanath, Deepak Sharma
- Abstract要約: テキストソースから抽出された知識グラフ(KG)は、しばしばノイズが多く、KGベースの質問応答のような下流アプリケーションタスクではパフォーマンスが低下する。
最も成功したKG精製技術は、推論規則と推論監督の過剰な利用である。
本稿では,2つの手法を反復的に組み合わせたIterefinEというKG精製フレームワークを提案する。
- 参考スコア(独自算出の注目度): 10.689559910656474
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge Graphs (KGs) extracted from text sources are often noisy and lead
to poor performance in downstream application tasks such as KG-based question
answering.While much of the recent activity is focused on addressing the
sparsity of KGs by using embeddings for inferring new facts, the issue of
cleaning up of noise in KGs through KG refinement task is not as actively
studied. Most successful techniques for KG refinement make use of inference
rules and reasoning over ontologies. Barring a few exceptions, embeddings do
not make use of ontological information, and their performance in KG refinement
task is not well understood. In this paper, we present a KG refinement
framework called IterefinE which iteratively combines the two techniques - one
which uses ontological information and inferences rules, PSL-KGI, and the KG
embeddings such as ComplEx and ConvE which do not. As a result, IterefinE is
able to exploit not only the ontological information to improve the quality of
predictions, but also the power of KG embeddings which (implicitly) perform
longer chains of reasoning. The IterefinE framework, operates in a co-training
mode and results in explicit type-supervised embedding of the refined KG from
PSL-KGI which we call as TypeE-X. Our experiments over a range of KG benchmarks
show that the embeddings that we produce are able to reject noisy facts from KG
and at the same time infer higher quality new facts resulting in up to 9%
improvement of overall weighted F1 score
- Abstract(参考訳): テキストソースから抽出された知識グラフ(KG)は、しばしばノイズが多く、KGベースの質問応答などの下流アプリケーションタスクでは性能が悪く、最近の活動の多くは、新しい事実を推測するために埋め込みを用いてKGの疎外性に対処することに重点を置いているが、KGリファインメントタスクによるKGのノイズのクリーンアップに関する問題は、あまり研究されていない。
kgリファインメントの最も成功した手法は推論規則とオントロジー上の推論を用いる。
いくつか例外があるが、埋め込みはオントロジ情報を利用せず、KGリファインメントタスクにおけるそれらのパフォーマンスはよく理解されていない。
本稿では, オントロジ情報と推論規則, PSL-KGI と ComplEx や ConvE などの KG 埋め込みを反復的に組み合わせた IterefinE という KG 改良フレームワークを提案する。
その結果、IterefinEは、オントロジ情報を利用して予測の質を向上させるだけでなく、(単純に)より長い推論の連鎖を実行するKG埋め込みのパワーも活用できる。
IterefinEフレームワークは、コトレーニングモードで動作し、私たちがTypeE-Xと呼ぶPSL-KGIから改良されたKGを明示的に型教師型埋め込みする。
KGベンチマークを用いて行った実験では,KGからのノイズのある事実を除去できると同時に,高品質な新たな事実を推し進めることができ,全体の重み付きF1スコアが最大9%向上することがわかった。
関連論文リスト
- Decoding on Graphs: Faithful and Sound Reasoning on Knowledge Graphs through Generation of Well-Formed Chains [66.55612528039894]
知識グラフ(KG)は質問応答(QA)のための信頼できる知識ソースとして機能する。
我々は、LLMとKGの深い相乗効果を促進する新しいフレームワークであるDoG(Decoding on Graphs)を提案する。
様々なKGQAタスクに対して異なるバックグラウンドKGを用いた実験により、DoGが優れた、堅牢なパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-10-24T04:01:40Z) - Distill-SynthKG: Distilling Knowledge Graph Synthesis Workflow for Improved Coverage and Efficiency [59.6772484292295]
大規模言語モデル(LLM)によって生成される知識グラフ(KG)は、検索・拡張生成(RAG)アプリケーションにとってますます価値が増している。
既存のKG抽出法は、大規模コーパスの処理に非効率なプロンプトベースのアプローチに依存している。
LLMに基づく多段階文書レベルのKGワークフローであるSynthKGを提案する。
我々はまた、RAGのための新しいグラフベースの検索フレームワークを設計する。
論文 参考訳(メタデータ) (2024-10-22T00:47:54Z) - Graph-constrained Reasoning: Faithful Reasoning on Knowledge Graphs with Large Language Models [83.28737898989694]
大規模言語モデル(LLM)は知識ギャップと幻覚のために忠実な推論に苦しむ。
グラフ制約推論(GCR)は、KGにおける構造的知識とLLMにおける非構造的推論を橋渡しする新しいフレームワークである。
GCRは最先端のパフォーマンスを達成し、追加のトレーニングをすることなく、見えないKGに対して強力なゼロショット一般化性を示す。
論文 参考訳(メタデータ) (2024-10-16T22:55:17Z) - Learning Rules from KGs Guided by Language Models [48.858741745144044]
ルール学習手法は、潜在的に欠落する事実を予測するために適用することができる。
規則のランク付けは、高度に不完全あるいは偏りのあるKGよりも特に難しい。
近年のLanguage Models (LM) の台頭により、いくつかの研究が、LMがKG補完の代替手段として利用できると主張している。
論文 参考訳(メタデータ) (2024-09-12T09:27:36Z) - KG-GPT: A General Framework for Reasoning on Knowledge Graphs Using
Large Language Models [18.20425100517317]
本稿では,知識グラフを用いたタスクに対して,大規模言語モデルを活用するフレームワークであるKG-GPTを提案する。
KG-GPTは文の分割、関連するグラフコンポーネントの検索、論理的結論の導出という3つのステップから構成される。
KGベースの事実検証とKGQAベンチマークを用いてKG-GPTを評価する。
論文 参考訳(メタデータ) (2023-10-17T12:51:35Z) - Retrieve-Rewrite-Answer: A KG-to-Text Enhanced LLMs Framework for
Knowledge Graph Question Answering [16.434098552925427]
本稿では,知識グラフ質問応答(KGQA)課題を解決するために,KG拡張言語モデルアプローチについて検討する。
そこで本研究では,KGの知識をテキスト化された文に変換する,応答に敏感なKG-to-Textアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-20T10:42:08Z) - Knowledge Graph Curation: A Practical Framework [0.0]
そこで本研究では,KGの品質向上のための知識グラフキュレーションフレームワークを提案する。
まず、KGsの状態を評価するための品質指標のセットを定義する。
次に, クリーニング作業としてKGの検証と検証を行う。
第3に,KGの濃縮のための重複検出と知識融合戦略を提案する。
論文 参考訳(メタデータ) (2022-08-17T07:55:28Z) - Explainable Sparse Knowledge Graph Completion via High-order Graph
Reasoning Network [111.67744771462873]
本稿では,スパース知識グラフ(KG)のための新しい説明可能なモデルを提案する。
高次推論をグラフ畳み込みネットワーク、すなわちHoGRNに結合する。
情報不足を緩和する一般化能力を向上させるだけでなく、解釈可能性も向上する。
論文 参考訳(メタデータ) (2022-07-14T10:16:56Z) - Collaborative Knowledge Graph Fusion by Exploiting the Open Corpus [59.20235923987045]
知識表現の質を維持しながら、新たに収穫した3倍の知識グラフを豊かにすることは困難である。
本稿では,付加コーパスから得られる情報を用いてKGを精製するシステムを提案する。
論文 参考訳(メタデータ) (2022-06-15T12:16:10Z) - Learning to Deceive Knowledge Graph Augmented Models via Targeted
Perturbation [42.407209719347286]
知識グラフ(KG)は、ニューラルネットワークが様々な知識集約タスクのパフォーマンスを向上させるのに役立つ。
強化学習政策により, 知覚的に摂動するKGを生成できることを示す。
以上の結果から,KGを付加したモデルがKG情報を解析し,合理的な説明を行う能力に疑問が生じる。
論文 参考訳(メタデータ) (2020-10-24T11:04:45Z) - Multilingual Knowledge Graph Completion via Ensemble Knowledge Transfer [43.453915033312114]
知識グラフ(KG)に欠けている事実を予測することは、知識ベースの構築と推論において重要なタスクである。
KEnSは、学習と知識のアンサンブルを複数の言語固有のKGに組み込むための新しいフレームワークである。
5つの実世界の言語固有のKGの実験により、KEnSはKG完了に関する最先端の手法を一貫して改善していることが示された。
論文 参考訳(メタデータ) (2020-10-07T04:54:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。