論文の概要: IterefinE: Iterative KG Refinement Embeddings using Symbolic Knowledge
- arxiv url: http://arxiv.org/abs/2006.04509v1
- Date: Wed, 3 Jun 2020 14:05:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-25 17:09:32.306850
- Title: IterefinE: Iterative KG Refinement Embeddings using Symbolic Knowledge
- Title(参考訳): IterefinE:シンボリック知識を用いた反復的KGリファインメント埋め込み
- Authors: Siddhant Arora, Srikanta Bedathur, Maya Ramanath, Deepak Sharma
- Abstract要約: テキストソースから抽出された知識グラフ(KG)は、しばしばノイズが多く、KGベースの質問応答のような下流アプリケーションタスクではパフォーマンスが低下する。
最も成功したKG精製技術は、推論規則と推論監督の過剰な利用である。
本稿では,2つの手法を反復的に組み合わせたIterefinEというKG精製フレームワークを提案する。
- 参考スコア(独自算出の注目度): 10.689559910656474
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge Graphs (KGs) extracted from text sources are often noisy and lead
to poor performance in downstream application tasks such as KG-based question
answering.While much of the recent activity is focused on addressing the
sparsity of KGs by using embeddings for inferring new facts, the issue of
cleaning up of noise in KGs through KG refinement task is not as actively
studied. Most successful techniques for KG refinement make use of inference
rules and reasoning over ontologies. Barring a few exceptions, embeddings do
not make use of ontological information, and their performance in KG refinement
task is not well understood. In this paper, we present a KG refinement
framework called IterefinE which iteratively combines the two techniques - one
which uses ontological information and inferences rules, PSL-KGI, and the KG
embeddings such as ComplEx and ConvE which do not. As a result, IterefinE is
able to exploit not only the ontological information to improve the quality of
predictions, but also the power of KG embeddings which (implicitly) perform
longer chains of reasoning. The IterefinE framework, operates in a co-training
mode and results in explicit type-supervised embedding of the refined KG from
PSL-KGI which we call as TypeE-X. Our experiments over a range of KG benchmarks
show that the embeddings that we produce are able to reject noisy facts from KG
and at the same time infer higher quality new facts resulting in up to 9%
improvement of overall weighted F1 score
- Abstract(参考訳): テキストソースから抽出された知識グラフ(KG)は、しばしばノイズが多く、KGベースの質問応答などの下流アプリケーションタスクでは性能が悪く、最近の活動の多くは、新しい事実を推測するために埋め込みを用いてKGの疎外性に対処することに重点を置いているが、KGリファインメントタスクによるKGのノイズのクリーンアップに関する問題は、あまり研究されていない。
kgリファインメントの最も成功した手法は推論規則とオントロジー上の推論を用いる。
いくつか例外があるが、埋め込みはオントロジ情報を利用せず、KGリファインメントタスクにおけるそれらのパフォーマンスはよく理解されていない。
本稿では, オントロジ情報と推論規則, PSL-KGI と ComplEx や ConvE などの KG 埋め込みを反復的に組み合わせた IterefinE という KG 改良フレームワークを提案する。
その結果、IterefinEは、オントロジ情報を利用して予測の質を向上させるだけでなく、(単純に)より長い推論の連鎖を実行するKG埋め込みのパワーも活用できる。
IterefinEフレームワークは、コトレーニングモードで動作し、私たちがTypeE-Xと呼ぶPSL-KGIから改良されたKGを明示的に型教師型埋め込みする。
KGベンチマークを用いて行った実験では,KGからのノイズのある事実を除去できると同時に,高品質な新たな事実を推し進めることができ,全体の重み付きF1スコアが最大9%向上することがわかった。
関連論文リスト
- KG-GPT: A General Framework for Reasoning on Knowledge Graphs Using
Large Language Models [18.20425100517317]
本稿では,知識グラフを用いたタスクに対して,大規模言語モデルを活用するフレームワークであるKG-GPTを提案する。
KG-GPTは文の分割、関連するグラフコンポーネントの検索、論理的結論の導出という3つのステップから構成される。
KGベースの事実検証とKGQAベンチマークを用いてKG-GPTを評価する。
論文 参考訳(メタデータ) (2023-10-17T12:51:35Z) - Reasoning on Graphs: Faithful and Interpretable Large Language Model
Reasoning [104.92384929827776]
大規模言語モデル(LLM)は複雑なタスクにおいて顕著な推論能力を示している。
彼らは推論中に最新の知識と幻覚を欠いている。
知識グラフ(KG)は、推論のための信頼できる知識源を提供する。
論文 参考訳(メタデータ) (2023-10-02T10:14:43Z) - Retrieve-Rewrite-Answer: A KG-to-Text Enhanced LLMs Framework for
Knowledge Graph Question Answering [16.434098552925427]
本稿では,知識グラフ質問応答(KGQA)課題を解決するために,KG拡張言語モデルアプローチについて検討する。
そこで本研究では,KGの知識をテキスト化された文に変換する,応答に敏感なKG-to-Textアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-20T10:42:08Z) - Reasoning over Multi-view Knowledge Graphs [59.99051368907095]
ROMAは、マルチビューKG上で論理クエリに応答する新しいフレームワークである。
大規模(数百万の事実など)のKGや粒度の細かいビューまでスケールする。
トレーニング中に観測されていない構造やKGビューのクエリを一般化する。
論文 参考訳(メタデータ) (2022-09-27T21:32:20Z) - Knowledge Graph Curation: A Practical Framework [0.0]
そこで本研究では,KGの品質向上のための知識グラフキュレーションフレームワークを提案する。
まず、KGsの状態を評価するための品質指標のセットを定義する。
次に, クリーニング作業としてKGの検証と検証を行う。
第3に,KGの濃縮のための重複検出と知識融合戦略を提案する。
論文 参考訳(メタデータ) (2022-08-17T07:55:28Z) - Explainable Sparse Knowledge Graph Completion via High-order Graph
Reasoning Network [111.67744771462873]
本稿では,スパース知識グラフ(KG)のための新しい説明可能なモデルを提案する。
高次推論をグラフ畳み込みネットワーク、すなわちHoGRNに結合する。
情報不足を緩和する一般化能力を向上させるだけでなく、解釈可能性も向上する。
論文 参考訳(メタデータ) (2022-07-14T10:16:56Z) - Collaborative Knowledge Graph Fusion by Exploiting the Open Corpus [59.20235923987045]
知識表現の質を維持しながら、新たに収穫した3倍の知識グラフを豊かにすることは困難である。
本稿では,付加コーパスから得られる情報を用いてKGを精製するシステムを提案する。
論文 参考訳(メタデータ) (2022-06-15T12:16:10Z) - MEKER: Memory Efficient Knowledge Embedding Representation for Link
Prediction and Question Answering [65.62309538202771]
知識グラフ(KG)は、事実を象徴的に構造化した記憶装置である。
KG埋め込みには、実世界の暗黙的な情報を必要とするNLPタスクで使用される簡潔なデータが含まれている。
リンク予測タスクとKGに基づく質問応答においてSOTAに比較可能な性能をもたらすメモリ効率のよいKG埋め込みモデルを提案する。
論文 参考訳(メタデータ) (2022-04-22T10:47:03Z) - Learning to Deceive Knowledge Graph Augmented Models via Targeted
Perturbation [42.407209719347286]
知識グラフ(KG)は、ニューラルネットワークが様々な知識集約タスクのパフォーマンスを向上させるのに役立つ。
強化学習政策により, 知覚的に摂動するKGを生成できることを示す。
以上の結果から,KGを付加したモデルがKG情報を解析し,合理的な説明を行う能力に疑問が生じる。
論文 参考訳(メタデータ) (2020-10-24T11:04:45Z) - Multilingual Knowledge Graph Completion via Ensemble Knowledge Transfer [43.453915033312114]
知識グラフ(KG)に欠けている事実を予測することは、知識ベースの構築と推論において重要なタスクである。
KEnSは、学習と知識のアンサンブルを複数の言語固有のKGに組み込むための新しいフレームワークである。
5つの実世界の言語固有のKGの実験により、KEnSはKG完了に関する最先端の手法を一貫して改善していることが示された。
論文 参考訳(メタデータ) (2020-10-07T04:54:03Z) - Toward Subgraph-Guided Knowledge Graph Question Generation with Graph
Neural Networks [53.58077686470096]
知識グラフ(KG)質問生成(QG)は,KGから自然言語質問を生成することを目的とする。
本研究は,KGサブグラフから質問を生成し,回答をターゲットとする,より現実的な環境に焦点を当てる。
論文 参考訳(メタデータ) (2020-04-13T15:43:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。