論文の概要: Learning Rules from KGs Guided by Language Models
- arxiv url: http://arxiv.org/abs/2409.07869v1
- Date: Thu, 12 Sep 2024 09:27:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-13 17:08:15.577401
- Title: Learning Rules from KGs Guided by Language Models
- Title(参考訳): 言語モデルに基づくKGの学習規則
- Authors: Zihang Peng, Daria Stepanova, Vinh Thinh Ho, Heike Adel, Alessandra Russo, Simon Ott,
- Abstract要約: ルール学習手法は、潜在的に欠落する事実を予測するために適用することができる。
規則のランク付けは、高度に不完全あるいは偏りのあるKGよりも特に難しい。
近年のLanguage Models (LM) の台頭により、いくつかの研究が、LMがKG補完の代替手段として利用できると主張している。
- 参考スコア(独自算出の注目度): 48.858741745144044
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Advances in information extraction have enabled the automatic construction of large knowledge graphs (e.g., Yago, Wikidata or Google KG), which are widely used in many applications like semantic search or data analytics. However, due to their semi-automatic construction, KGs are often incomplete. Rule learning methods, concerned with the extraction of frequent patterns from KGs and casting them into rules, can be applied to predict potentially missing facts. A crucial step in this process is rule ranking. Ranking of rules is especially challenging over highly incomplete or biased KGs (e.g., KGs predominantly storing facts about famous people), as in this case biased rules might fit the data best and be ranked at the top based on standard statistical metrics like rule confidence. To address this issue, prior works proposed to rank rules not only relying on the original KG but also facts predicted by a KG embedding model. At the same time, with the recent rise of Language Models (LMs), several works have claimed that LMs can be used as alternative means for KG completion. In this work, our goal is to verify to which extent the exploitation of LMs is helpful for improving the quality of rule learning systems.
- Abstract(参考訳): 情報抽出の進歩により、セマンティック検索やデータ分析といった多くのアプリケーションで広く使われている大きな知識グラフ(Yago、Wikidata、Google KGなど)の自動構築が可能になった。
しかしながら、半自動構成のため、KGは不完全であることが多い。
規則学習法は、KGから頻繁なパターンを抽出し、それらをルールにキャストすることで、潜在的に欠落する事実を予測できる。
このプロセスの重要なステップはルールランキングです。
ルールのランク付けは、非常に不完全あるいは偏りのあるKG(例えば、有名人の事実を主に保存するKG)よりも特に難しい。
この問題に対処するために、以前の研究は、元のKGに依存するだけでなく、KG埋め込みモデルによって予測される事実にも依存するルールをランク付けすることを提案した。
同時に、近年の言語モデル(LM)の台頭とともに、いくつかの研究が、LMがKG補完の代替手段として利用できると主張している。
本研究の目的は,ルール学習システムの品質向上に,LMの活用がどの程度役立つかを検証することである。
関連論文リスト
- KG-CF: Knowledge Graph Completion with Context Filtering under the Guidance of Large Language Models [55.39134076436266]
KG-CFはランキングベースの知識グラフ補完タスクに適したフレームワークである。
KG-CFは、LLMの推論能力を活用して、無関係なコンテキストをフィルタリングし、現実世界のデータセットで優れた結果を得る。
論文 参考訳(メタデータ) (2025-01-06T01:52:15Z) - Anomaly Detection and Classification in Knowledge Graphs [1.2599533416395767]
知識グラフにおける異常な三重項や実体を検出するための教師なしアプローチであるSEKA(Seeking Knowledge Graph Anomalies)を提案する。
また, TAXOはKGに出現する可能性のある異常型の分類法である。
実世界の4つのKG, YAGO-1, KBpedia, Wikidata, DSKGを用いて, 両者のアプローチを評価する。
論文 参考訳(メタデータ) (2024-12-06T05:03:10Z) - Generate-on-Graph: Treat LLM as both Agent and KG in Incomplete Knowledge Graph Question Answering [87.67177556994525]
我々は、知識グラフ(KG)を探索しながら、新しい実写トリプルを生成する、Generate-on-Graph(GoG)と呼ばれる学習自由な手法を提案する。
GoGはIKGQAでLLMをエージェントとKGの両方として扱うThinking-Searching-Generatingフレームワークを通じて推論を行う。
論文 参考訳(メタデータ) (2024-04-23T04:47:22Z) - FedMKGC: Privacy-Preserving Federated Multilingual Knowledge Graph
Completion [21.4302940596294]
知識グラフ補完(KGC)は、知識グラフ(KG)の欠落事実を予測することを目的とする。
KG間で生データを転送することに依存する従来の方法は、プライバシー上の懸念を提起している。
我々は、生データ交換やエンティティアライメントを必要とせずに、複数のKGから暗黙的に知識を集約する新しい連合学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-17T08:09:27Z) - ChatRule: Mining Logical Rules with Large Language Models for Knowledge
Graph Reasoning [107.61997887260056]
そこで我々は,知識グラフ上の論理ルールをマイニングするための大規模言語モデルの力を解き放つ新しいフレームワークChatRuleを提案する。
具体的には、このフレームワークは、KGのセマンティック情報と構造情報の両方を活用するLLMベースのルールジェネレータで開始される。
生成されたルールを洗練させるために、ルールランキングモジュールは、既存のKGから事実を取り入れてルール品質を推定する。
論文 参考訳(メタデータ) (2023-09-04T11:38:02Z) - KGxBoard: Explainable and Interactive Leaderboard for Evaluation of
Knowledge Graph Completion Models [76.01814380927507]
KGxBoardは、データの意味のあるサブセットを詳細に評価するためのインタラクティブなフレームワークである。
実験では,KGxBoardを用いることで,標準平均シングルスコアメトリクスでは検出が不可能であったことを強調した。
論文 参考訳(メタデータ) (2022-08-23T15:11:45Z) - MEKER: Memory Efficient Knowledge Embedding Representation for Link
Prediction and Question Answering [65.62309538202771]
知識グラフ(KG)は、事実を象徴的に構造化した記憶装置である。
KG埋め込みには、実世界の暗黙的な情報を必要とするNLPタスクで使用される簡潔なデータが含まれている。
リンク予測タスクとKGに基づく質問応答においてSOTAに比較可能な性能をもたらすメモリ効率のよいKG埋め込みモデルを提案する。
論文 参考訳(メタデータ) (2022-04-22T10:47:03Z) - EngineKGI: Closed-Loop Knowledge Graph Inference [37.15381932994768]
EngineKGIは、新しいクローズドループKG推論フレームワークである。
KGEとルール学習を組み合わせて、クローズドループパターンで相互に補完する。
我々のモデルはリンク予測タスクにおいて、他のベースラインよりも優れています。
論文 参考訳(メタデータ) (2021-12-02T08:02:59Z) - What is Normal, What is Strange, and What is Missing in a Knowledge
Graph: Unified Characterization via Inductive Summarization [34.3446695203147]
ここでは,KGを教師なしKG要約として定式化することにより,KG特徴量に対する統一解を導入する。
KGistは最小記述長原理に従ってKGを最もよく圧縮する帰納規則の要約を学習する。
KGistは, エラー検出や不完全性同定において, タスク固有の, 教師あり, 教師なしのベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-23T17:38:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。