論文の概要: Rule2Text: A Framework for Generating and Evaluating Natural Language Explanations of Knowledge Graph Rules
- arxiv url: http://arxiv.org/abs/2508.10971v1
- Date: Thu, 14 Aug 2025 16:41:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:23.623655
- Title: Rule2Text: A Framework for Generating and Evaluating Natural Language Explanations of Knowledge Graph Rules
- Title(参考訳): Rule2Text:知識グラフルールの自然言語記述の生成と評価のためのフレームワーク
- Authors: Nasim Shirvani-Mahdavi, Chengkai Li,
- Abstract要約: Rule2Textは、大規模言語モデルを利用して、マイニングされた論理ルールの自然言語説明を生成するフレームワークである。
その結果,細調整後の説明品質が著しく向上し,特にドメイン固有のデータセットが向上した。
- 参考スコア(独自算出の注目度): 0.998900149624725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graphs (KGs) can be enhanced through rule mining; however, the resulting logical rules are often difficult for humans to interpret due to their inherent complexity and the idiosyncratic labeling conventions of individual KGs. This work presents Rule2Text, a comprehensive framework that leverages large language models (LLMs) to generate natural language explanations for mined logical rules, thereby improving KG accessibility and usability. We conduct extensive experiments using multiple datasets, including Freebase variants (FB-CVT-REV, FB+CVT-REV, and FB15k-237) as well as the ogbl-biokg dataset, with rules mined using AMIE 3.5.1. We systematically evaluate several LLMs across a comprehensive range of prompting strategies, including zero-shot, few-shot, variable type incorporation, and Chain-of-Thought reasoning. To systematically assess models' performance, we conduct a human evaluation of generated explanations on correctness and clarity. To address evaluation scalability, we develop and validate an LLM-as-a-judge framework that demonstrates strong agreement with human evaluators. Leveraging the best-performing model (Gemini 2.0 Flash), LLM judge, and human-in-the-loop feedback, we construct high-quality ground truth datasets, which we use to fine-tune the open-source Zephyr model. Our results demonstrate significant improvements in explanation quality after fine-tuning, with particularly strong gains in the domain-specific dataset. Additionally, we integrate a type inference module to support KGs lacking explicit type information. All code and data are publicly available at https://github.com/idirlab/KGRule2NL.
- Abstract(参考訳): 知識グラフ(KG)は、ルールマイニングによって拡張することができるが、結果として生じる論理ルールは、その固有の複雑さと個々のKGの慣用的なラベル付け規則のために、人間が解釈することがしばしば困難である。
この研究は、大規模言語モデル(LLM)を活用して、採掘された論理ルールの自然言語説明を生成する包括的なフレームワークであるRule2Textを提示し、KGアクセシビリティとユーザビリティを改善した。
我々は、フリーベース変種(FB-CVT-REV、FB+CVT-REV、FB15k-237)やogbl-biokgデータセットなど、複数のデータセットを用いて広範な実験を行い、AMIE 3.5.1を用いてルールをマイニングした。
ゼロショット, 少数ショット, 可変型組込み, チェーン・オブ・ソート推論など, 包括的なプロンプト戦略を網羅して, いくつかのLCMを体系的に評価した。
モデルの性能を体系的に評価するために,生成した説明の正確さと明快さに関する人間による評価を行う。
評価のスケーラビリティに対処するために,人間評価者との強い合意を示すLCM-as-a-judgeフレームワークを開発し,検証する。
最高のパフォーマンスモデル(Gemini 2.0 Flash)、LCMの判断、ループ内のフィードバックを活用することで、高品質な地上真実データセットを構築し、オープンソースのZephyrモデルを微調整します。
その結果,細調整後の説明品質が著しく向上し,特にドメイン固有のデータセットが向上した。
さらに、明示的な型情報を持たないKGをサポートするために、型推論モジュールを統合する。
すべてのコードとデータはhttps://github.com/idirlab/KGRule2NLで公開されている。
関連論文リスト
- Rule2Text: Natural Language Explanation of Logical Rules in Knowledge Graphs [0.8135825089247968]
我々は,論理規則の自然言語説明を生成するために,大規模言語モデルの可能性を探究する。
具体的には、ベンチマークデータセットFB15k-237からAMIE 3.5.1ルール探索アルゴリズムを用いて論理ルールを抽出する。
可変エンティティ型やチェーン・オブ・シークレット推論など,ゼロ・ショットプロンプトや少数ショットプロンプトなど,さまざまなプロンプト戦略を検討する。
論文 参考訳(メタデータ) (2025-07-31T17:24:04Z) - Grounding LLM Reasoning with Knowledge Graphs [4.279373869671241]
我々は、知識グラフと推論戦略を統合することで、KGデータにおける推論チェーンのすべてのステップまたは"思想"をアンカーする。
我々は,Chain-of-Thought (CoT), Tree-of-Thought (ToT), Graph-of-Thought (GoT) など,いくつかの推論手法によるエージェント検索と自動検索の両方を評価した。
我々の実験は、このアプローチがベースラインモデルより一貫して優れていることを示した。
論文 参考訳(メタデータ) (2025-02-18T19:20:46Z) - Can LLMs be Good Graph Judge for Knowledge Graph Construction? [24.752904398871127]
上記の課題に対処するためのKG構築フレームワークである textbfGraphJudge を提案する。
本フレームワークでは,文書中のノイズ情報を除去するためのエンティティ中心の戦略を設計する。
そして、LLMをグラフ判定器として微調整し、生成したKGの品質を最終的に向上させた。
論文 参考訳(メタデータ) (2024-11-26T12:46:57Z) - DARG: Dynamic Evaluation of Large Language Models via Adaptive Reasoning Graph [70.79413606968814]
本稿では,適応推論グラフ展開(DARG)によるLCMの動的評価を導入し,複雑性と多様性を制御した現在のベンチマークを動的に拡張する。
具体的には、まず現在のベンチマークでデータポイントの推論グラフを抽出し、それから推論グラフを摂動させて新しいテストデータを生成する。
このような新しく生成されたテストサンプルは、元のベンチマークと同様の言語的多様性を維持しながら、複雑さのレベルが異なる可能性がある。
論文 参考訳(メタデータ) (2024-06-25T04:27:53Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - ChatRule: Mining Logical Rules with Large Language Models for Knowledge
Graph Reasoning [107.61997887260056]
そこで我々は,知識グラフ上の論理ルールをマイニングするための大規模言語モデルの力を解き放つ新しいフレームワークChatRuleを提案する。
具体的には、このフレームワークは、KGのセマンティック情報と構造情報の両方を活用するLLMベースのルールジェネレータで開始される。
生成されたルールを洗練させるために、ルールランキングモジュールは、既存のKGから事実を取り入れてルール品質を推定する。
論文 参考訳(メタデータ) (2023-09-04T11:38:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。