論文の概要: Rule2Text: A Framework for Generating and Evaluating Natural Language Explanations of Knowledge Graph Rules
- arxiv url: http://arxiv.org/abs/2508.10971v1
- Date: Thu, 14 Aug 2025 16:41:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:23.623655
- Title: Rule2Text: A Framework for Generating and Evaluating Natural Language Explanations of Knowledge Graph Rules
- Title(参考訳): Rule2Text:知識グラフルールの自然言語記述の生成と評価のためのフレームワーク
- Authors: Nasim Shirvani-Mahdavi, Chengkai Li,
- Abstract要約: Rule2Textは、大規模言語モデルを利用して、マイニングされた論理ルールの自然言語説明を生成するフレームワークである。
その結果,細調整後の説明品質が著しく向上し,特にドメイン固有のデータセットが向上した。
- 参考スコア(独自算出の注目度): 0.998900149624725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graphs (KGs) can be enhanced through rule mining; however, the resulting logical rules are often difficult for humans to interpret due to their inherent complexity and the idiosyncratic labeling conventions of individual KGs. This work presents Rule2Text, a comprehensive framework that leverages large language models (LLMs) to generate natural language explanations for mined logical rules, thereby improving KG accessibility and usability. We conduct extensive experiments using multiple datasets, including Freebase variants (FB-CVT-REV, FB+CVT-REV, and FB15k-237) as well as the ogbl-biokg dataset, with rules mined using AMIE 3.5.1. We systematically evaluate several LLMs across a comprehensive range of prompting strategies, including zero-shot, few-shot, variable type incorporation, and Chain-of-Thought reasoning. To systematically assess models' performance, we conduct a human evaluation of generated explanations on correctness and clarity. To address evaluation scalability, we develop and validate an LLM-as-a-judge framework that demonstrates strong agreement with human evaluators. Leveraging the best-performing model (Gemini 2.0 Flash), LLM judge, and human-in-the-loop feedback, we construct high-quality ground truth datasets, which we use to fine-tune the open-source Zephyr model. Our results demonstrate significant improvements in explanation quality after fine-tuning, with particularly strong gains in the domain-specific dataset. Additionally, we integrate a type inference module to support KGs lacking explicit type information. All code and data are publicly available at https://github.com/idirlab/KGRule2NL.
- Abstract(参考訳): 知識グラフ(KG)は、ルールマイニングによって拡張することができるが、結果として生じる論理ルールは、その固有の複雑さと個々のKGの慣用的なラベル付け規則のために、人間が解釈することがしばしば困難である。
この研究は、大規模言語モデル(LLM)を活用して、採掘された論理ルールの自然言語説明を生成する包括的なフレームワークであるRule2Textを提示し、KGアクセシビリティとユーザビリティを改善した。
我々は、フリーベース変種(FB-CVT-REV、FB+CVT-REV、FB15k-237)やogbl-biokgデータセットなど、複数のデータセットを用いて広範な実験を行い、AMIE 3.5.1を用いてルールをマイニングした。
ゼロショット, 少数ショット, 可変型組込み, チェーン・オブ・ソート推論など, 包括的なプロンプト戦略を網羅して, いくつかのLCMを体系的に評価した。
モデルの性能を体系的に評価するために,生成した説明の正確さと明快さに関する人間による評価を行う。
評価のスケーラビリティに対処するために,人間評価者との強い合意を示すLCM-as-a-judgeフレームワークを開発し,検証する。
最高のパフォーマンスモデル(Gemini 2.0 Flash)、LCMの判断、ループ内のフィードバックを活用することで、高品質な地上真実データセットを構築し、オープンソースのZephyrモデルを微調整します。
その結果,細調整後の説明品質が著しく向上し,特にドメイン固有のデータセットが向上した。
さらに、明示的な型情報を持たないKGをサポートするために、型推論モジュールを統合する。
すべてのコードとデータはhttps://github.com/idirlab/KGRule2NLで公開されている。
関連論文リスト
- A Human-in-the-Loop, LLM-Centered Architecture for Knowledge-Graph Question Answering [41.99844472131922]
大きな言語モデルは言語理解において優れているが、知識集約的なドメインでは限られている。
この研究は、LLMがCypherグラフクエリを生成して説明するインタラクティブなフレームワークを導入している。
論文 参考訳(メタデータ) (2026-02-05T10:10:19Z) - Rule2Text: Natural Language Explanation of Logical Rules in Knowledge Graphs [0.8135825089247968]
我々は,論理規則の自然言語説明を生成するために,大規模言語モデルの可能性を探究する。
具体的には、ベンチマークデータセットFB15k-237からAMIE 3.5.1ルール探索アルゴリズムを用いて論理ルールを抽出する。
可変エンティティ型やチェーン・オブ・シークレット推論など,ゼロ・ショットプロンプトや少数ショットプロンプトなど,さまざまなプロンプト戦略を検討する。
論文 参考訳(メタデータ) (2025-07-31T17:24:04Z) - Grounding LLM Reasoning with Knowledge Graphs [4.279373869671241]
我々は、知識グラフと推論戦略を統合することで、KGデータにおける推論チェーンのすべてのステップまたは"思想"をアンカーする。
我々は,Chain-of-Thought (CoT), Tree-of-Thought (ToT), Graph-of-Thought (GoT) など,いくつかの推論手法によるエージェント検索と自動検索の両方を評価した。
我々の実験は、このアプローチがベースラインモデルより一貫して優れていることを示した。
論文 参考訳(メタデータ) (2025-02-18T19:20:46Z) - Transparent NLP: Using RAG and LLM Alignment for Privacy Q&A [15.86510147965235]
一般データ保護規則では、正確な処理情報を明確でアクセスしやすいものにする必要がある。
本稿では,その義務を果たすためのアライメント技術によって強化された,最先端の検索生成システムについて検討する。
論文 参考訳(メタデータ) (2025-02-10T16:42:00Z) - Self-supervised Quantized Representation for Seamlessly Integrating Knowledge Graphs with Large Language Models [17.88134311726175]
本稿では,知識グラフと大規模言語モデルとのシームレスな統合を目指して,各エンティティの量子化符号を学習し,適用するためのフレームワークを提案する。
実験の結果、SSQRは既存の教師なしの量子化手法よりも優れており、より区別可能なコードを生成することがわかった。
微調整されたLLaMA2とLLaMA3.1は、KGリンク予測と三重分類タスクよりも優れた性能を持つ。
論文 参考訳(メタデータ) (2025-01-30T03:40:20Z) - Can LLMs be Good Graph Judge for Knowledge Graph Construction? [24.752904398871127]
上記の課題に対処するためのKG構築フレームワークである textbfGraphJudge を提案する。
本フレームワークでは,文書中のノイズ情報を除去するためのエンティティ中心の戦略を設計する。
そして、LLMをグラフ判定器として微調整し、生成したKGの品質を最終的に向上させた。
論文 参考訳(メタデータ) (2024-11-26T12:46:57Z) - How to Make LLMs Strong Node Classifiers? [70.14063765424012]
言語モデル(LM)は、グラフニューラルネットワーク(GNN)やグラフトランスフォーマー(GT)など、ドメイン固有のモデルの優位性に挑戦している。
本稿では,ノード分類タスクにおける最先端(SOTA)GNNに匹敵する性能を実現するために,既製のLMを有効活用する手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T08:27:54Z) - A Framework for Fine-Tuning LLMs using Heterogeneous Feedback [69.51729152929413]
ヘテロジニアスフィードバックを用いた大規模言語モデル(LLM)の微調整フレームワークを提案する。
まず、不均一なフィードバックデータをSFTやRLHFなどの手法と互換性のある単一の監視形式にまとめる。
次に、この統合されたフィードバックデータセットから、性能向上を得るために高品質で多様なサブセットを抽出する。
論文 参考訳(メタデータ) (2024-08-05T23:20:32Z) - DARG: Dynamic Evaluation of Large Language Models via Adaptive Reasoning Graph [70.79413606968814]
本稿では,適応推論グラフ展開(DARG)によるLCMの動的評価を導入し,複雑性と多様性を制御した現在のベンチマークを動的に拡張する。
具体的には、まず現在のベンチマークでデータポイントの推論グラフを抽出し、それから推論グラフを摂動させて新しいテストデータを生成する。
このような新しく生成されたテストサンプルは、元のベンチマークと同様の言語的多様性を維持しながら、複雑さのレベルが異なる可能性がある。
論文 参考訳(メタデータ) (2024-06-25T04:27:53Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - ReasoningLM: Enabling Structural Subgraph Reasoning in Pre-trained
Language Models for Question Answering over Knowledge Graph [142.42275983201978]
本稿では,構造化推論を行うためのGNNを模倣するサブグラフ認識型自己認識機構を提案する。
また、モデルパラメータを2万のサブグラフで合成した質問に適応するための適応チューニング戦略も採用する。
実験により、ReasoningLMは、更新されたパラメータが少なく、トレーニングデータが少ない場合でも、最先端のモデルを大きなマージンで上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-30T07:18:54Z) - ChatRule: Mining Logical Rules with Large Language Models for Knowledge
Graph Reasoning [107.61997887260056]
そこで我々は,知識グラフ上の論理ルールをマイニングするための大規模言語モデルの力を解き放つ新しいフレームワークChatRuleを提案する。
具体的には、このフレームワークは、KGのセマンティック情報と構造情報の両方を活用するLLMベースのルールジェネレータで開始される。
生成されたルールを洗練させるために、ルールランキングモジュールは、既存のKGから事実を取り入れてルール品質を推定する。
論文 参考訳(メタデータ) (2023-09-04T11:38:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。