論文の概要: KGQuest: Template-Driven QA Generation from Knowledge Graphs with LLM-Based Refinement
- arxiv url: http://arxiv.org/abs/2511.11258v1
- Date: Fri, 14 Nov 2025 12:54:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.608033
- Title: KGQuest: Template-Driven QA Generation from Knowledge Graphs with LLM-Based Refinement
- Title(参考訳): KGQuest: LLMベースのリファインメントによる知識グラフからのテンプレート駆動QA生成
- Authors: Sania Nayab, Marco Simoni, Giulio Rossolini, Andrea Saracino,
- Abstract要約: 本稿では,知識グラフ(KG)から自然言語QAを生成するためのスケーラブルで決定論的パイプラインを提案する。
アプローチはまず、その関係に基づいてKG三重項をクラスタリングし、オブジェクトと関係のエンティティタイプから派生した自然言語規則を通じて再利用可能なテンプレートを作成する。
モジュールはLSMを利用してこれらのテンプレートを洗練し、事実の精度を維持しながら明確さとコヒーレンスを向上させる。
実験により、このハイブリッドアプローチは高い品質のQAペアを効率よく生成し、スケーラビリティと流速と言語的精度を組み合わせていることが示された。
- 参考スコア(独自算出の注目度): 3.5920336471372756
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The generation of questions and answers (QA) from knowledge graphs (KG) plays a crucial role in the development and testing of educational platforms, dissemination tools, and large language models (LLM). However, existing approaches often struggle with scalability, linguistic quality, and factual consistency. This paper presents a scalable and deterministic pipeline for generating natural language QA from KGs, with an additional refinement step using LLMs to further enhance linguistic quality. The approach first clusters KG triplets based on their relations, creating reusable templates through natural language rules derived from the entity types of objects and relations. A module then leverages LLMs to refine these templates, improving clarity and coherence while preserving factual accuracy. Finally, the instantiation of answer options is achieved through a selection strategy that introduces distractors from the KG. Our experiments demonstrate that this hybrid approach efficiently generates high-quality QA pairs, combining scalability with fluency and linguistic precision.
- Abstract(参考訳): 知識グラフ(KG)からの質問と回答(QA)の生成は、教育プラットフォーム、普及ツール、大規模言語モデル(LLM)の開発とテストにおいて重要な役割を果たす。
しかし、既存のアプローチはスケーラビリティ、言語的品質、現実的な一貫性に悩まされることが多い。
本稿では,KGsから自然言語QAを生成するためのスケーラブルで決定論的パイプラインを提案する。
アプローチはまず、その関係に基づいてKG三重項をクラスタリングし、オブジェクトと関係のエンティティタイプから派生した自然言語規則を通じて再利用可能なテンプレートを作成する。
モジュールはLSMを利用してこれらのテンプレートを洗練し、事実の精度を維持しながら明確さとコヒーレンスを向上させる。
最後に、解答オプションのインスタンス化は、KGからイントラクタを導入する選択戦略によって達成される。
実験により, このハイブリッド手法は, 高い品質のQAペアを効率よく生成し, スケーラビリティと流速, 言語的精度の両立を実証した。
関連論文リスト
- Prompting is not Enough: Exploring Knowledge Integration and Controllable Generation [89.65955788873532]
オープンドメイン質問応答(OpenQA)は自然言語処理(NLP)の基盤である。
我々は,知識統合と制御可能生成を探求し,OpenQAの性能向上を目的としたGenKIという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-26T08:18:33Z) - Knowledge Graph-extended Retrieval Augmented Generation for Question Answering [10.49712834719005]
本稿では,Large Language Models (LLMs) とKGs (KGs) を統合するシステムを提案する。
結果として得られるアプローチは、KGを持つ検索拡張生成(RAG)の特定の形式に分類される。
質問分解モジュールを含み、マルチホップ情報検索と回答可能性を高める。
論文 参考訳(メタデータ) (2025-04-11T18:03:02Z) - LatentQA: Teaching LLMs to Decode Activations Into Natural Language [72.87064562349742]
自然言語におけるモデルアクティベーションに関するオープンな疑問に答えるタスクであるLatentQAを紹介する。
本稿では,アクティベーションと関連する質問応答ペアのデータセット上で,デコーダLLMを微調整するLatent Interpretation Tuning (LIT)を提案する。
我々のデコーダはまた、ステレオタイプ付き文のモデルのデバイアス化や世代ごとの感情制御など、モデルを制御するために使用する差別化可能な損失も規定している。
論文 参考訳(メタデータ) (2024-12-11T18:59:33Z) - Knowledge Graph Large Language Model (KG-LLM) for Link Prediction [43.55117421485917]
本稿では,知識グラフタスクに大規模言語モデル(LLM)を活用する新しいフレームワークである知識グラフ大言語モデル(KG-LLM)を紹介する。
まず、構造化知識グラフデータを自然言語に変換し、次にこれらの自然言語プロンプトを微調整 LLM に変換する。
KG-LLMフレームワークの有効性を示すため,Flan-T5,LLaMa2,Gemmaの3つのLLMを微調整した。
論文 参考訳(メタデータ) (2024-03-12T04:47:29Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。