論文の概要: KGQuest: Template-Driven QA Generation from Knowledge Graphs with LLM-Based Refinement
- arxiv url: http://arxiv.org/abs/2511.11258v1
- Date: Fri, 14 Nov 2025 12:54:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.608033
- Title: KGQuest: Template-Driven QA Generation from Knowledge Graphs with LLM-Based Refinement
- Title(参考訳): KGQuest: LLMベースのリファインメントによる知識グラフからのテンプレート駆動QA生成
- Authors: Sania Nayab, Marco Simoni, Giulio Rossolini, Andrea Saracino,
- Abstract要約: 本稿では,知識グラフ(KG)から自然言語QAを生成するためのスケーラブルで決定論的パイプラインを提案する。
アプローチはまず、その関係に基づいてKG三重項をクラスタリングし、オブジェクトと関係のエンティティタイプから派生した自然言語規則を通じて再利用可能なテンプレートを作成する。
モジュールはLSMを利用してこれらのテンプレートを洗練し、事実の精度を維持しながら明確さとコヒーレンスを向上させる。
実験により、このハイブリッドアプローチは高い品質のQAペアを効率よく生成し、スケーラビリティと流速と言語的精度を組み合わせていることが示された。
- 参考スコア(独自算出の注目度): 3.5920336471372756
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The generation of questions and answers (QA) from knowledge graphs (KG) plays a crucial role in the development and testing of educational platforms, dissemination tools, and large language models (LLM). However, existing approaches often struggle with scalability, linguistic quality, and factual consistency. This paper presents a scalable and deterministic pipeline for generating natural language QA from KGs, with an additional refinement step using LLMs to further enhance linguistic quality. The approach first clusters KG triplets based on their relations, creating reusable templates through natural language rules derived from the entity types of objects and relations. A module then leverages LLMs to refine these templates, improving clarity and coherence while preserving factual accuracy. Finally, the instantiation of answer options is achieved through a selection strategy that introduces distractors from the KG. Our experiments demonstrate that this hybrid approach efficiently generates high-quality QA pairs, combining scalability with fluency and linguistic precision.
- Abstract(参考訳): 知識グラフ(KG)からの質問と回答(QA)の生成は、教育プラットフォーム、普及ツール、大規模言語モデル(LLM)の開発とテストにおいて重要な役割を果たす。
しかし、既存のアプローチはスケーラビリティ、言語的品質、現実的な一貫性に悩まされることが多い。
本稿では,KGsから自然言語QAを生成するためのスケーラブルで決定論的パイプラインを提案する。
アプローチはまず、その関係に基づいてKG三重項をクラスタリングし、オブジェクトと関係のエンティティタイプから派生した自然言語規則を通じて再利用可能なテンプレートを作成する。
モジュールはLSMを利用してこれらのテンプレートを洗練し、事実の精度を維持しながら明確さとコヒーレンスを向上させる。
最後に、解答オプションのインスタンス化は、KGからイントラクタを導入する選択戦略によって達成される。
実験により, このハイブリッド手法は, 高い品質のQAペアを効率よく生成し, スケーラビリティと流速, 言語的精度の両立を実証した。
関連論文リスト
- A Human-in-the-Loop, LLM-Centered Architecture for Knowledge-Graph Question Answering [41.99844472131922]
大きな言語モデルは言語理解において優れているが、知識集約的なドメインでは限られている。
この研究は、LLMがCypherグラフクエリを生成して説明するインタラクティブなフレームワークを導入している。
論文 参考訳(メタデータ) (2026-02-05T10:10:19Z) - Prompting is not Enough: Exploring Knowledge Integration and Controllable Generation [89.65955788873532]
オープンドメイン質問応答(OpenQA)は自然言語処理(NLP)の基盤である。
我々は,知識統合と制御可能生成を探求し,OpenQAの性能向上を目的としたGenKIという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-26T08:18:33Z) - Knowledge Graph-extended Retrieval Augmented Generation for Question Answering [10.49712834719005]
本稿では,Large Language Models (LLMs) とKGs (KGs) を統合するシステムを提案する。
結果として得られるアプローチは、KGを持つ検索拡張生成(RAG)の特定の形式に分類される。
質問分解モジュールを含み、マルチホップ情報検索と回答可能性を高める。
論文 参考訳(メタデータ) (2025-04-11T18:03:02Z) - LatentQA: Teaching LLMs to Decode Activations Into Natural Language [72.87064562349742]
自然言語におけるモデルアクティベーションに関するオープンな疑問に答えるタスクであるLatentQAを紹介する。
本稿では,アクティベーションと関連する質問応答ペアのデータセット上で,デコーダLLMを微調整するLatent Interpretation Tuning (LIT)を提案する。
我々のデコーダはまた、ステレオタイプ付き文のモデルのデバイアス化や世代ごとの感情制御など、モデルを制御するために使用する差別化可能な損失も規定している。
論文 参考訳(メタデータ) (2024-12-11T18:59:33Z) - KaLM: Knowledge-aligned Autoregressive Language Modeling via Dual-view Knowledge Graph Contrastive Learning [74.21524111840652]
本稿では、textitKnowledge-aligned Language Modeling アプローチである textbfKaLM を提案する。
明示的な知識アライメントと暗黙的な知識アライメントという共同目的を通じて、KG知識と整合するように、自己回帰的な大規模言語モデルを微調整する。
特に,本手法は知識駆動型タスクの評価において顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2024-12-06T11:08:24Z) - Combining Knowledge Graphs and Large Language Models [4.991122366385628]
大規模言語モデル(LLM)は、言語理解と生成において驚くべき結果を示す。
幻覚やドメイン固有の知識の欠如など、いくつかの欠点がある。
これらの問題は知識グラフ(KG)を組み込むことで効果的に緩和することができる。
本研究は、KGを用いたLLM、LLMベースのKG、LLM-KGハイブリッドアプローチに関する28の論文の概要をまとめた。
論文 参考訳(メタデータ) (2024-07-09T05:42:53Z) - Knowledge Graph Large Language Model (KG-LLM) for Link Prediction [43.55117421485917]
本稿では,知識グラフタスクに大規模言語モデル(LLM)を活用する新しいフレームワークである知識グラフ大言語モデル(KG-LLM)を紹介する。
まず、構造化知識グラフデータを自然言語に変換し、次にこれらの自然言語プロンプトを微調整 LLM に変換する。
KG-LLMフレームワークの有効性を示すため,Flan-T5,LLaMa2,Gemmaの3つのLLMを微調整した。
論文 参考訳(メタデータ) (2024-03-12T04:47:29Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - Towards Verifiable Generation: A Benchmark for Knowledge-aware Language Model Attribution [48.86322922826514]
本稿では,知識認識型言語モデル属性(KaLMA)の新たな課題について述べる。
まず、属性のソースを構造化されていないテキストから知識グラフ(KG)に拡張し、そのリッチな構造は属性のパフォーマンスと作業シナリオの両方に役立ちます。
第2に,不完全な知識リポジトリを考慮した「意識的非能力」の設定を提案する。
第3に,テキスト品質,引用品質,引用アライメントを含む総合的な自動評価指標を提案する。
論文 参考訳(メタデータ) (2023-10-09T11:45:59Z) - Empowering Language Models with Knowledge Graph Reasoning for Question
Answering [117.79170629640525]
我々はknOwledge ReasOning empowered Language Model (OREO-LM)を提案する。
OREO-LMは、既存のTransformerベースのLMに柔軟に接続できる新しい知識相互作用層で構成されている。
クローズド・ブック・セッティングにおいて,最先端の成果が得られ,性能が著しく向上した。
論文 参考訳(メタデータ) (2022-11-15T18:26:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。