論文の概要: KNIGHT: Knowledge Graph-Driven Multiple-Choice Question Generation with Adaptive Hardness Calibration
- arxiv url: http://arxiv.org/abs/2602.20135v1
- Date: Mon, 23 Feb 2026 18:46:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.959131
- Title: KNIGHT: Knowledge Graph-Driven Multiple-Choice Question Generation with Adaptive Hardness Calibration
- Title(参考訳): KNIGHT: 適応的硬度校正による知識グラフ駆動型多項目質問生成
- Authors: Mohammad Amanlou, Erfan Shafiee Moghaddam, Yasaman Amou Jafari, Mahdi Noori, Farhan Farsi, Behnam Bahrak,
- Abstract要約: KNIGHTは、外部ソースから複数の質問(MCQ)データセットを生成するための知識グラフ駆動フレームワークである。
KNIGHTは、インストラクターが制御する難易度を生成するために再利用できる、エンティティと関係の構造化され同義的な要約であるトピック固有の知識グラフを構築する。
ケーススタディとして、KNIGHTは歴史、生物学、数学のMCQデータセットを6つ生成する。
- 参考スコア(独自算出の注目度): 0.24629531282150877
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rise of large language models (LLMs), they have become instrumental in applications such as Retrieval-Augmented Generation (RAG). Yet evaluating these systems remains bottlenecked by the time and cost of building specialized assessment datasets. We introduce KNIGHT, an LLM-based, knowledge-graph-driven framework for generating multiple-choice question (MCQ) datasets from external sources. KNIGHT constructs a topic-specific knowledge graph, a structured and parsimonious summary of entities and relations, that can be reused to generate instructor-controlled difficulty levels, including multi-hop questions, without repeatedly re-feeding the full source text. This knowledge graph acts as a compressed, reusable state, making question generation a cheap read over the graph. We instantiate KNIGHT on Wikipedia/Wikidata while keeping the framework domain- and ontology-agnostic. As a case study, KNIGHT produces six MCQ datasets in History, Biology, and Mathematics. We evaluate quality on five criteria: fluency, unambiguity (single correct answer), topic relevance, option uniqueness, and answerability given the provided sources (as a proxy for hallucination). Results show that KNIGHT enables token- and cost-efficient generation from a reusable graph representation, achieves high quality across these criteria, and yields model rankings aligned with MMLU-style benchmarks, while supporting topic-specific and difficulty-controlled evaluation.
- Abstract(参考訳): 大規模言語モデル (LLMs) の台頭に伴い、それらはRetrieval-Augmented Generation (RAG) のような応用において重要なものとなっている。
しかし、これらのシステムの評価は、特別なアセスメントデータセットを構築するための時間とコストによってボトルネックになっている。
外部ソースからMultiple-choice Question (MCQ)データセットを生成するための,LLMベースの知識グラフ駆動フレームワークであるKNIGHTを紹介する。
KNIGHTは、複数のホップ質問を含むインストラクターが制御する難易度を生成するために再利用可能な、エンティティと関係の構造化された同義的な要約であるトピック固有の知識グラフを構築する。
この知識グラフは、圧縮された再利用可能な状態として機能し、質問生成をグラフ上で安価に読み取る。
我々は、KNIGHTをウィキペディア/ウィキデータ上でインスタンス化し、フレームワークのドメインとオントロジーに依存しないままにします。
ケーススタディとして、KNIGHTは歴史、生物学、数学のMCQデータセットを6つ生成する。
提案手法は, 提案した情報源(幻覚のプロキシ)に対して, 流布度, 不明瞭度(正解数), 話題の関連性, 選択肢の独自性, 回答可能性の5つの基準で評価する。
その結果、KNIGHTは、再利用可能なグラフ表現からトークンおよびコスト効率の高い生成を可能にし、これらの基準で高い品質を実現し、MMLUスタイルのベンチマークと整合したモデルランキングを得るとともに、トピック特化および難易度制御された評価をサポートすることを示した。
関連論文リスト
- A Human-in-the-Loop, LLM-Centered Architecture for Knowledge-Graph Question Answering [41.99844472131922]
大きな言語モデルは言語理解において優れているが、知識集約的なドメインでは限られている。
この研究は、LLMがCypherグラフクエリを生成して説明するインタラクティブなフレームワークを導入している。
論文 参考訳(メタデータ) (2026-02-05T10:10:19Z) - G-reasoner: Foundation Models for Unified Reasoning over Graph-structured Knowledge [88.82814893945077]
大規模言語モデル(LLM)は複雑な推論において優れているが、静的かつ不完全なパラメトリック知識によって制限される。
最近のグラフ強化RAG (GraphRAG) は、このギャップを補足したグラフを構築し、LLMがそれらを推論できるようにする。
G-reasonerは、様々なグラフ構造化知識を推論するためにグラフと言語基盤モデルを統合した統合フレームワークである。
論文 参考訳(メタデータ) (2025-09-29T04:38:12Z) - Enrich-on-Graph: Query-Graph Alignment for Complex Reasoning with LLM Enriching [61.824094419641575]
大言語モデル(LLM)は知識グラフ質問応答(KGQA)のような知識集約的なシナリオにおける幻覚と事実的誤りに苦しむ
これは、構造化知識グラフ(KG)と非構造化クエリのセマンティックギャップによるもので、その焦点や構造に固有の違いが原因である。
既存の手法は通常、バニラKGの資源集約的で非スケーリング可能な推論を用いるが、このギャップを見落としている。
我々は、LLMの事前知識を活用してKGを充実させる柔軟なフレームワークEnrich-on-Graph(EoG)を提案し、グラフとクエリ間のセマンティックギャップを埋める。
論文 参考訳(メタデータ) (2025-09-25T06:48:52Z) - Comparing RAG and GraphRAG for Page-Level Retrieval Question Answering on Math Textbook [6.356031718676495]
ラージ言語モデル(LLM)は、学習中の情報検索のための新しい補助具として登場した。
本稿では,知識グラフ強化型RAG手法であるRetrieval-Augmented Generation(RAG)とGraphRAGについて,ページレベルの質問応答について検討する。
論文 参考訳(メタデータ) (2025-09-20T19:06:49Z) - Align-GRAG: Reasoning-Guided Dual Alignment for Graph Retrieval-Augmented Generation [79.75818239774952]
大きな言語モデル(LLM)は目覚ましい能力を示しているが、幻覚や時代遅れの情報といった問題に苦戦している。
Retrieval-augmented Generation (RAG) は、情報検索システム(IR)を用いて、外部知識のLLM出力を基底にすることで、これらの問題に対処する。
本稿では、検索後句における新しい推論誘導二重アライメントフレームワークであるAlign-GRAGを提案する。
論文 参考訳(メタデータ) (2025-05-22T05:15:27Z) - PolyG: Adaptive Graph Traversal for Diverse GraphRAG Questions [12.124107412701173]
知識グラフ質問の基本パターンを分類するために,完全4クラス分類法を提案する。
次に、グラフの包括的な集合を含む新しいグラフRAGベンチマークであるPolyBenchを作成します。
提案する質問分類法に基づき,質問を分解・分類し,適応的なグラフRAG手法であるPolyGを提案する。
論文 参考訳(メタデータ) (2025-04-02T20:19:04Z) - Integrating Large Language Models with Graph-based Reasoning for Conversational Question Answering [58.17090503446995]
我々は,テキストや知識グラフ,テーブル,インフォボックスといった異質な情報源から収集された証拠について,文脈における質問の理解と推論の課題を組み合わせた会話型質問応答タスクに着目する。
提案手法はグラフ構造表現を用いて質問とその文脈に関する情報を集約する。
論文 参考訳(メタデータ) (2024-06-14T13:28:03Z) - G-Retriever: Retrieval-Augmented Generation for Textual Graph Understanding and Question Answering [61.93058781222079]
現実のテキストグラフを対象とするフレキシブルな問合せフレームワークを開発した。
一般のテキストグラフに対する最初の検索拡張生成(RAG)手法を提案する。
G-Retrieverは、このタスクをSteiner Tree最適化問題として定式化し、グラフ上でRAGを実行する。
論文 参考訳(メタデータ) (2024-02-12T13:13:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。