論文の概要: Hallucination-Free Automatic Question & Answer Generation for Intuitive Learning
- arxiv url: http://arxiv.org/abs/2601.14280v1
- Date: Tue, 13 Jan 2026 03:57:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.065895
- Title: Hallucination-Free Automatic Question & Answer Generation for Intuitive Learning
- Title(参考訳): 直感的学習のための幻覚のない自動質問・回答生成
- Authors: Nicholas X. Wang, Aggelos K. Katsaggelos,
- Abstract要約: 大規模言語モデル(LLM)における幻覚は、MCQの自動生成に挑戦する。
本稿では,MCQ生成を個別に検証可能な段階に分解する幻覚のないマルチエージェント生成フレームワークを提案する。
その結果、構造化マルチエージェントコラボレーションは、大規模コンテンツ制作における幻覚を軽減できることを示した。
- 参考スコア(独自算出の注目度): 10.54305202989537
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hallucinations in large language models (LLMs), defined as fluent yet incorrect or incoherent outputs, pose a significant challenge to the automatic generation of educational multiple-choice questions (MCQs). We identified four key hallucination types in MCQ generation: reasoning inconsistencies, insolvability, factual errors, and mathematical errors. To address this, we propose a hallucination-free multi-agent generation framework that breaks down MCQ generation into discrete, verifiable stages. Our framework utilizes both rule-based and LLM-based detection agents, as well as hallucination scoring metrics to optimize question quality. We redefined MCQ generation as an optimization task minimizing hallucination risk while maximizing validity, answerability, and cost-efficiency. We also introduce an agent-led refinement process that uses counterfactual reasoning and chain-of-thought (CoT) to iteratively improve hallucination in question generation. We evaluated a sample of AP- aligned STEM questions, where our system reduced hallucination rates by over 90% compared to baseline generation while preserving the educational value and style of questions. Our results demonstrate that structured multi-agent collaboration can mitigate hallucinations in educational content creation at scale, paving the way for more reliable LLM-powered learning tools.
- Abstract(参考訳): 大規模言語モデル(LLM)における幻覚は、流線型で不整合な出力として定義され、MCQの自動生成に重大な課題をもたらす。
我々は,MCQ生成における4つの主要な幻覚タイプ,すなわち推論の不整合,解決可能性,事実的誤り,数学的誤りを同定した。
そこで本研究では,MCQ生成を個別に検証可能な段階に分解する幻覚のないマルチエージェント生成フレームワークを提案する。
本フレームワークでは,ルールベースとLCMベースの検出エージェント,および幻覚スコアの指標を用いて質問品質を最適化する。
我々は,MCQ生成を,妥当性,応答性,費用効率を最大化しつつ,幻覚リスクを最小化する最適化タスクとして再定義した。
また,反実的推論とチェーン・オブ・シント(CoT)を用いて質問生成における幻覚を反復的に改善するエージェント主導の洗練プロセスも導入する。
そこで本システムは,教育的価値と質問スタイルを保ちながら,ベースライン生成と比較して幻覚率を90%以上削減した。
この結果から,構造化マルチエージェントコラボレーションは,大規模コンテンツ作成における幻覚を軽減し,より信頼性の高いLLM学習ツールの道を開くことができることが示された。
関連論文リスト
- MIRAGE: Assessing Hallucination in Multimodal Reasoning Chains of MLLM [58.2298313720146]
マルチモーダル幻覚は多源性であり、様々な原因から生じる。
既存のベンチマークでは、知覚誘発幻覚と推論誘発幻覚を適切に区別することができない。
論文 参考訳(メタデータ) (2025-05-30T05:54:36Z) - HalluLens: LLM Hallucination Benchmark [49.170128733508335]
大規模言語モデル(LLM)は、しばしばユーザ入力やトレーニングデータから逸脱する応答を生成する。
本稿では,新たな内因性評価タスクと既存内因性評価タスクを併用した総合幻覚ベンチマークを提案する。
論文 参考訳(メタデータ) (2025-04-24T13:40:27Z) - FG-PRM: Fine-grained Hallucination Detection and Mitigation in Language Model Mathematical Reasoning [18.927164579769066]
既存のアプローチは、主に幻覚の存在を検知するが、それらのタイプや表現の微妙な理解は欠如している。
数学的推論タスクにおける一般的な幻覚を6つのタイプに分類する包括的分類法を導入する。
次に,FG-PRM(FG-PRM)を提案する。
論文 参考訳(メタデータ) (2024-10-08T19:25:26Z) - Hallucination Detection: Robustly Discerning Reliable Answers in Large Language Models [70.19081534515371]
大規模言語モデル(LLM)は様々な自然言語処理タスクで広く採用されている。
それらは、入力源から逸脱する不信または矛盾したコンテンツを生成し、深刻な結果をもたらす。
本稿では,LLMの生成した回答の幻覚を効果的に検出するために,RelDという頑健な識別器を提案する。
論文 参考訳(メタデータ) (2024-07-04T18:47:42Z) - AutoHall: Automated Hallucination Dataset Generation for Large Language Models [56.92068213969036]
本稿では,AutoHallと呼ばれる既存のファクトチェックデータセットに基づいて,モデル固有の幻覚データセットを自動的に構築する手法を提案する。
また,自己コントラディションに基づくゼロリソース・ブラックボックス幻覚検出手法を提案する。
論文 参考訳(メタデータ) (2023-09-30T05:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。